Prof. Manuel Del Pino Juan Pedro Eberhard marcos Goycoolea 21 de diciembre de 1999
Indice General
1 Ecuaciones Diferenciales de Primer Orden 1.1 De nicion de la Ecuacion Diferencial . . . . . . . . . . 1.2 Ecuaciones Diferenciales de Variables Separables . . . 1.3 Ecuaciones Homogeneas . . . . . . . . . . . . . . . . . . 1.4 Ecuaciones Exactas . . . . . . . . . . . . . . . . . . . . . 1.4.1 Elementos Basicos . . . . . . . . . . . . . . . . . . 1.4.2 Familias de Curvas y Ecuaciones Diferenciales 1.4.3 Resolucion . . . . . . . . . . . . . . . . . . . . . . . 1.4.4 Factor Integrante . . . . . . . . . . . . . . . . . . . 1.5 Ecuaciones Lineales de Primer Orden . . . . . . . . . . 1.6 Ecuaciones Especiales . . . . . . . . . . . . . . . . . . . . 1.7 Existencia y Unicidad Locales . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 3 4 6 6 7 9 11 12 15 16
2 Ecuaciones Lineales de Segundo Orden 2.1 Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2 E.D. de Segundo Orden Lineales con Coe cientes Constantes . 2.2.1 Metodo de las Integraciones Sucesivas . . . . . . . . . . . 2.2.2 Metodo de los Coe cientes Indeterminados . . . . . . . . 2.2.3 Metodo de Variacion de Parametros . . . . . . . . . . . . . 2.2.4 La Ecuacion de Euler . . . . . . . . . . . . . . . . . . . . . .
17
17 25 27 29 29 35
3 Formas Normales y Teoremas de Comparacion 37 3.1 De nicion de Una Solucion Oscilatoria . . . . . . . . . . . . . . . . . . 37 3.2 Caracterizacion de los ceros de una E.D. Lineal . . . . . . . . . . . . 38
i
ii
INDICE GENERAL
3.3 Teorema de Compacion de Sturm . . . . . . . . . . . . . . . . . . . . . 41 3.4 Formas Normales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
4 Ecuaciones Lineales de Orden n 4.1 Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2 E.D. de Segundo Orden Lineales con Coe cientes Constantes . 4.2.1 Metodo de las Integraciones Sucesivas . . . . . . . . . . . 4.2.2 Metodo de los Coe cientes Indeterminados . . . . . . . . 4.2.3 Metodo de Variacion de Parametros . . . . . . . . . . . . . 4.2.4 La Ecuacion de Euler . . . . . . . . . . . . . . . . . . . . . .
. . . . . .
. . . . . .
. . . . . .
47
47 55 56 62 62 67
6 Transformada de Laplace
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
93 94 97 98 98 99 100
93
7 Series de Potencia 103 7.1 Series de Potencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103 7.2 Soluciones en series de potencias de ecuaciones diferenciales lineales 106 7.3 Ecuaciones con Coe cientes Analiticos . . . . . . . . . . . . . . . . . . 108
INDICE GENERAL
iii
8 Sistemas Autonomos
8.1 8.2 8.3 8.4
Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . Sistemas Autonomos . . . . . . . . . . . . . . . . . . . . . Propiedades de las Trayectorias de un Sistema Autonomo . Diagramas de Fase . . . . . . . . . . . . . . . . . . . . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
117
117 119 120 122
dx(t) = f (t; x) dt
(1.1)
Una solucion de la ecuacion (1.1) en un intervalo I IR es una funcion derivable en I : x : I ! IR t ! x(t) Que satisface x0(t) = f (t; x(t)). Donde x0(t)
2
dx dt
dx = x + e t dt
2 2 2
(1.2)
2
dx = d(e t) = 2e t = x + e t: dt dt
1
En general una (misma?) ecuacion diferencial puede tener mas de una solucion. Por ejemplo en (1.2) se tiene que x(t) = e t + et tambien es solucion. En efecto : dx = 2e t + et = x + e t dt Ms aun, se puede ver que : x(t) = e t + cet (1.3) Es solucion de (1.2), para cualquier constante c en los reales. Es decir, asociada a la ecuacion (1.2) hemos encontrado no solo una solucion, sino que una familia de soluciones, las cuales dependen de un parametro c. Esta familia de funciones corresponde a una familia de curvas que recorren cierta region del espacio. Supongamos que nos interesa determinar si alguna de estas funciones pasa por algun punto en particular de IR .
2 2 2 2
Ejemplo 1.1.2 Buscaremos una solucion de (1.2) que pase por el punto (0; 3). Es decir,
que satisfaga la relacion x(0) = 3.
2
x(0) = 3 () 3 = e + ce = 1 + c =) c = 2:
0 0
Sustituyendo c = 2, vemos que x(t) = e t +2et es solucion de (1.2) y pasa por el punto (0; 3). Observemos que la solucion esta de nida para todo t 2 IR.
2
Notemos que utilizando este mismo procedimiento podemos asociar a cada x 2 IR una solucion x(t) de (1.2) que satisfaga x(0) = x . Mas aun, podemos encontrar una solucion de (1.2) tal que x(t ) = x 8 (t ; x ) 2 IR . En efecto, despejando observamos que : t x(t ) = x =) x(t ) = e t + cet =) c = x et e :
0 0 2 0 0 0 0 2 0 0 0
Luego, para cada punto del plano IR hay una funcion de la forma (1.3) que pasa por el. Por otro lado, tambien es facil ver que asociado a cada punto (t ; x ), este elemento de (1.3) es unico. Una vez que se especi ca el valor de la solucion en un punto, la solucion queda univocamente determinada. Entonces (1.3) corresponde a una familia de curvas que no solo recubren todo IR , sino que ademas no se intersectan entre si (>Por Que?). Por ultimo, cabe preguntarse si hay soluciones de (1.2) que no sean de la forma (1.3). Para poder concluir (Insertar dibujo) Esta es una propiedad muy importante de algunas ecuaciones diferenciales, la cual generalizaremos mas adelante. Sin embargo notemos que no siempre es cierta.
2 0 0 2
En este caso no hay unicidad en la solucion. El problema, como estudiaremos mas adelante, es que x = no es derivable en x = 0. Veremos que si f (x; t) satisface ciertas condiciones, se tendra asegurada la existencia y unicidad de soluciones de ecuaciones diferenciales asociadas a ciertos puntos del espacio.
1 3
x0 = p(t)h(x)
0 x0(t) = p(t)h(x) =) hxx((tt))) = p(t) (
(1.4)
Resolucion :
(si h(x) 6= 0) Integrando, y tomando el cambio de variable u = x(t), obtenemos :
Z x0(t)dt Z du h(x(t)) = h(u) Si llamamos H (u) a la primitiva de h u y P (t) a la primitiva de p(t), vemos que :
1 ( )
H (x(t)) = P (t) + c
(1.5)
Observacion 1.2.1 La expresion (1.5) proporciona una relacion implicita entre x y t. Si Ejemplo 1.2.1 Resolvamos la ecuacion diferencial :
Claramente (1.6) es de variables separables. Basta notar que :
bien no siempre sera posible despejar x en funcion de t, permite describir el comportamiento de x mediante un adecuado analisis de funciones.
dx = 2t + tx dt x + 1
2
(1.6)
Luego,
2
Z +1 Z +1 ( x + x ) dx = t dt =) x + x dx = t dt = t2 + c 2 2
2 2
Observacion 1.3.1
(1.7)
5 (1.8)
Observacion 1.3.3 Si t 6= 0 :
f (t; x) = f ( 1 t; 1 x) = f (1; x ) t t t
x = tz =) dx = 1 z + t dz = f (t; x) dt dt
z + t dz = f (1; z) =) dz = f (1; zt) z dt dt Esto corresponde a una ecuacion de variables separables. Luego, Z Z dt dz = t + c =) H ( x ) = log jtj + c f (1; z) z t
x x
(1.9)
Luego, Entonces,
t dz = 1 + z dt 1 z
Por ultimo, notemos que la solucion esta de nida en el intervalo I = ft 2 IRjt < xg o I = ft 2 IRjt > xg
x(t)
) = h! f (t + h; xh f (t; x) lim
0
@f = 3t x @t
2
Analogamente
@f t;x @x
(
= 2t x
3
De nicion 1.6 El diferencial total de una funcion de dos variables f (t; x) es:
(t; df (t; x) = @f (t; x) dt + @f@x x) dx @t
1
Estos intervalos dependen del valor de x, luego deben ser interpretados como IR2 n f(t; x) 2 IR2jt = xg
dF (t; x) = M (t; x)dt + N (t; x)dx = 0 Esto nos sugiere la siguiente de nicion.
De nicion 1.7
Si
9 F (t; x) : IR
@F (t; x) = M (t; x) @t
! IR (t; x) ! F (t; x)
2
@F (t; x) = N (t; x) @x
es exacta
tal que
(1.10)
Si tenemos una ecuacion del tipo (1.10), entonces podemos escribir su solucion x(t) (si existe) implicitamente como F (t; x) = c.
Por lo tanto la ecuacion (1.11) es exacta, dado que representa el diferencial total de F (t; x) = t x.
Veamos que efectivamente si Mdt + Ndx = 0 es exacta, entonces la relacion F (t; x(t)) = c de ne implicitamente la solucion. En efecto: Sea g(t) = F (t; x(t)), entonces g(t) = c 8t =) dg = 0. dt Llamemos x(t + h) x(t) = x, entonces, suponiendo F (t; x) continua ) lim lim g(t + hh g(t) = h! F (t + h; x + hx) F (t; x(t)) h! ) ) = h! F (t + h; x + xh F (t; x + x) + F (t; x + xx F (t; x) hx lim ) ) = h! F (t + h; x + xh F (t; x + x) + h! F (t; x + xx F (t; x) h! hx lim lim lim | {z } | {z } | {z }
0 0 0 0 0 0
@F (t;x) @t
@F (t;x) @x
dx dt
=)
(1.12)
N t;x
(
Dado que es dificil saber si una ecuacion diferencial proviene de un diferencial total, necesitamos un criterio sencillo que nos permita determinar cuando una ecuacion es exacta.
Lema 1.1 Sea una ecuacion de la forma M (t; x)dt + N (t; x)dx = 0. Ademas se tiene que
t;x M (t; x); N (t; x); @M@tt;x ; @N@x son continuas. Si la ecuacion es exacta @M (t; x) = @N (t; x) =) @x @t
( ) ( )
(1.13)
Demostracion 1.1 Como M (t; x)dt + N (t; x)dx = 0 es exacta, se tiene que 9F tal que
entonces por el teorema de Schwartz, se tiene que: @ F (t; x) = @ F (t; x) o sea @N (t; x) = @M (t; x) 2
2 2
@F (t; x) = N (t; x) @x @t
@t@x
@x
1.4.3 Resolucion
Veamos ahora un metodo para resolver este tipo de ecuaciones. Sea M (t; x)dt+N (t; x)dx = 0. Supongamos que existe F (t; x) tal que:
@F (t; x) = M (t; x) @F (t; x) = N (t; x) @t @x Luego, por teorema fundamental del calculo Z (t; Z F (t; x) = @F@t x)dt + g(x) = M (t; x)dt + g(x) Despejando Z @F (t; x) Z M (t; x)dt g(x) = F (t; x) @t dt = F (t; x) @F (t; x) @ Z M (t; x)dt = N (t; x) @ Z M (t; x)dt @x @x @x Por ultimo, integrando se llega a Z @ Z g(x) = N (t; x) @x M (t; x)dt dx g0(x) =
Pero g(x) es una funcion de x, luego derivando se obtiene que
(1.14)
@ Z M (t; x)dt dx F (t; x) = M (t; x)dt + N (t; x) @x (1.15) La expresion anterior es muy importante, pues relaciona F (t; x) con las funciones M (t; x) y N (t; x), que son conocidas. t;x t;x Observemos que F (t; x)cumple que @F@t = M (t; x) y @F@x = N (t; x).
( ) ( )
Observacion 1.4.1 Con el metodo expuesto antes se obtiene la reciproca del lema 1.1, pues si M (t; x) y N (t; x) cumplen que
@M (t; x) = @N (t; x) @x @t Entonces podemos construir F (t; x) como lo indica la ecuacion (1.15) cuyo diferencial total
es
10
@M (t; x) = 2t @x
tan t + g(x)
F (t; x) = xt
Notemos que :
tan t + x
La expresion F (t; x) = c caracteriza una familia de curvas que de ne implicitamente la solucion, en el caso del ejemplo an terior:
x(t) =
q t + 4( tan(t) + c)
4
11
(1.16)
No cumple con las condiciones (1.13). Entonces es natural preguntarse, si existe alguna forma de transformarla en una ecuacion exacta. Supongamos que existe un (t; x), que llamaremos factor integrante, tal que:
@ ( M (t; x)) = @ ( N (t; x)) =) @ M (t; x) + @M = @ N (t; x) + @N (1.17) @x @t @x @x @t @t Notemos que partiendo de una ecuacion diferencial ordinaria hemos llegado a un problema que contiene derivadas parciales. Ahora bien, no necesitamos una solucion general de (1.17) si no que cualquier solucion particular nos servira. Supongamos que (1.16) tiene asociado un factor integrante que solo es funcion de x. Entonces se tiene que @ =@x = d =dx y @ =@t = 0 luego podemos reescribir (1.17) como N (t; x) que es una ecuacion de variables separables. Resolviendola obtenemos t;x R @M@yt;x @N@x N t;x (t; x) = e
( ) ( ) ( )
1 d = dx
@M t;x @y
(
@N t;x @x
(
(1.18)
Pero este razonamiento es obviamente reversible; si la expresion a la derecha en (1.18) es solo funcion de x entonces existe un factor integrante (t; x) que solo depende de x y convierte a (1.16) una ecuacion exacta. En el ejemplo siguiente veremos otro caso de factor integrante y su forma de calcularlo.
(1.19)
2
12
Como ambas expresiones no son iguales, la ecuacion no es exacta. Pero, veamos si podemos encontrar un factor integrante para la ecuacion (1.19). Calculemos @M @N @x @t = 1 (2tx 1) = 2(tx 1) = 2 N (t; x) tx t t(tx 1) x Que es funcioon solo de t. Por consiguiente R t =t (t) = e =t dt = e Es nuestro candidato a factor integrante. A continuacion, veamos si t es factor integrante de la ecuacion (1.19). Efectivamente x dt + (t x t) dx = 0 t t es exacta, ya que @ (xt ) = @ ((t x t)t ) = 1 (1.20)
2 (2 ) 2 log( ) 2 2 2 2 2 2 2 2
@x
@t
dx + P (t)x = Q(t) dt
(1.21) IR.
enciales. Sea C (I ) = ff (t) : I ! IR j f 0 (t) es continua g, el espacio de las funciones con derivada continua.
1
De nicion 1.9 De namos un espacio muy importantes en el estudio de las ecuaciones difer-
Demostracion
Del hecho de que x(t) tenga derivada, se desprende que es continua. Por otro lado, despejando dx de la ecuacion (1.21) obtenemos que dt dx = Q(t) P (t)x(t) dt Notemos que el lado derecho de la igualdad es continuo, debido a que Q(t); P (t) y x(t) son continuas, luego se concluye que la derivada es continua.
13
se tiene que L es un operador lineal.en el sentido de que L( x + y) = L(x) + L(y). Diremos quex(t) es solucion de la ecuacion (1.21) ssi L(x) = Q(t). Debido a lo anterior decimos que la ecuacion es lineal.
N x;t
(
(1.22)
Resolucion :
@M @x
@N @t
(1.23) (1.24)
R R e P t dtdx + e P t dt(P (t) x Q(t))dt = 0 (1.25) lo cual es una ecuacion exacta. Para resolver (1.21) procederemos de una manera alternativa. Multiplicando (1.21) directamente por (x) obtenemos : R P t dt dx R P t dt R P t dt e Q(t) dt + e R P (t)x = eR (e P t dtx)0 = e P t dtQ(t) Z R R P t dt (e x) = e P t dtQ(t) + C
( ) ( ) ( ) ( ) ( ) ( ) ( )
x(t) = e
R P t dt Z
( )
Q(t)e
R P t dt
( )
dt + C
14
e tx0 + 2e tx = 3e t () d(e x) = 3e t dt
2
Integrando,
tx(t) =
3e
tdt + C
=) x(t) = e 1 dx t dt
t(3
e tdt + C ) = et + Ce
3
2x = t cos(t) t x( =2) = 3
2
(1.27)
(1.28)
Imponiendo x( =2) = 3 :
3 = x( =2) = 2 sen 2 + c 2
2
= 4 (c + 1) =) c = 12 1
2 2
x(t) = t sent + ( 12 1) t
2 2
15
Resolucion:
Tomemos el cambio de variables u(t) = x n (t) para obtener una ecuacion diferencial conocida. En efecto: dx + P (t)x = Q(t)xn =) x n dx + P (t)x n = Q(t) dt dt por el cambio de variable u(t) = x n(t) se tiene que u0(t) = (1 n)x n dx dt
1 1 1
0 Reemplazando: u (t) + P (t)u = Q(t) 1 n Hemos llegado a una ecuacion lineal que se resuelve con el metodo anterior, luego basta despejar x(t) para llegar al resultado nal.
Ejemplo 1.6.1 Resolvamos la ecuacion de Bernoulli sujeta a una condicion inicial Solucion Primero escribamos la ecuacion (1.29) en su forma estandar
4 2
(1.29)
dx 1 x = 3 x dt t t Ahora como hemos reconocido que n = 4, tomemos el cambio de variable u(t) = x n (t) = x (t). Luego, la ecuacion se transforma en u0(t) 1 u(t) = 3 () u0(t) + u(t) = 9 3 t t t t
1 3 2 2
Resolviendo esta ecuacion con los metodos vistos en el capitulo e imponiendo la condicion inicial, obtenemos 9 x (t) = u(t) = 5 t + 49 t 5 Por ultimo despejando x(t) se llega a la solucion nal.
3 1 6
16
Como ya se menciono en el principio del capitulo, es necesario saber si la solucion que hemos encontrado es la unica. Para resolver esta pregunta, el siguiente teorems entrega las condiciones para asegurar la existencia y unicidad de la solucion.
Teorema 1.1 Sea (t ; x ) un punto del plano. Sea I un abierto en IR , que contiene a @f (t ; x ). Supongamos que f (t; x) y @x (t; x) son continuas en I . Entonces
2 0 0 0 0
dx = f (t; x) tal que x(t ) = x dt Posee una unica solucion x(t), de nida en un intervalo abierto, que contiene a t .
0 0 0
El teorema anterior nos entrega la existencia de la solucion en una region del plano. Esto motiva la siguiente de nicion.
De nicion 1.11 El abierto de IR mas grande donde existe la solucion x(t) es llamado Region de Existencia.
2
De nicion 1.12 La solucion de nida sobre la region de existencia, es llamada Solucion Maximal. Observacion 1.7.1 Para entender el teorema de existencia y unicidad, pensemos en la
siguiente interpretacion. Sean x(t) e y(t) dos soluciones de la ecuacion diferencial (1.1) y supongamos que ellas coinciden en un punto x . Aplicando el teorema podemos decir que x(t) y(t), es decir, x(t) e y(t) coinciden en todos los puntos.
0
Observacion 1.7.2 Otro aspecto fundamental del teorema de existencia y unicidad, es el hecho de que a cada punto (t ; x ) de IR le puedo asociar una unica solucion de (??) que
2
(2.1)
Ejemplo 2.1.1 Un ejemplo de este tipo de ecuaciones es el oscilador armonico, cuya ecuacion
mx00 = kx
x0 + f (t) En este ecuacion, m representa la masa del cuerpo, k la constante elastica del resorte, la constante de roce y f (t) es la fuerza externa.
(2.2) (2.3)
x(t) =
ZZ
f (t)dt + c t + c
1
17
18
Dado que x(t) es solucion de (2.1), se tiene que es dos veces derivable. Esto implica que x(t) 2 C (I ). Por otro lado, despejando, observamos que x00(t) = f (t) a(t)x0 b(t)x Como x00(t) es suma, y multiplicacion de funciones continuas, se tiene que x00(t) es continua. Luego x(t) 2 C (I ).
1 2
Demostracion
Observacion 2.1.2 Asociada a la ecuacion (2.1), podemos de nir el operador L : C (I ) ! C (I ) x(t) ! L(x) = x00 + a(t)x0 + b(t)x Se tiene que L es un operador lineal, en el sentido que 8 ; 2 IR L( x + x ) = L(x )+ L(x ). Tendremos que x(t) es solucion de (2.1) ssi L(x) = f: Por esto decimos que (2.1)
2 1 2 1
Veamos que L es continua. L( x + x ) = ( x + x )00 + a(t)( x + x )0 + b(t)( x + x ) = x00 + x00 + a(t)( x0 + x0 ) + b(t)( x + x ) = (x00 + a(t)x0 + b(t)x ) + (x00 + a(t)x0 + b(t)x ) = L(x ) + L(x ) 2
1 2 1 2 1 2 1 2 1 2 1 2 1 2 1 1 1 2 2 2 1 2
niente para efectos de calculo considerar esta teoria en los numeros complejos. Es decir, suponemos que las funciones a; b; f estan de nidas en I sobre C, y buscamos una solucion I x : I ! C. I
Ejemplo 2.1.3 La ecuacion x00 + x = 0 tiene fsin(t); cos(t)g como soluciones reales. Notamos que tambien tiene las soluciones complejas, feit ; e itg Observacion 2.1.4 Sean a(t); b(t) funciones reales, y x(t) una solucion compleja de
1 2 1 2
x00(t) + a(t)x0(t) + b(t)x(t) = 0 (2.4) Si x(t) lo podemos escribir como x(t) = x (t) + ix (t), donde x ; x son funciones reales, entonces x ; x son soluciones de (2.4)
1 2
Demostracion Observacion 2.1.4 De niendo L como en la observacion (2.1.2), tendremos que x ; x son soluciones de (2.4), si L(x ) = L(x ) = 0. Pero, L(x) = L(x + ix ) = L(x ) + iL(x )
1 2 1 2 1 2 1 2
2.1. INTRODUCCION
1 2 1 2
19
Como x (t); x (t); a(t); b(t) son reales, tenemos que L(x ); L(x ) son reales. Ademas, como x(t) es solucion, tenemos
L(x ) = L(x ) = 0 2
1 2
De nicion 2.2 Una ecuacion diferencial lineal de segundo orden homogenea es una expresion de la forma :
(2.5)
H(L) = f x(t) j L(x) = 0g = Ker(L) Analogamente, llamaremos J (L) al conjunto de soluciones de (2.6). Es decir, J (L) = f x(t) j L(x) = f g = L (f ) (??)
1
(2.7) (2.8)
Sean xp(t); xq (t) soluciones de (2.7) (Las llamaremos soluciones particulares), y sea xh (t) solucion de (2.8) (la llamaremos solucion homogenea). 1. xp + xh es solucion de (2.7). 2. xp xq es solucion de (2.8).
20
Demostracion Teorema 2.1 1. Por linealidad de L se tiene que L(xp + xh) = L(xp) + L(xh ) = f (t) + 0 =) L(xp + xh) = f (t)
luego xp + xh es solucion de (2.7). 2. Sea x(t) = (xp xq)(t). Por linealidad de L se tiene que L(x) = L(xp xq ) = L(xp) L(xq ) = f (t) f (t) = 0 Luego, x(t) es solucion de (2.8)
1 2
Lema 2.1 H(L) es espacio vectorial. Es decir, si x (t); x (t) 2 H(L), se tiene que x (t) + x (t) 2 H(L): Demostracion Lema 2.1 Sean x (t); x (t) 2 H(L): Sean ; 2 C. Veamos que x(t) = I x (t) + x (t) 2 H(L): En efecto, L( x (t) + x (t)) = L(x ) + L(x ) = 0: Observacion 2.1.6 Del Lema (2.1), y de la observacion (2.1.1), tenemos que H(L) es subespacio vectorial de C (I ). Recordando que C (I ) es de dimension in nita, la pregunta natural que sigue, es >Cual es la dimension de H(L)? Antes de respondernos esta pregunta
1 2 1 2 1 2 1 2 1 2 2 2
es importante recordar la nocion de dependencia lineal que se usa sobre los espacios de funciones.
=1 =1
De nicion 2.4 Dada una familia de funciones ffi(t)gk , se dicen linealmente dependii entes si existe una familia de constantes f igk no todas nulas, tales que i
k X i
=1
i fi (t) = 0
8t
2.1. INTRODUCCION
21
(2.9)
Donde f (t); a(t); b(t) 2 C (I ). Dado to 2 I , y dados y ; y 2 IR, existe una unica solucion x(t) de la ecuacion 2.1 de nida en todo el intervalo I , tal que x(to) = y ,y x0(to ) = y .
2. El Teorema de Existencia y Unicidad asegura que para todo punto (t ; x ) de IR , existe una solucion de (2.9), cuya trayectoria pasa por (t ; x ). Es decir, existe x(t), tal que x(t ) = x .
2 0 0 0 0 0 0
Lema 2.2 Sea x(t) una solucion de (2.5). Si existe algun to 2 I tal que x(to) = 0, y x0(to) = 0, entonces x(t) = 0 8t 2 I . Demostracion Lema (2.2) Supongamos que existe x 2 H(L) tal que x(to) = 0, y x0(to) = 0.
Sabemos que la funcion trivial, z(t) 0 es solucion de (2.5). Ademas es evidente que z(to) = 0, y z0(to) = 0. Como el Teorema de Existencia y Unicidad nos dice que solo puede haber una solucion de (2.5) que cumpla con ambas condiciones, sabemos que necesariamente se debe tener que z(t) = x(t) 8t 2 I . Luego x(t) = 0 8t 2 I 2.
Observacion 2.1.8 Notemos que si x ; x 2 H(L) son linealmente dependientes, entonces se tiene que W (x ; x )(t) = 0 8t 2 I . En efecto: Si x ; x son l.d. entonces existen ; no ambos nulos tal que x (t) + x (t) = 0 8t 2 I . Esto implica que necesariamente x0 (t) + x0 (t) = 0 8t 2 I . Es decir,
1 2 1 2 1 2
22
# " #
= 0 0
8t 2 I
MW t
( )
Esto implica que MW (t) es singular ( i.e. Ker(MW (t)) 6= f0g 8t 2 I ), luego det MW (t) = 0 8t 2 I . Como W (x ; x )(t) det MW (t)8t 2 I , concluimos el resultado.
1 2
Teorema 2.4 Sean x (t); x (t) 2 H(L). Si existe to 2 I tal que W (x ; x )(t ) = 0, entonces
estas soluciones son linealmente dependientes.
1 2 1 2 0
W (x ; x )(t ) = x0 (t ) x0 (t ) = 0 x (t ) x (t ) | {z }
1 1 0 0 2 2 0 0 1 2 0
Mw t
( )
Como det(Mw (t)) = 0, sabemos que existen ; , no ambos nulos, tales que
"
Luego
x (t ) x (t ) x0 (t ) x0 (t )
1 1 0 0 2 2 0 0 2
#"
# " #
= 0 0
x (to) + x (to) = 0 y x0 (to) + x0 (to) = 0: De niendo x(t) = x (t) + x (t), observamos que :
1 1 2 1 2
Luego del Lema (2.2) tenemos que x(t) = 0 8t 2 I . Como encontramos ; no ambos nulos, t.q. x (t) + x (t) = 0 8t 2 I , concluimos que x ; x son linealmente dependientes. 2
1 2 1 2
2. Si existe to 2 I tal que W (x ; x )(t ) 6= 0, entonces W (x ; x )(t) 6= 0 8t 2 I . Luego, x (t); x (t) son l.i. ssi existe to 2 I tal que W (x ; x )(t ) 6= 0.
1 2 0 1 2 1 2 1 2 0
1. Si existe to 2 I tal que W (x ; x )(t ) = 0, entonces W (x ; x )(t) = 0 8t 2 I . Luego, x (t); x (t) son l.d. ssi existe to 2 I tal que W (x ; x )(t ) = 0.
1 2 0 1 2 1 2 1 2 0
2.1. INTRODUCCION
23
2
Teorema 2.5 Existen x (t); x (t) 2 H(L), tales que son linealmente independientes.
1
Del Teorema de Existencia y Unicidad, sabemos que existe x (t) solucion de (2.5) tal que x (to) = 1 y x0 (to) = 0. Tambien sabemos que existe x (t) solucion de (2.5) tal que x (to) = 0 y x0 (to) = 1. Para estas dos funciones se tiene que
1 2 2
Como W (x ; x )(t ) 6= 0, sabemos que x (t) y x (t) son linealmente independientes. 2. El ultimo paso en la demostracion que H(L) es un espacio vectorial de dimension dos es el siguiente.
1 2 0 1 2
Teorema 2.6 Sean x ; x 2 H(L) linealmente independientes. Se tiene que para cada x(t) existen ; constantes tales que x(t) = x (t) + x (t) 8t 2 I .
1 2 1 2
Como x (t); x (t) son l.i. en I , sabemos que para t cualquiera en I se tendera que W (x ; x )(t ) 6= 0. Como la matriz que de ne W (x ; x )(t ) es de determinante no nulo , sabemos que es invertible. Luego, existen constantes ; 2 IR, no ambas nulas, tales que :
1 2 0 1 2 0 1 2 0 2
#" # " # x(to) x (to) x (to) = x0(t ) (2.10) x0 (to) x0 (to) o Si consideramos y(t) = x (t) + x (t), es claro del Lema (2.1) que y(t) 2 H(L). Por otro lado, de (2.10) tenemos y(to) = x(to); y0(to) = x0(to). Como el teorema de existencia y unicidad asegura que solo puede existir una funcion con esas caracteristicas, tenemos que necesariamente x y = x + x 2
1 1 2 2 1 2 1 2
Observacion 2.1.9 De lo anterior es trivial concluir que la dimension de H(L) es dos, pues de (2.5) sabemos que existe una familia l.i. de dos funciones en H(L) que genera, mediante
De nicion 2.6 Decimos que una solucion general de (2.1) es una expresion de la forma
x(t) = xp(t) + c x (t) + c x (t)
1 1 2 2 1 2 1 2
(2.11)
En que fx (t); x (t)g es una base cualquiera de H(L), y xp(t) es una funcion cualquiera de J (L). En general, diremos que xp(t) es una solucion particular de (2.1), y que c ; c son los parametros de (2.11).
2
24
Teorema 2.7 Sea fx (t); x (t)g una base cualquiera de H(L), y xp(t) es una funcion cualquiera de J (L). Se tiene que para toda solucion x(t) de (2.1), existen constantes c ; c , tal que
x(t) = xp(t) + c x (t) + c x (t)
1 1 2 2
Sea x(t) una solucion de (2.1). Por ser fx (t); x (t)g un conjunto linealmente independiente de soluciones del problema homogeneo, se tiene que W (x ; x )(t) 6= 0 8t 2 I . Luego, para a; b 2 IR, se tiene que existen c ; c 2 IR tales que :
1 2 1 2 1 2
Demostracion
"
#"
c c
1 2
# " # = a 8t 2 I b
0 0
De nimos y(t) = xp(t) + c x (t) + c x (t). Es facil ver que y(t) es solucion de (2.1). Sea t 2 I , y tomemos a = x(t ) xp(t ); b = x0(t ) x0p(t ). Notemos que y(t ) = xp(t ) + c x (t ) + c x (t ) = xp(t ) + x(t ) xp(t ) = x(t ). y0(t ) = x0p(t ) + c x0 (t ) + c x0 (t ) = x0p(t ) + x0(t ) x0p(t ) = x0(t ).
1 0 0 0 1 1 0 2 2 0 0 0 0 0 0 0 1 1 0 2 2 0 0 0 0 0
Luego, como y(t); x(t) son soluciones de (2.1). Y como x(t ) = y(t ); x0(t ) = y0(t ), se tiene, por Teorema de Existencia y Unicidad, que x(t) = y(t) 8t 2 I . Luego,
0 0 0 0
Resolucion
x00 + a(t)x0 + b(t)x = f (t) x(t ) = y ; x0(t ) = y Es necesario seguir los siguientes pasos
0 0 0 1 2 1
(2.12) (2.13)
1. Encontrar dos soluciones x (t); x (t) , linealmente independientes, de la ecuacion homogenea. 2. Encontrar una solucion particular xp(t). 3. Escribir la solucion general x(t) = xp(t) + c x (t) + c x (t) 4. Ajustar las constantes c y c para que la solucion general satisfaga las condiciones x(t ) = y ; x0(t ) = y .
1 1 2 2 1 2 0 0 0 1
(2.14) Veamos que x (t) = senh(t); x (t) = et son base de soluciones del problema homogeneo x00 x = 0 (2.15)
1. x (t) = senh(t) es solucion de (2.14). En efecto, (senh(t))00 senh(t) = senh(t) senh(t) = 0 8t:
1
3. x (t) = senh(t); x (t) = et son linealmente independientes. En efecto, () t W (x ; x )(t) = senh(tt) et = et(senh(t) cosh(t)) = et( e t) = 1 6= 0 8t: cosh e
1 2 1 2
Veamos que xp(t) = e t es solucion particular. En efecto, 1 ( 3 e t)00 1 e t = 4 e t 1 e t = e t: 3 3 3 Luego, una solucion general de (2.15) seria la expresion: x(t) = 1 e t + c senh(t) + c et 3 Notemos que esta no es la unica. Se puede demostrar que los conjuntos fet; e t g y fcosh(t); e tg tambien son base de soluciones del problema homogegeo. Lo importante, es que si bien todas las soluciones generales de una ecuacion lineal de segundo orden son equivalentes, se tiene que hay diferentes formas de representarlas.
1 2 3 2 2 2 2 2 2 1 2
26
De nicion 2.7 Una Ecuacion Diferencial Lineal de Segundo Orden a Coe cientes Conx00(t) + ax0(t) + bx(t) = f (t)
(2.16)
D x = x D x = x0 D x = x00
0 2
En que D corresponde al operador que a una funcion le asigna su funcion derivada. Utilizando esta notacion, podemos escribir la ecuacion 2.16 como :
D x + Dax + bx = (D + Da + b)x = f
2 2 2 2
(2.17)
Asociamos al operador diferencial (D + Da + b) el polinomio cuadratico P ( ) = + a + b. Por el Teorema Fundamental del Algebra, si ; son las raices P ( ), sabemos que :
1 2
P( ) = (
)(
Lo que no resulta tan evidente es que los polinomios de operadores tambien heredan esta propiedad.
), donde ;
1
)(D son las raices del Polinomio cuadratico asociado al operador diferencial.
1
)(D
)x = = = = = =
(2.18)
Resolucion
Para resolver (4.14) resolvemos las dos siguientes ecuaciones lineales diferenciales de primer orden : (D (D
1
(2.19) (2.20)
y0(t) y(t) = f (t) Utilizando los metodos vistos en el capitulo 1, es facil veri car que : Z t y(t) = e e tf (t)dt + c
1
x0(t) x(t) = e
= e
2
x(t) = e e
1
t f (t)dt + c
Como esta tambien corresponde a una ecuacion lineal de primer orden, sabemos que :
t t
e e
(
t
2)
dt + c Z t f (t)dt + c e t e e
1
1
t f (t)dt + c
2)
tdt + c
6=
tenemos que :
ce
1
2)
tdt = c
e t (e
2
2)
=( c )
1
1 2
t ) e = c~ e
1
1
Luego,
x(t) = e
2)
t f (t)dt
+ c e t + c e t:
1
28 2. Si
1
tenemos que :
ce
1
Z
e
(
2)
t dt = c
dt = c e tt:
1
Luego,
x(t) = e
2)
t f (t)dt
+ c te t + c e t:
1
(2.21)
2
, donde
Demostracion
1. Primero consideramos el caso en que 6= . Si i es raiz del polinomio caracteristico asociado a (2.21) se tiene que : (e it)00 + a(e it)0 + b(e it) = ( i) e it + a ie it + be it = e it(( i ) + a i + b) = 0 Luego, e it es solucion. Por otro lado,
1 2 2 2
t 6= 0 8t 2 IR )e e t e t =( Luego fe t; e tg son l.i. y base. 2. Consideramos el caso en que = = . De lo anterior es claro que e t es solucion. Por otro lado, tenemos que : (te t)00 + a(te t)0 + b(te t) = te t( + a + b) + e t(2 + a) = e t(2 + a) Pero, como sabemos que 2 = a, tenemos que : e t(2 + a) = 0 =) te t es solucion.
W (x ; x )(t) =
1 2
e
1
e
2
1+ 2 )
Por utlimo :
t t W (x ; x )(t) = ee t te te+ e t = e t 6= 0 8t 2 IR t Luego, fe t; te tg es base.
2 1 2
Observacion 2.2.1 Del Teorema anterior observamos que la solucion de (2.16) dada por
el metodo de las integraciones sucesivas es una solucion general.
+5
6 = ( + 6)( 1)( 1)
1)
2 +1=(
construir dos soluciones reales que sean linealmente independientes. Efectivamente, como e i es solucion, L(e i) = 0. Luego,
+ +
Observacion 2.2.2 Si a; b son reales, tenemos que si = + i es raiz compleja, = i tambien lo es. Veamos que a partir de las soluciones complejas fe i; e ig podemos
+
(cos( t) + isen( t))) = L(e cos( t)) + iL(e sen( t)) = 0 Igualando parte real e imaginaria, obtenemos
+
L(e
i ) = L(e
L(e cos( t)) = 0 L(e sen( t)) = 0 Luego, fe tcos( t); e tsen( t)g son soluciones.
Por otro lado, luego, son linealmente independientes.
2.2.2 Metodo de los Coe cientes Indeterminados 2.2.3 Metodo de Variacion de Parametros
Consideramos una ecuacion diferencial de la forma :
(2.22)
30
Donde f (t); a(t); b(t) son continuas, y a(t); b(t) no son necesariamente constantes. Sean x (t); x t) soluciones linealmente independientes de la ecuacion homogenea asociada a (4.19) En esta seccion estudiaremos un metodo que nos permitira obtener soluciones particulares para ecuaciones lineales de segundo orden a partir de x (t); x t). El metodo que estudiaremos es muy robusto, en el sentido de que a partir de un conjunto l.i. x (t); x (t) de soluciones homogeneas, e independiente de la forma de a(t); b(t) siempre proporcionara una solucion particular. Lamentablemente, solo sabemos determinar soluciones para (4.20) en el caso de que a(t); b(t) sean constantes. Esto constituye una serie limitante para la resolucion de (4.19) utilizando este metodo. El metodo que estudiaremos se llama Metodo de Variacion de Parametros, y consiste en construir una solucion particular de (4.19) que tiene la forma :
1 ( 1 2
(2.23)
(2.24)
Resolucion
Suponemos que existe una solucion particular de la forma (4.21), y buscamos condiciones que nos permitan determinar u (t); u (t). Derivando xp(t) en (4.21), obtenemos :
1 2
Imponiendo u0 (t)x (t) + u0 (t)x (t) = 0, obtenemos : x0p(t) = u (t)x0 (t) + u (t)x0 (t)
1 1 2 2 1 1 2 2
Remplazando en (4.19),
f (t) = x00(t) + a(t)x0p(t) + b(t)xp(t) p = u (t)(x00(t) + a(t)x0 (t) + b(t)x (t)) + u (t)(x00(t) + a(t)x0 (t) + b(t)x (t)) + u0 (t)x0 (t) + u0 (t)x0 (t)
1 1 1 1 2 2 2 2 1 1 2 2
Notamos que por ser x (t); x (t) soluciones del problema homogeneo :
1 2
Luego,
Para que u (t)x (t) + u (t)x (t) sea solucion particular de (4.19), u (t); u (t) deberan satisfacer las dos condiciones impuestas :
1 1 2 2 1 2
Es decir,
#" # " # x (t) x (t) u0 (t) = 0) f (t) x0 (t) x0 (t) u0 (t) Resolviendo este sistema usando la Regla de Cramer, obtenemos : "
1 1 2 2 1 2
(2.25)
Luego,
x (t u (t) = W (x (;t)f )()) dt + k x t Z x (t)f (t) u (t) = W (x ; x )(t) dt + k Como buscamos soluciones particulares, suponemos k = k = 0. Finalmente, remplazando en (4.21), obtenemos :
2 1 1 1 2 1 2 2 1 2 1 2
CAPITULO 2. ECUACIONES LINEALES DE SEGUNDO ORDEN t f xp(t) = x (t) R W xx ;xf tt dt + x (t) R Wx x t;x t t
32
1
2( ) ( ) 1
2 )( )
1( ) ( ) 1
2 )( )
x00(t) + x(t) = 0 =) P ( ) =
+1=(
i)( + i)
Luego la base de H(L) es fcos(t); sen(t)g. El metodo de variacion de parametros nos dice que existe una solucion particular de la forma:
Donde : Como :
u (t) =
1
Z sen(t)tan(t) W (x ; x )(t) dt
1 2
() W (cos; sen)(t) = cos(t()t) sen(tt) = cos (t) + sen (t) = 1 sen cos
Resolviendo, obtenemos :
Z sen (t) Z cos (t) 1 u (t) = sen(t)tan(t)dt = cos(t) dt = cos(t) dt = ln(jsec(t) + tan(t)j) + sen(t) Z u (t) = sen(t)dt = cos(t)
2 2 1 2
xg (t) = c cos(t) + c sen(t) ln(jsec(t) + tan(t)j) + sen(t)cos(t) sen(t)cos(t) = c cos(t) + c sen(t) ln(jsec(t) + tan(t)j)
1 2 1 2
(2.26)
Solucion
x(t) = v(t)x (t) x0(t) = v0(t)x (t) + v(t)x0 (t) x00(t) = v00(t)x (t) + v(t)x00(t) + v0(t)x0 (t) + v0(t)x0 (t)
1 1 1 1 1 1 1
0 = x00(t) + a(t)x0(t) + b(t)x(t) = v(t)(x00(t) + a(t)x0 (t) + b(t)x (t)) + v0(t)(2x0 (t) + a(t)x (t)) + v00(t)x (t) = v0(t)(2x0 (t) + a(t)x (t)) + v00(t)x (t)
1 1 1 1 1 1 1 1 1
De niendo w(t) = v0(t), observamos que w(t) debe satisfacer la ecuacion de primer orden :
w0(t) + h(t)w(t) = 0
Resolviendo, obtenemos que
w(t) = c e
1
R h t dt
( )
=) v(t) = c e
1
R h t dt
( )
dt + c
Puesto que nos interesa una solucion particualr cualquiera, imponemos c = 1; c = 0. Entonces,
1 2
v(t) = e
Pero,
R h t dt
( )
dt = e
0
dt
dt = e
2x (t) 1 x1 (t)
dt
R a t dt
( )
dt
e
Luego,
dt
=e
R x0 t
x1 (t)
1( )
dt = e
ln x1 t
(
( ))
= x 1 t) (
2 1
34
(2.27)
Luego,
Z e R t t dt Z e R t dt R dt Z t t t t e dt = etln(t) x (t) = e dt = e te t e t dt = e et
1 2 1
+ 2 2 2 2 2 2
Dado que tenemos resuelto el problema homogeneo, podemos usar el metodo de variacion de parametros para resolver (4.24). Se tiene que
t et et t) W (et; etln(t))(t) = et etln(ln)(+ et = et t t
2
Luego, de niendo :
x (t)f (t) dt = Z etln(t)ett dt = Z ln(t)tdt = t ln(t) + t W (x ; x )(t) et 2 4 Z x (t)f (t) Z etett Z u (t) = W (x ; x )(t) dt = e t = tdt = t2 u (t) =
1 2 2 2 1 2 2 1 2 1 2 2
(2.28)
Resolucion
Para resolver la Ecuacion de Euler hacemos el cambio de variable t = es, y de nimos v(s) = x(es). De este modo :
v(s) = x(es) v0(s) = x0(es)es =) x0(es) = v0(s)e s v00(s) = x00(es)e s + x0(es)es =) x00(es) = e s(v00(s) v0(s))
2 2
(2.29)
Para resolver (4.25), basta resolver (4.26), y aplicar la transformada x(t) = v(ln(t)), para obtener una solucion.
(2.30)
Consideramos primero el problema homogeneo. Mediante el cambio de variables v (s) = x(es) obtenemos la expresion :
(2.31)
3 + 2 = ( 2)( 1). Luego H(L) es generado por las funciones fe s; esg. Notamos que como v (s) = e s , y v (s) = es son soluciones de (4.28), entonces x (t) = e ln t = t , y x (t) = eln t = t son soluciones del problema homogeneo asociado a (4.27). Consideramos, ahora, el problema no homogeneo.
2 2 1 2 2 1 ( )
36
Luego, de niendo :
1
x (t)f (t) dt = Z t t e t dt = Z t e tdt u (t) = W (x ; x )(t) t Z x (t)f (t) Z tte t Z t u (t) = W (x ; x )(t) dt = t = t e dt
2 2 3 2 3 1 2 3 1 2 2 1 2 2 2 2 2
Z Z t t e tdt + t t e tdt
3 2 2
x00 + q(t)x = 0
en el intervalo 1; 1).
(3.1)
De nicion 3.1 Llamaremos cero de una funcion f a todo punto t tal que f (t ) = 0.
0 0
De nicion 3.2 Una solucion x(t) de (3.1) se dice solucion oscilatoria si tiene in nitos
ceros, y el conjunto de ceros es no acotado.
De nicion 3.3 Sean t y t ceros de x(t), diremos que t es el sucesor de t si 8t 2 (t ; t ) se tiene que x(t) 6= 0. Ademas si t es sucesor de t diremos que son ceros sucesivos.
0 1 1 0 0 1 1 0
Ejemplo 3.1.1 Notemos que x00 + x = 0 tiene como solucion a la funcion x(t) = sen(t). Esta solucion es claramente oscilatoria, pues su conjunto de ceros es fk gk2 el cual es in nito, y no acotado (es decir, no existen a; b constantes en los reales tal que k 2 a; b] 8k ).
I N
37
(3.2)
con a(t); b(t) continuas en un intervalo I . Nos interesa entender el comportamiento de los ceros de una solucion no-trivial (no-nula) de (3.2) en terminos de las propiedades de los coe cientes a(t) y b(t).
De nicion 3.4 Sea t un cero de la funcion x(t). Diremos que t es aislado si existe > 0 tal que 8t 2 ]t ; t + nft g =) x(t) 6= 0.
0 0 0 0 0
son aislados.
Teorema 3.1 Sea x(t) una solucion no trivial de (3.2). Se tiene que todos los ceros de x
0
Demostracion 3.1 Supongamos lo contrario, es decir, que existe t un cero no aislado de una solucion x(t) de (??). Entonces, se tiene que
8" > 0; 9 a 2 ]t
Eligamos una sucesion
0
"; t + "
0
=t
8n 9sn 2 ]tn; tn
0
+1
Como sn ! t , y x0 (t) es continua se tiene que x0(sn) ! x0 (t ) =) x0(t ) = 0. Luego, hemos encontrado una solucion x(t) de (3.2), tal que x(t ) = 0, y x0 (t ) = 0. Sin embargo, la solucion trivial x(t) 0 (es decir, x(t) constante e igual a cero) tambien es ^ ^ solucion de (3.2) con las mismas condiciones iniciales, luego por el Teorema de Existencia y Unicidad, que nos asegura que solo existe una solucion de la ecuacion diferencial que cumpla con las condiciones x(t ) = 0 x0(t ) = 0, se tiene que x(t) debe ser la solucion trivial, es decir, x(t) x(t) 0 lo cual contradice las hipotesis del teorema. ^
0 0 0 0 0
Antes de seguir con el estudio de los ceros de la ecuacion (3.1), veamos una propiedad util de las soluciones oscilatorias.
Propiedad 3.2.1 Sea x(t) una solucion oscilatoria de (3.1), entonces se tiene que:
39
Demostracion 3.2
1. Sea t un cero de x(t). Por hipotesis, la solucion es oscilatoria entonces tiene in nitos ceros y la familia de ceros es no acotada. Por lo tanto, siempre puedo encontrar un cero a la derecha de t . De lo anterior, se tiene que la unica posibilidad de que t no tenga sucesor en la familia de los ceros es que ^ 8" > 0 9 ^ 2 (t "; t + ") tal que x(t) = 0 t
0 0 0 0 0 0
Es decir, t es un punto de acumulacion en la familia de los ceros. Por lo tanto, basta probar el proximo resultado. 2. Del teorema 3.1 se tiene que los ceros son aislados. Luego si existe un t punto de acumulacion en el conjunto de los ceros de x(t) tendriamos una contradiccion con el teorema.
0
Sean x (t); x (t) dos soluciones linealmente independientes de (3.2), entonces se tiene : 1. Los ceros de x y x nunca coinciden 2. Entre dos ceros de x , existe exactamente un cero de x , y reciprocamente entre dos ceros de x , existe un cero de x .
1 2 2 1
Demostracion 3.3
1. Sea W (x ; x )(t) el wronksiano de x y x : W (x ; x )(t) = x (t)x0 (t) x0 (t)x (t): Si t fuese un cero comun de x y x entonces tendriamos que W (x ; x )(t ) = 0 =) x y x son l.d. (Contradiccion).
1 2 1 2 1 2 2 1 1 2 0 1 2 1 2 0 1 2
2. Observemos que si x (a) = 0 =) x0 (a) 6= 0 En efecto, si x (a) = 0 y x0 (a) = 0, aplicando el Teorema de Existencia y Unicidad, se tiene que x (t) 0.
1 1 1 1 1
Tomemos ahora a; b 2 IR ceros consecutivos de x . Sin perdidad de generalidad, podemos suponer que x (t) > 0 8t 2 (a; b). Luego, se cumple que x0 (a) > 0 y x0 (b) < 0. Supongamos que x (t) no se anula en ningun punto de (a; b), y ademas que x (t) > 0 en (a; b)
1 1 1 1 2 2
W (x ; x )(b) = x0 (b)x (b) > 0 Como W (x ; x )(t) es continuo en a; b] concluimos que existe un c 2 (a; b) tal que W (x ; x )(c) = 0 =) x y x son l.d. lo que contradice las hipotesis del teorema.
1 2 1 2 2 1 2 1 2 1 2
Ejemplo 3.2.1 Notemos que x (t) = sen(t) y x (t) = cos(t) son dos soluciones linealmente independientes de la ecuacion x00 + x = 0. (HACER DIBUJO). Es facil ver del dibujo que los ceros nunca coinciden, y que van alternando. Teorema 3.3 Consideremos la ecuacion x00 + Q(t)x = 0 con Q(t) continuo en I . Si Q(t) < 0 en I , entonces x tiene a lo mas un cero en I . Demostracion 3.4 Razonemos por contradiccion, es decir, supongamos que existen dos ceros a; b sucesivos de x en I . Podemos suponer ademas que x(t) > 0 en (a; b).
Por lo visto en el teorema anterior : x0 (a) > 0 y x0(b) < 0. Por otro lado se tiene que
Teorema 3.4 Supongamos que x(t) 6= 0 satisface x00 + Q(t)x = 0 8t 2 1; 1) con Q(t) > 0 en 1; 1) R Si 1 Q(t)dt = +1 entonces x(t) posee in nitos ceros en 1; 1).
1
2 x00 + t(t + 1) x = 0 t 1
2
Esta ecuacion cumple con que Q(t) > 0 8t > 1. Sin embargo, su solucion : x(t) = t t , es claramente no oscilatoria. Con esto queda claro que no basta con que Q(t) sea positivo para asegurar la existencia de soluciones oscilatorias.
+1
x0 x .
Se tiene que
2 2
(3.3)
41
Supongamos que existe r > 0 tal que x(t) no se anula en r; 1) y x(t) > 0 en r; 1). De (3.3) se tiene que
w0du =
Zt
r
Q(u)du +
Zt
r
Zt
r
Q(u)du +
Zt
r
w (u)d(u)
2
pero tlim !1
Zt
r
Q(u)du = 1 y
Zt
r
w (u)du 0
2
x0 w(t) > 0 8t > t =) x(t()t) > 0 =) x0(t) > 0 =) x0(t) < 0 8t > t
Por otro lado, analicemos el comportamiento de x(t)
x00 = Q(t)x < 0 en r; 1) =) x(t) es concavo 8t > t =) x(t) x(t ) + x0(t )(t t )
0 0 0 0
Como x0(t ) < 0, para t su cientemente grande se tendra x(t) < 0. Pero habiamos supesto que x(t) > 0. Con lo cual llegamos a una contradiccion.(La demostracion es analoga si se supone x(t) < 0 en r; 1))
0
Demostracion 3.6 Razonemos por contradiccion. Antes de empezar la demostracion, notemos que el teorema no especi ca si los ceros son sucesivos, luego basta tomar este caso particular y llegar a una contradiccion. Supongamos que a y b son ceros consecutivos de x(t) y que no hay ceros de y (t) en (a; b).
Comparemos las soluciones de (3.4) con las soluciones de la ecuacion y00(t) + k y(t) = 0 Notemos que una solucion de la ecuacion anterior es y(t) = sen(k(x a))(HACER DIBUJO, MARCOS) que tiene ceros en a y en a + k , luego usando el Teorema de comparacion de Sturm y recordando que Q(t) > k , se tiene que x(t) debe tener un cero en algun c 2 (a; a + k ).
2 2
x00(t) + Q(t)x(t) = 0 (3.4) Si suponemos que Q(t) > k k > 0, entonces la distancia entre ceros consecutivos de la solucion x(t) es a lo mas k En efecto, sea a cualquier cero de x. Debemos probar que existe c 2 (a; a + k ) tal que x(c) = 0
2
(3.5)
De nicion 3.5 La Forma Normal de la ecuacion (3.5) es una ecuacion equivalente expreu00 + q(x)u = 0
(3.6)
Observacion 3.4.1 La forma normal es equivalente a la ecuacion (3.5), en el sentido de
que puedo obtener x(t) desde u(t) a traves de algun tipo de transformacion. Este proceso se estudiara a continuacion.
43
Es natural preguntarse si siempre existe la forma normal de una ecuacion del tipo (3.5). A continuacion veremos como se construye esta ecuacion equivalente. Supongamos que x(t) puede escribirse como x(t) = v(t)u(t) =) x0(t) = v0(t)u(t) + v(t)u0(t) =) x00(t) = v00(t)u(t) + v0(t)u0(t) + u0(t)v0(t) + u(t)v00(t) De donde obtenemos x00 + P (t)x0 + Q(t)x = vu00 + (2v0 + P (t)v)u0 + (v00 + P (t)v0 + Q(t)v)u = 0 Vamos a imponer que 2v0 + P (t)v = 0 () v0 + P t v = 0 obteniendo
1 2
R P t dt
2 ( )
( )
u00(t) + q(t)u(t) = 0 donde q(t) queda de nido de la siguiente manera : 00 0 q(t) = v (t) + P (t)vv(t) + Q(t)v(t) = Q(t) 1 P (t) 1 P 0(t) 4 2
2
(3.7) es conocida como la Ecuacion de Bessel . Aunque resolver esta ecuacion no resulta nada sencillo, veamos que al llevarla a su forma normal y usando los teoremas de Sturm, podemos estudiar el comportamiento de sus soluciones. Primero reescribamos (3.7) como x00 + 1 x0 + (1 p )x = 0 t t R Para llevarla a su forma normal, impongamos que x(t) = v (t)u(t) con v(t) = e t dt , como lo vimos en el desarrollo anterior. Luego, se tiene que v(t) = e lnt = t =) x(t) = t u(t) =) x0(t) = 1 t u+t u0 =) x00(t) = 3 t u+ 1 t u0+ 1 t u0+t u00 2 4 2 2
2 2 2 2 2
p )x = 0 t > 0
1 2
1 2
1 2 3 2
1 2
3 2
1 2
5 2
3 2
1 2
1 t + (t p )t ) = 0 =) x00 + 1 x0 + (1 p )x = t u00 + u0(0) + u( 3 t t t 4 2 1 t + (t p )t )u = 0 00 + ( 3 t = u 4 2 1+ p =) u00 + u=0 (3.8) t Como tenemos la ecuacion de Bessel en su forma normal, analicemos el comportamiento de las soluciones u(t), para luego interpretar los resultados en la solucion original x(t).
2 2
1 2
5 2
5 2
5 2
1 4
1 + 1 4t4p > 0 () p 1 < t () p 1 < t 4 4 Observemos que si p < 0 =) 1 4p > 0 luego, la condicion se cumple para todo t.
2 2 2 2 2 2 1 4 2
(b) Debemos probar que t1 Q(t)dt = +1, con t tal que Q(t) > 0 8t > t . Pero esta R condicion se satisface facilmente, pues t1 1dt = +1.
0
0 0
Como hemos probado ambas condiciones, se tiene que la ecuacion (3.8) es oscilatoria. 2. Probemos que la distancia entre los ceros sucesivos de una solucion de la ecuacion (3.8) tiende a . Es decir, Si 0 < t < t < t < t < : : : son ceros sucesivos, entonces limn!1 (tn tn ) = . Para probar este resultado usaremos el Terorema de comparacion de Sturm, para lo cual necesitamos comparar la ecuacion (3.8) con otra adecuada. Primero notemos que jQ(t) 1j = j1 + 1 4t4p 1j j14t 4p j = an n Es facil ver que limn!1 an = 0. Ademas jQ(t) 1j < an () 1 an < Q(t) < an + 1 en tn ; tn ] Por ultimo comparemos la ecuacion (3.8) con v00(t) + (1 + an)v(t) = 0 p Notemos que una solucion de la ecuacion anterior es v (t) = sen 1 + an (t tn ). Aplicando el Teorema de Sturm, se tiene que debe haber al menos un cero de v (t) entre tn y tn. =) p <t t 1 + an n n Por ultimo, comparamos la ecuacion (3.8) con w00(t) + (1 an)w(t) = 0 Con lo cual obtenemos que tn tn < p an . Teniendo ambas cotas para (tn tn ) se concluye que la distancia entre los ceros tiende a .
1 2 3 4 1 2 2 2 2 1 1 +1 1 1 1 1 1 1
45
Despues de haber analizado la ecuacion (3.8) nos interesa saber si los comportamientos de u(t) se heredaran a x(t). En efecto, como x(t) = t u(t) se tiene que los propiedades oscilatorias de u(t) se traspasan a x(t).
(4.1)
IR.
Demostracion
xn = a (t)xn
1
a (t)xn
2
Como xn (t) es suma, y multiplicacion de funciones continuas, se tiene que xn(t) es continua. Luego x(t) 2 C n (I ).
Observacion 4.1.2 Asociada a la ecuacion (4.1), podemos de nir el operador L : C n(I ) ! C (I ) x(t) ! L(x) = xn(t) + : : : + an(t)x(t) Se tiene que L es un operador lineal, en el sentido que 8 ; 2 IR L( x + x ) = L(x )+ L(x ). Tendremos que x(t) es solucion de (4.1) ssi L(x) = f: Por esto decimos que (4.1)
1 2 1
47
48
niente para efectos de calculo considerar esta teoria en los numeros complejos. Es decir, suponemos que las funciones a; b; f estan de nidas en I sobre C, y buscamos una solucion I x : I ! C. I
Observacion 4.1.4 Sean a(t); b(t) funciones reales, y x(t) una solucion compleja de
1 2 1 2 1 1 2 1 2
xn(t) + a (t)xn (t) + a (t)xn (t) + : : : + an (t)x0(t) + an(t)x(t) (4.2) Si x(t) lo podemos escribir como x(t) = x (t) + ix (t), donde x ; x son funciones reales, entonces x ; x son soluciones de (4.2)
1 2
Demostracion Observacion 4.1.4 De niendo L como en la observacion (4.1.2), tendremos que x ; x son soluciones de (4.2), si L(x ) = L(x ) = 0. Pero, L(x) = L(x + ix ) = L(x ) + iL(x ) Como x (t); x (t); a(t); b(t) son reales, tenemos que L(x ); L(x ) son reales. Ademas, como
1 2 1 2 1 2 1 2
Por ultimo, igualando parte real e imaginaria a cero, obtenemos L(x ) = L(x ) = 0 2
1 2
De nicion 4.2 Una ecuacion diferencial lineal de orden n homogenea es una expresion de
la forma :
(4.3)
xn (t) + a (t)xn (t) + a (t)xn (t) + : : : + an (t)x0(t) + an(t)x(t) = f (t) (4.4) Si L es el operador diferencial asociado a (4.4), llamamos H(L) al conjunto de soluciones
de su ecuacion homogenea asociada. Es decir, H(L) = f x(t) j L(x) = 0g = Ker(L) Analogamente, llamaremos J (L) al conjunto de soluciones de (??lin22). Es decir, J (L) = f x(t) j L(x) = f g = L (f ) (??)
1
4.1. INTRODUCCION
49 (4.5) (4.6)
Sean xp(t); xq (t) soluciones de (4.5) (Las llamaremos soluciones particulares), y sea xh (t) solucion de (4.6) (la llamaremos solucion homogenea). 1. xp + xh es solucion de (4.5). 2. xp xq es solucion de (4.6).
Lema 4.1 H(L) es espacio vectorial. Es decir, si x (t); x (t) 2 H(L), se tiene que x (t) + x (t) 2 H(L):
1 2 1 2
Demostracion Lema 4.1 Sean x (t); x (t) 2 H(L): Sean ; 2 C. Veamos que x(t) = I x (t) + x (t) 2 H(L): En efecto, L( x (t) + x (t)) = L(x ) + L(x ) = 0:
1 2 1 2 1 2 1 2
Observacion 4.1.6 Del Lema (4.1), y de la observacion (4.1.1), tenemos que H(L) es subespacio vectorial de C n (I ). Recordando que C n(I ) es de dimension in nita, la pregunta natural que sigue, es >Cual es la dimension de H(L)? Teorema 4.2 H(L) es espacio vectorial de dimension n.
50
Esto quiere decir que existe una familia de soluciones x (t); : : :; xn(t) 2 H(L), linealmente independientes, tales que para toda funcion x(t) 2 H(L), existen c ; : : :; cn 2 IR tales que x(t) = c x (t) + : : :cn xn(t) Antes de poder demostrar esto, sera necesario demostrar algunos resultados previos. Es importante notar, sin embargo, que el grueso de los resultados que veremos provienen de un teorema muy importante cuya demostracion, por razones pedagogicas omitiremos Este es el teorema de Existencia y Unicidad para ecuaciones lineales de segundo orden. Teorema 4.3 (Existencia y Unicidad) Consideramos la ecuacion diferencial lineal orden n xn (t) + a (t)xn (t) + a (t)xn (t) + : : : + an (t)x0(t) + an(t)x(t) = f (t) (4.7) Donde f (t); a (t); : : :; an (t) 2 C (I ). Dado to 2 I , y dados y ; : : :; yn 2 IR, existe una unica solucion x(t) de la ecuacion 4.1 de nida en todo el intervalo I , tal que x(to) = y ; x0(to) = y ; : : :; xn(t ) = yn :
1 1 1 1 2 1 2 1 1 0 0 1 0
El Teorema de Existencia y Unicidad nos dice que si dos soluciones x(t); y(t) de (4.7), son tales que x(t ) = y (t ); x0(t ) = y 0 (t ); : : :; xn(t ) = y n(t ), para algun t 2 I , se tiene que x(t) = y(t) 8t 2 I . Es decir, si x(t); y(t) coinciden en un punto, y sus derivadas tambien coinciden en el mismo punto, entonces x(t) e y(t) coinciden en todos los puntos de I .
0 0 0 0 0 0 0
Lema 4.2 Sea x(t) una solucion de (4.3). Si existe algun to 2 I tal que x(to) = 0; x0(to) = 0; : : : ; xn(t ) = 0, entonces x(t) = 0 8t 2 I . Demostracion Lema (4.2) Supongamos que existe x 2 H(L) tal que
0 0 0
x(to) = 0; x0(to) = 0; : : : ; xn(t ) = 0: Sabemos que la funcion trivial, z(t) 0 es solucion de (4.3). Ademas es evidente que z(to) = 0; z0(to) = 0; : : : ; zn(t ) = 0. Como el Teorema de Existencia y Unicidad nos dice que solo puede haber una solucion de (4.3) que cumpla con ambas condiciones, sabemos que necesariamente se debe tener que z(t) = x(t) 8t 2 I . Luego x(t) = 0 8t 2 I 2. De nicion 4.4 Sean x ; : : : ; xn 2 H(L), de nimos su Wronskiano como la funcion determinante: x (t) x (t) : : : xn(t) x0 (t) x0 (t) : : : x0n(t) W (x ; : : :; xn)(t) = . . . . . . . . . n (t) xn (t) : : : xn (t) x n
1 1 1 2 2 1 1 2
4.1. INTRODUCCION
1 1
51
Observacion 4.1.8 Notemos que si fx (t); : : :; xn(t)g 2 H(L) son linealmente dependientes, entonces se tiene que W (x ; : : :; xn)(t) = 0 8t 2 I . En efecto: Si fx (t); : : :; xn (t)g son l.d. entonces existen constantes fc ; : : : ; cn g no todas nulas tales que c x (t) + : : : + cn xn (t) = 0 8t 2 I . Esto implica que necesariamente c x j (t) + : : : + cn xnj (t) = 0 8t 2 I ; 8j 2 f1; : : : ; ng. Es
1 1 1 1 ( ) 1
decir,
( )
MW t
( )
Esto implica que MW (t) es singular ( i.e. Ker(MW (t)) 6= f0g 8t 2 I ), luego det MW (t) = 0 8t 2 I . Como W (x ; : : :; xn)(t) det MW (t)8t 2 I , concluimos el resultado.
1
x (t) x (t) : : : xn(t) x0 (t) x0 (t) : : : x0n(t) W (x ; : : :; xn)(t ) = .. . . =0 . . . . . n (t) xn (t) : : : xn (t) n } |x {z
1 2 2 1 1 0 1 2
Mw t
( )
Como det(Mw (t)) = 0, sabemos que existen fx ; : : :; xng, no todos nulos, tales que
1
2 6 6 6 6 4
Luego
1 1 0
52
Luego del Lema (4.2) tenemos que x(t) = 0 8t 2 I . Como encontramos fc ; : : :; cng no todas nulas, t.q. c x (t) + : : : + cn xn(t) = 0 8t 2 I , concluimos que fx (t); : : :; xn(t)g son linealmente dependientes. 2
1 1 1 1
1. Si existe to 2 I tal que W (x ; : : : ; xn)(t ) = 0, entonces W (x ; : : :; xn)(t) = 0 8t 2 I . Luego, fx (t); : : :; xn (t)g son l.d. ssi existe to 2 I tal que W (x ; : : : ; xn)(t ) = 0.
1 0 1 1 1 0
2. Si existe to 2 I tal que W (x ; : : :; xn )(t ) 6= 0, entonces W (x ; : : :; xn)(t)(t) 6= 0 8t 2 I . Luego, fx ; : : :; xn g son l.i. ssi existe to 2 I tal que W (x ; : : : ; xn)(t ) 6= 0.
1 0 1 1 1 0
Teorema 4.5 Existen fx (t); : : :; xn(t)g 2 H(L), tales que son linealmente independientes.
1
Del Teorema de Existencia y Unicidad, sabemos que existe x (t) solucion de (4.3) tal que
1
x (to) = 1; x0 (to) = 0 ; : : : ; x n = 0
( ) 1 1
En general, sabemos que existen soluciones de (4.3) fx (t); : : :; xn(t)g, tales que
1
Para estas dos funciones se tiene que 1 0 ::: x (t ) x (t ) : : : xn(t ) 0 (t ) x0 (t ) : : : x0 (t ) 0 1 ::: x n = . . W (x ; : : : ; xn)(t ) = .. . . . . . . . . . . . n (t ) xn (t ) : : : xn (t ) 0 0 ::: x n
1 0 2 2 0 0 0 1 0 0 1 0 1 0 2 0 0 1 0 1
0 0 . = 1: . . 1
Como W (x ; : : :; xn)(t ) 6= 0, sabemos que fx (t); : : :; xn(t)g son linealmente independientes. 2. El ultimo paso en la demostracion que H(L) es un espacio vectorial de dimension n es el siguiente.
Teorema 4.6 Sean fx (t); : : :; xn(t)g 2 H(L) linealmente independientes. Se tiene que para cada x(t) existen constantes fc ; : : : ; cn g tales que x(t) = c x (t) + : : : + cnxn (t) 8t 2 I .
1 1 1 1
4.1. INTRODUCCION
1 0
53
Demostracion Teorema 4.6 Como fx (t); : : :; xn(t)g son l.i. en I , sabemos que para t cualquiera en I se tendera que W (x ; : : : ; xn)(t ) = 0. Como la matriz que de ne W (x ; : : : ; xn)(t ) es de determinante no 6 nulo , sabemos que es invertible. Luego, existen constantes fc ; : : :; cn g 2 IR, no todas nulas,
1 0 1 0 2
tales que :
2 x (t ) x (t ) : : : x (t ) 3 2 c 3 2 x(t ) 3 6 x0 (t ) x0 (t ) : : : xn(t ) 7 6 c 7 6 x0(too) 7 0 6 76 7 6 7 n 6 . (4.8) . . 76 . 7 = 6 . 7 6 .. 7 6 .. 7 6 .. 7 . . 54 5 4 4 5 . . xn(t ) xn(t ) : : : xn(t ) cn x n (t ) n Si consideramos y(t) = c x (t) + : : : + cn xn(t), es claro del Lema (4.1) que y(t) 2 H(L). Por
1 0 2 0 0 1 2 1 0 2 0 0 1 0 2 0 0 ( ) 0
Como el teorema de existencia y unicidad asegura que solo puede existir una funcion con esas caracteristicas, tenemos que necesariamente x y = c x (t) + : : : + cnxn(t) 2
1 1
Observacion 4.1.9 De lo anterior es trivial concluir que la dimension de H(L) es n, pues de (4.5) sabemos que existe una familia l.i. de n funciones en H(L) que genera, mediante
combincacion lineal, a todas las otras soluciones.
De nicion 4.5 Decimos que una solucion general de (4.1) es una expresion de la forma
x(t) = xp(t) + c x (t) + : : : + cnxn (t)
1 1 1 1
(4.9)
En que fx (t); : : :; xn (t)g es una base cualquiera de H(L), y xp(t) es una funcion cualquiera de J (L). En general, diremos que xp (t) es una solucion particular de (4.1), y que fc ; : : : ; cn g son los parametros de (4.9).
Teorema 4.7 Sea fx (t); : : :; xn (t)g una base cualquiera de H(L), y xp(t) es una funcion cualquiera de J (L). Se tiene que para toda solucion x(t) de (4.1), existen constantes fc ; : : :; cng, tales que
1 1
Sea x(t) una solucion de (4.1). Por ser fx (t); : : :; xn(t)g un conjunto linealmente independiente de soluciones del problema homogeneo, se tiene que W (x ; : : :; xn)(t) 6= 0 8t 2 I . Luego, para f ; : : :; ng, se tiene que existen fc ; : : :; cn g 2 IR tales que :
1 1 1 1
Demostracion
54
De nimos y(t) = xp(t) + c x (t) + : : : + cn xn(t). Sea t 2 I , y tomemos = x(t ) = x0(t ) . . . n (t ) =x n Notemos que
0 1 0 2 0 ( ) 0
xp(t ) x0p(t )
0 0
xpn (t )
( ) 0
y(t ) y 0 (t ) . . . j (t ) y . . . n (t ) y
0 0 ( ) 0 ( ) 0
= =
( )
xp(t ) + c x (t ) + : : : + cn xn(t ) = xp(t ) + x(t ) xp(t ) = x(t ) x0p(t ) + c x0 (t ) + : : : + cn x0n(t ) = x0p(t ) + x0(t ) x0p(t ) = x0(t )
0 1 1 0 0 0 0 0 0 0 0 1 1 0 0 0 0 0 ( ) 1 0 1 0 ( ) 0 ( ) 0 ( ) 0 ( ) 0 ( ) 0
Luego, como y(t); x(t) son soluciones de (4.1). Y como, x(t ) = y(t ); x0(t ) = y0(t ) ; : : : ; x n (t ) = y n (t ) se tiene, por Teorema de Existencia y Unicidad, que x(t) = y(t) 8t 2 I . Luego, x(t) = xp(t) + c x (t) + : : : + cn xn(t): Con lo que concluimos la demostracion del teorema.
0 0 0 0 0 0 1 1
De lo anterior se tiene que para determinar una solucion de xn(t) + a (t)xn (t) + a (t)xn (t) + : : : + an (t)x0(t) + an(t)x(t) = f (t) x(t ) = y ; x0(t ) = y ; : : :; xn(t ) = yn Es necesario seguir los siguientes pasos
1 2 1 2 1 0 0 0 1 0 1
Resolucion
(4.10) (4.11)
De nicion 4.6 Una Ecuacion Diferencial Lineal de Orden n a Coe cientes Constantes es
xn(t) + a xn (t) + a xn (t) + : : : + an x0(t) + an x(t) = f (t) Donde fa ; : : :; an g son constantes en IR, y f (t) es una funcion continua en I .
1 2 2 1 1
(4.12)
D x = x D x = x0 D x = x . . . nx = xn D En que D corresponde al operador que a una funcion le asigna su funcion derivada. Utilizando esta notacion, podemos escribir la ecuacion 4.12 como : Dn x + Dn a x + : : : + Dan x + anx = (Dn + Dn a + : : : + Dan + an)x = f (4.13)
0 2 (2) ( ) 1 1 1 1 1
Asociamos al operador diferencial (Dn + Dn a + : : : + Dan + an) el polinomio P ( ) = ( n + n a + : : : + an + an). Por el Teorema Fundamental del Algebra, si ; ; : : :; n son las raices P ( ), sabemos que
1 1 1 1 1 2
56
Lo que no resulta tan evidente es que los polinomios de operadores tambien heredan esta propiedad.
(D
donde ; ; : : : ;
1 2
)(D
) : : : (D
n)
)(D
) : : : (D
n ))x = f (t)
(4.14)
Resolucion
1. Supongamos que i 6= j si i 6= j . Veamos que e jt es solucion 8j 2 f1; : : :; ng. En efecto, e t es solucion ssi
Dn (e t) + Dn a (e t) + : : : + Dan (e t) + an(e t) = 0 () n (e t) + n a (e t) + : : : + an (e t) + an (e t) = 0 () e t( n + n a + : : : + an + an) = 0 () e tP ( ) = 0 Por otro lado, es facil ver que fe t; : : :; e ntg es linealmente independiente. En efecto, W (e t; : : : ; e nt)(t) = Luego, fe t; : : : ; e ntg es conjunto fundamental del problema homogeneo.
1 1 1 1 1 1 1 1 1
)m :{z: (D s )ms}(D j )mj x = 0 : ] sin mj De este modo, si x satisface (D j )mj x = 0, entonces x es solucion de (??). Consideremos, entonces, la ecuacion (D )mx = 0 (4.15) con 2 C; m 1. I
|(D
Comprobaremos este resultado por induccion. (a) Si m = 1, claramente se tiene (D )e t = 0: (b) Supongamos que el resultado es valido para m, y comprobemos que es cierto para m + 1. En efecto, basta probar que (D )m tj e t = 0 80 j m Pero, (D )m tj e t = (D )m (D )tj e t] = (D )m D(tj e ) tj e ] = (D )m jtj e ) + tj e tj e ] = (D )m jtj e )]
+1 +1 1 1
58
)m tj e )] = 0
1
Demostracion
9 e t; te t; : : :; tm e t > = e t; te t; : : :; tm e t > . . > n soluciones.. . > e nt; te nt; : : :; tms e st ; Estas n funciones constituyen una base de las soluciones de (4.15). Para comprobar esto, basta ver que son linealmente independientes.
1 2 2
1 1
Para ver si estas soluciones son l.i. debemos ver que si P ; : : :; Pn son polinomios tales que P (t)e t + P (t)e t + : : : + Ps (t)e st == entonces Pj (t) 0 8j 2 f1; : : :; ng. Procedemos por induccion en s.
1
(4.16)
P (t) + P (t)e
1 2 1
1)
0
(
+ (P (t)e
2
1)
t) d
( +1)
= 0 + (P (t)e
2
1)
t) d
( +1)
1)
t) d
( +1)
0 =) P (t) 0
2
P (t)e
1
0 =) P (t) 0:
1
+1
+1
0
j+1
1)
P (t) + P (t)e
1 2 1
1)
t:::+ P
+1
(t)e
(
0 0
1)
t)d
+1
: : : + (Pj (t)e
+1 (
j+1
1)
t ))d
+1
1)
t)d
+1
= Qi(t)e
(
1)
t : : : + Q (t)e j t) 0 Q (t)e j Luego, por hipootesis inductiva, tenemos que Qi(t) 0 80 i j . Entonces,
2
1)
+1
1)
Qi(t) 0 =) Qi(t)e
1)
0 =) (Pi(t)e
1)
t )d
+1
0 =) Pi (t) 0
60
que :
Solucion
P( ) =
3
1 = 0: 1=
2
1:
+2 +1
2
Es decir,
1)( + 1) : Luego, las soluciones fet; e t ; te tg son base del espacio de solucion. Entonces, la solucion general, queda x(t) = c et + c e t + c te t
1 2 3
P( ) = (
P( ) =
+ 2 + = ( + 1) = ( + i)(
2 2 2
i)] = ( + i) (
2 2
i)
Luego, obtenemos la base de soluciones compleja feit; teit; e it ; te itg. Para construir una base de soluciones reales, notamos que
(4.17) (4.18)
y0(t) y(t) = f (t) Utilizando los metodos vistos en el capitulo 1, es facil veri car que : Z t e tf (t)dt + c y(t) = e
1
x0(t) x(t) = e
= e
2
x(t) = e e
1
t f (t)dt + c
Como esta tambien corresponde a una ecuacion lineal de primer orden, sabemos que :
t t
e e
(
t
2)
dt + c Z Z e tf (t)dt + c e t e
1
1
t f (t)dt + c
2)
tdt + c
6=
tenemos que :
ce
1
2)
tdt = c
e t (e
2
2)
=( c )
1
1 2
e t = c~ e )
1
1
Luego, 2. Si
1
x(t) = e
2
e
t
2)
t f (t)dt
+ c e t + c e t:
1
tenemos que :
ce
1
Z
e
e
(
2)
t dt = c
dt = c e tt:
1
Luego,
x(t) = e
2)
t f (t)dt
+ c te t + c e t:
1
62
4.2.2 Metodo de los Coe cientes Indeterminados 4.2.3 Metodo de Variacion de Parametros
Consideramos una ecuacion diferencial de la forma :
(4.19)
(4.20)
asociada a (4.19) En esta seccion estudiaremos un metodo que nos permitira obtener soluciones particulares para ecuaciones lineales de segundo orden a partir de x (t); x t). El metodo que estudiaremos es muy robusto, en el sentido de que a partir de un conjunto l.i. x (t); x (t) de soluciones homogeneas, e independiente de la forma de a(t); b(t) siempre proporcionara una solucion particular. Lamentablemente, solo sabemos determinar soluciones para (4.20) en el caso de que a(t); b(t) sean constantes. Esto constituye una serie limitante para la resolucion de (4.19) utilizando este metodo. El metodo que estudiaremos se llama Metodo de Variacion de Parametros, y consiste en construir una solucion particular de (4.19) que tiene la forma :
1 ( 1 2
(4.21)
Resolucion
Suponemos que existe una solucion particular de la forma (4.21), y buscamos condiciones que nos permitan determinar u (t); u (t). Derivando xp(t) en (4.21), obtenemos :
1 2
Imponiendo u0 (t)x (t) + u0 (t)x (t) = 0, obtenemos : x0p(t) = u (t)x0 (t) + u (t)x0 (t)
1 1 2 2 1 1 2 2
f (t) = x00(t) + a(t)x0p(t) + b(t)xp(t) p = u (t)(x00(t) + a(t)x0 (t) + b(t)x (t)) + u (t)(x00(t) + a(t)x0 (t) + b(t)x (t)) + u0 (t)x0 (t) + u0 (t)x0 (t)
1 1 1 1 2 2 2 2 1 1 2 2
Notamos que por ser x (t); x (t) soluciones del problema homogeneo :
1 2
x00(t) + a(t)x0 (t) + b(t)x (t) = 0 x00(t) + a(t)x0 (t) + b(t)x (t) = 0
1 1 1 2 2 2
Luego,
Para que u (t)x (t) + u (t)x (t) sea solucion particular de (4.19), u (t); u (t) deberan satisfacer las dos condiciones impuestas :
1 1 2 2 1 2
Es decir,
#" # " # x (t) x (t) u0 (t) = 0) f (t) x0 (t) x0 (t) u0 (t) Resolviendo este sistema usando la Regla de Cramer, obtenemos : "
1 1 2 2 1 2
(4.22)
Luego,
64
x (t u (t) = W (x (;t)f )()) dt + k x t Z x (t)f (t) u (t) = W (x ; x )(t) dt + k Como buscamos soluciones particulares, suponemos k = k = 0. Finalmente, remplazando en (4.21), obtenemos : f t xp(t) = x (t) R W xx ;xf tt dt + x (t) R Wx x t;x t t
1 2 1 2 2 1 2 1 2 1
2( ) ( ) 1
2 )( )
1( ) ( ) 1
2 )( )
El metodo de variacion de parametros nos dice que existe una solucion particular de la forma: xp(t) = u (t)cos(t) + u (t)sen(t) Donde : Z sen(t)tan(t) Z cos(t)tan(t) u (t) = W (x ; x )(t) dt u (t) = W (x ; x )(t) dt Como : () W (cos; sen)(t) = cos(t()t) sen(tt) = cos (t) + sen (t) = 1 sen cos
1 2 1 2 1 2 1 2 2 2
+1=(
i)( + i)
Resolviendo, obtenemos :
u (t) =
1
u (t) =
2
Luego la solucion general es : xg (t) = c cos(t) + c sen(t) ln(jsec(t) + tan(t)j) + sen(t)cos(t) sen(t)cos(t) = c cos(t) + c sen(t) ln(jsec(t) + tan(t)j)
1 2 1 2
(4.23)
2
Supongamos que x (t) es una solucion no trivial de (4.23). Encontremos una segunda solucion, linealmente independiente de x (t) de la forma x (t) = v(t)x (t).
Solucion
x(t) = v(t)x (t) x0(t) = v0(t)x (t) + v(t)x0 (t) x00(t) = v00(t)x (t) + v(t)x00(t) + v0(t)x0 (t) + v0(t)x0 (t)
1 1 1 1 1 1 1
0 = x00(t) + a(t)x0(t) + b(t)x(t) = v(t)(x00(t) + a(t)x0 (t) + b(t)x (t)) + v0(t)(2x0 (t) + a(t)x (t)) + v00(t)x (t) = v0(t)(2x0 (t) + a(t)x (t)) + v00(t)x (t)
1 1 1 1 1 1 1 1 1
De niendo w(t) = v0(t), observamos que w(t) debe satisfacer la ecuacion de primer orden :
w0(t) + h(t)w(t) = 0
Resolviendo, obtenemos que
w(t) = c e
1
R h t dt
( )
=) v(t) = c e
1
R h t dt
( )
dt + c
Puesto que nos interesa una solucion particualr cualquiera, imponemos c = 1; c = 0. Entonces,
1 2
Z R Z R v(t) = e h t dtdt = e
( )
dt
Z R dt = e
dt
R a t dt
( )
dt
Pero,
66
dt
=e
R x0 t
x1 (t)
1( )
dt = e
ln x1 t
(
( ))
Luego,
= 1 x (t)
2 1 ( )
Primero, resolvamos la ecuacion homogenea. Es facil ver que x (t) = et resuelve la homogenea. Efectivamente,
1
(4.24)
t(et)00 + (1 2t)(et)0 + (t 1)(et) = et(t + 1 2t + t 1) = 0 Para encontrar una segunda solucion, que sea linealmente independiente a x (t), procedemos
como en el ejemplo anerior. Escribimos (4.24) de forma estandard :
1
Luego,
Dado que tenemos resuelto el problema homogeneo, podemos usar el metodo de variacion de parametros para resolver (4.24). Se tiene que
t et et t) W (et; etln(t))(t) = et etln(ln)(+ et = et t t
2 2 2 2
Z e R t t dt Z e R t dt R dt Z t t t t e dt = etln(t) dt = e te t x (t) = e e t dt = e et
1 2 1
+ 2 2 2 2 2 2
Luego, de niendo :
x (t)f (t) dt = Z etln(t)ett dt = Z ln(t)tdt = t ln(t) + t u (t) = W (x ; x )(t) et 2 4 Z x (t)f (t) Z etett Z u (t) = W (x ; x )(t) dt = e t = tdt = t2
1 1 2 2 1 2 2 1 2 2
(4.25)
Resolucion
Para resolver la Ecuacion de Euler hacemos el cambio de variable t = es, y de nimos v(s) = x(es). De este modo :
v(s) = x(es) v0(s) = x0(es)es =) x0(es) = v0(s)e s v00(s) = x00(es)e s + x0(es)es =) x00(es) = e s(v00(s) v0(s))
2 2
(4.26)
Para resolver (4.25), basta resolver (4.26), y aplicar la transformada x(t) = v(ln(t)), para obtener una solucion.
(4.27)
Consideramos primero el problema homogeneo. Mediante el cambio de variables v (s) = x(es) obtenemos la expresion :
(4.28)
3 + 2 = ( 2)( 1). Luego H(L) es generado por las funciones fe s; esg. Notamos que como v (s) = e s , y v (s) = es son soluciones de (4.28), entonces x (t) = e ln t = t , y x (t) = eln t = t son soluciones del problema homogeneo asociado a (4.27). Consideramos, ahora, el problema no homogeneo.
2 2 1 2 2 1 ( )
68
Luego, de niendo :
1
x (t)f (t) dt = Z t t e t dt = Z t e tdt u (t) = W (x ; x )(t) t Z x (t)f (t) Z tte t Z t u (t) = W (x ; x )(t) dt = t = t e dt
2 2 3 2 3 1 2 3 1 2 2 1 2 2 2 2 2
Z Z t t e tdt + t t e tdt
3 2 2
x0 (t) = a (t)x (t) + a x (t) + : : : + a n(t)xn(t) + b (t) x0 (t) = a (t)x (t) + a x (t) + : : : + a n(t)xn(t) + b (t) . . . x0n(t) = an (t)x (t) + an x (t) + : : : + ann(t)xn(t) + bn(t)
1 11 1 12 2 1 1 2 21 1 22 2 2 2 1 1 2 2
Este se llama un Sistema Lineal de Primer Orden , y tiene n incognitas, y n ecuaciones. De namos :
0 B B ~ (t) = B x B @
0 b (t) 1 0 x (t) 1 a (t) C B b (t) C x (t) C ~ C B C b(t) = B .. C A(t) = B ... B . C B . C @ . A A @ . an (t) bn(t) xn(t) El problema a resolver, queda entonces como :
1 2 1 2 11 1
69
70
. . .
0 B B B B @
0 1 0 B 0 B C B C C =B . B . . C . A B . . B 0 @ x0n(t) an
x0 (t) x0 (t)
1 2
1 0 0 an
1
0 1 0 an
2
0 0 0 an
3
0 B B B B @
1 0 0 1 C C B C C +B 0 C B . C . C B . C . A @ . A . f (t) xn(t)
x (t) x (t)
1 2
Observacion 5.1.1 Con esta misma metodologia un sistema de orden mayor tambien se
puede re-escribir como un sistema de primer orden.
x x x x
1 2
3 4
= = = =
71
4 1 3
1 0 0 b(t) 0 0 0 d(t)
0 0 1 0
1 C C C A
Con lo cual nuestro problema se reduce a un sistema de ecuaciones lineales de primer orden.
(5.1)
Si A(t) y ~ (t) tienen coe cientes continuas en I . Entonces, dado x 2 IR y t 2 I existe b ~ una unica solucion de 5.1 en I , tal que ~ (t ) = x . x ~
0 0
(La demostracion de este teorema se incluye en los apendices) Consideraremos a continuacion la ecuacion homogenea :
(5.2)
Buscamos probar que el conjunto de soluciones de (5.2) es un espacio vectorial de dimension n. Es decir, la solucion de 5.2 siempre puede escribirse como :
De nicion 5.1 Las funciones ~ (t); : : :;~ n(t) se dicen linealmente dependientes en I si x x
1
72
Ejemplo 5.2.1
son l.d.
Demostracion : En efecto :
! ! ! et + c t et 0 = 0 8t 1 1 =) c + c t = 0 8t
2 1 2
. . .
2 2
. . .
. . .
Teorema 5.2 Sea fx ; : : : ; xng un conjunto de soluciones de (5.2). Se tiene que fx ; : : :; xng ~ ~ ~ ~ es linealmente independiente en I si y solo si W x ; : : :; xn](t) = 0 8t 2 I . ~ ~ 6
1 1 1
Demostracion Si fx ; : : :; xng son soluciones linealmente independientes en I del sistema homogeneo (5.2) ~ ~
1 1
73
nunca es cero en I . Supongamos lo contrario.Es decir, suponemos que existe t 2 I , tal que W x ; : : :; xn](t ) = 0. ~ ~ Puesto que W x ; : : :; xn ](t ) corresponde a un determinante, se debe tener que las columnas ~ ~ de la matriz
1 0
son linealmente dependientes. Es decir, existen constantes c ; : : :; cn , no todas nulas, tal que
1
c ~ (t ) + : : : + cn~ n(t ) = 0: x x
1 1 0 0
Como se tiene que c ~ (t) + : : : + cn~ n(t) y el vector cero son soluciones de (5.2), y coinciden x x en el punto t , de acuerdo al Teorema de Existencia y Unicidad, estas soluciones deben ser identicas en I . Es decir,
1 1 0
Pero esto contradice la hipotesis de que el conjunto fx ; : : :; xng es linealmente independiente ~ ~ en I . Luego W x ; : : : ; xn](t) 6= 0 8t 2 I . ~ ~
1 1
Demostracion
Por el Teorema de Existencia y Unicidad, sabemos que 8i 2 f1 : : : ng existe ~ i(t), solucion x de (5.2), tal que ~ i(t ) = ei. Ademas, tenemos que : x ~
0
0 0 . = jI j = 1: . . 1
1 1
Del Teorema (5.2), sabemos que es su ciente encontrar un punto en que W x ; : : : ; xn](t) 6= 0 ~ ~ para asegurar independencia lineal. Como W x ; : : :; xn](t ) = 1, tenemos que fx ; : : :; xng ~ ~ ~ ~ es un conjunto linealmente independiente, con lo que concluimos la demostracion del teorema.
74
1
Demostracion Sea fx ; : : :; xng una familia de soluciones linealmente independiente en I de (5.2). Como ~ ~ W x ; : : :; xn](t) = 0, necesariamente se tiene que la matriz ~ ~ 6
1
es invertible, para cada t 2 I . Luego, se tiene que existe una familia de constantes fc ; : : :; cng: tal que el sistema
0 1
0 x (t ) x (t ) : : : x (t ) 1 0 c 1 0 x (t ) 1 B x ;; (t ) x ;; (t ) : : : x ;n(t ) C B c C B x (t ) C C CB C B B ;n B .. . CB . C = B . C . B . . CB . C B . C . @ . A@ . A @ . A . xn(t ) cn xn; (t ) xn; (t ) : : : xn;n (t ) tiene solucion. Es decir, se tiene que existe fc ; : : :; cn g tal que
1 1 0 1 2 2 2 0 0 1 2 0 0 1 2 1 0 2 1 0 2 0 1 0 2 0 0 0 1 1 1 0 0 0
c ~ (t ) + : : : + cn~ n (t ) = ~ (t ): x x x Como c ~ (t) + : : : + cn~ n(t) y la funcion ~ (t) son soluciones de (5.2) en I y coinciden en x x x t , por el Teorema de Existencia y Unicidad, estas dos funciones deben ser identicas en I . Luego,
1 1 0
De nicion 5.3 Un conjunto de soluciones linealmente independiente fx ; : : : ; xng de (5.2) ~ ~ en I se llama conjunto fundamental de soluciones de (5.2) De nicion 5.4 Si fx ; : : :; xng es un conjunto fundamental de soluciones de (5.2), decimos ~ ~
1
que
75
0 x (t) x (t) : : : x (t) 1 B x ;; (t) x ;; (t) : : : x ;n(t) C C B ;n X (t) = B . . . C B . . . C @ . . . A xn; (t) xn; (t) : : : xn;n(t)
1 2
Si las columnas de X (t) son un conjunto fundamental de (5.2), decimos que X (t) es una matriz fundamental de (5.2).
Observacion 5.2.1
1. ~ (t) es solucion general ssi existe X (t) matriz fundamental, tal que x(t) = X (t)~. x c 2. Si X (t) es matriz fundamental, se tiene que X 0 (t) = A(t)X (t) 8t 2 I . 3. Si X (t) es matriz fundamental, y fx ; : : :; xn g son sus columnas, entonces jX (t)j = ~ ~ W x ; : : :; xn](t) 6= 0. ~ ~
1 1
L(~ ) = g x
1 2 2
L(~ ) = g x
2 1 1 2 2
L(~ ) = c g + c g x
Teorema 5.5 Sea ~ p(t) una solucion particular del sistema no homogeneo x
~ ~ 0(t) = A(t)~ (t) + f (t) x x
1
(5.3)
en el intervalo I , y sea fx ; : : : ; xn g un conjunto fundamental de soluciones en I del sistema ~ ~ 0(t) = A(t)~ (t). Entonces, toda solucion de (5.3) en I se puede homogeneo correspondiente ~ x x expresar en la forma : ~ (t) = ~ p(t) + c ~ (t) + : : : + cn~ n(t): x x x x Donde fc ; : : : ; cn g es una familia de constantes.
1 1 1
76
Demostracion
Claramente se tiene que ~ (t) = ~ p(t) + c ~ (t) + : : : + cn~ n(t) es solucion de (5.3), pues : x x x x L(~ (t)) = L(~ p(t)) + L(c ~ (t) + : : : + cn~ n(t)) = f + 0 = f x x x x Por otro lado, consideremos una solucion ~ (t) de (5.3) que satisface x(t ) = ~ , y veamos x x que se puede representar de la forma ~ (t) = ~ p(t) + c ~ (t) + : : : + cn~ n(t): Por Teorema x x x x de Existencia y Unicidad, por ser fx ; : : : ; xng conjunto fundamental, sabemos que existe ~ ~ fc ; : : :; cng tal que c ~ (t ) + : : : + cn~ n(t ) = ~ ~ p(t ). Luego se tiene que x x x x ~ p(t ) + c ~ (t ) + : : : + cn~ n(t ) = ~ (t ): x x x x Como ~ p(t)+ c ~ (t)+ : : : + cn~ n(t) y la funcion ~ (t) son soluciones de (5.2) en I y coinciden x x x x en t , por el Teorema de Existencia y Unicidad, estas dos funciones deben ser identicas en I . Luego,
1 1 0 0 1 1 1 1 1 1 0 0 0 0 0 1 1 0 0 0 1 1 0
77
y (t) = c e t y (t) = c e t . . . yn(t) = cn e nt Para calcular ~ (t) recordamos que ~ (t) = P~(t). Como las columnas de P corresponden a x x y los vectores f~ ; : : :;~ng, v v 0ce t 1 Bce t C B C ~ (t) = P~ (t) = (~ j~ j : : : j~n) B .. C = c e t~ + c e t~ + : : : cn e nt~n x y v v v B v v v @ . C A cn e nt De la deduccion de ~ (t) se tiene que claramente es solucion de (5.4). El siguiente teorema x con rma que es solucion general.
1 2 1 2
1 2
1 2
1 2
Teorema 5.6 Sea A una matriz (real) de n n constante, y diagonalizable. Sea f~ ; : : :;~ng v v su base de vectores propios, y sea i el valor propio correspondiente a ~i . Entonces v
1
fe t~ ; : : :; e nt~ng v v
1
1
es un conjunto fundamental de soluciones de (5.4) en ( 1; 1). Por consiguiente, la solucion general de (5.4) es
Demostracion
~ 0(t) = (e it~i)0 = i (e it~i) = e it( i~i) = e itA~i = A(e it~i) = A~ x v v v v v x Veamos que el conjunto fe t~ ; : : : ; e nt~ng es linealmente independiente en todo IR. En v v efecto,
1
1
::: n tdet ~ ;~ ; : : :;~ ] W x ; : : : ; xn](t) = det e t~ ; : : : ; e nt~n] = e ~ ~ v v v v vn Como f~ ;~ ; : : :;~ng es un conjunto linealmente independiente tenemos que det ~ ;~ ; : : :;~n] 6= v v v v v v 0 =) W x ; : : : ; xn](t) 6= 0. Luego fe t~ ; : : :; e nt~ng es l.i. ~ ~ v v
1
1+ 2 +
78
entonces :
fe t~ ; : : :; e nt~ng v v
1
1
Demostracion
El resultado es directo si recordamos que si una matriz constante A de n n tiene una familia de m valores propios distintos f ; : : : ; mg, se tiene que si ~i es el vector propio corresponv diente a i, entonces f~ ; : : :;~ng es una familia de vectores linealmente independiente. v v
1 1
Propiedad 5.3.1 Sea A una matriz constante de n n, con coe cientes en IR. Si es un
Dado que este resultado corresponde a un resultado de Algebra Lineal, dejaremos los detalles de su demostracion al lector.
i , y si ~ = ~ +i~, y ~ = ~ i~ son, respectivamente, sus vectores propios correspondientes, v a b v a b entonces dos soluciones vectoriales de ~ 0(t) = A~ (t) linealmente independiente, son : x x ~ (t) = e tcos( t)~ + e tsen( t)~ x a b ~ (t) = e tcos( t)~ e tsen( t)~ x a b
1 2
79
~ 0 (t) = A~ (t) x x ~ 0 (t) = A~ (t) x x Por consiguiente, f~ 0 (t);~ 0 (t)g son soluciones vectoriales reales de A~ (t) = ~ 0(t). Puesto x x x x 0 (t);~ 0 (t)g son linealmente que ~ ; ~ no son simultaneamente cero, se puede demostrar que f~ x ab x independientes en ( 1; +1). La demostracion de esto ultimo se deja al lector.
1 2 1 2
~ ~ X (t)~ 0(t) + A(t)X (t)~ (t) = A(t)~ p(t) + f (t) =) X (t)~ 0(t) = f (t) u u x u Como det(X (t)) 6= 0, sabemos que X (t) es invertible, luego Z 0 (t) = X (t)f (t) =) ~ (t) = X (t)f (t)dt ~ ~ u ~ u
1 1
Luego,
Por consiguiente, una solucion particular del problema no homogeneo es Z ~ ~ p(t) = X (t) X (t)f (t) x
1
80
Zt
t0
~ X (t)f (t)
1
Observacion 5.4.2 Para aplicar las formulas de variacion de parametros es necesario primeramente determinar una matriz fundamental X (t) del sistema homogeneo. En el caso de que la matriz A es constante, ya se han considerado metodos para encontrar X (t). Sin embargo, si las componentes de A dependen de t, la determinacion de X (t) puede ser sumamente dificil.
~ (0) = x
1 0
Primero consideramos el problema homogeneo. Sabemos que el polinomio caracteristico asociado a la matriz A esta dado por
p( ) = 2 1
= (2
)( 2
)+3=
1=(
1)( + 1)
Luego los valores propios asociados a A son f1; 1g. El vector propio asociado a = 1 es solucion de la ecuacion :
1
1 1 3 1
Luego, se tiene que :
3 ~ = 0 0 3 v
1 2
3 ~ = 0 1 v 0
2
= 1 es solucion de la ecuacion :
~ = 3 v 1
1
~ = 1 v 1
2
81
x ~ (t) = 3 et 1
1
~ = 1 e x 1
2
X (t) =
1
t
2
et
2
2 3 2
e t et
t t
!Z
t
2
et
2
2 3 2
e t et
! e t dt 1
2
De la observacion (5.4.1) tenemos que la solucion del problema de condicion inicial esta dada por la expresion
x(t) =
= = =
3et e et e
3 2
t t e e e e
t
2 2
! !
t
1 2 1 2
1 2 3
!
t t
et et et et
2 2 3 2
2 2
et et
2
e e ! t ! 3et e t + et e t t e t + e t +3 ! e t + e t +2
+
4
3et et
!Z t
0
1 + 3et e 0 et e
es e3s
2 2
t t
!Z t
0
s
2
es
2
2 3 2
e s es
! e s ds 1
2
2 3
et + e t et e3t
2 2 6
2 3
es
1
4 3
ds !
82
En lo que sigue supondremos que la matriz A es constante, y diagonalizable. Sabemos que A tiene n valores propios f ; : : : ; n g (no necesariamente distintos), y n vectores propios linealmente independiente f~ ; : : :;~ng asociados. v v Para resolver (5.5) basta encontrar n soluciones linealmente independientes. Sea ~ un vector propio de A, y sea su valor propio asociado. Veamos que ~ (t) = t ~ es v x v solucion de (5.5). En efecto, t(~ (t))0 = t(t ~ )0 = t t ~ = t ( ~ ) = t A~ = A(t ~ ) = A~ (t) x v v v v v x
1 1 1
Resolucion
Por otro lado, veamos que el conjunto de soluciones ft ~ ; : : : ; t n~ng es l.i. v v En efecto, ::: n det ~ ; : : :;~ ] W x ; : : :; xn](t)(t) = t ~ ~ v v
1
1 1
1+ 2+
W x ; : : :; xn](t)(t) 6= 0 8t 6= 0 ~ ~
1
Luego
Luego,
= t ti = t elnti = t ei
lnt
t ~ = t (cos( lnt) + isen( lnt))(~ + i~ ) v a b ~) + it (cos( lnt)~ + sen( lnt)~ ) = t (cos( lnt)~ sen( lnt)b a b a
Entonces,
Demostrar que ~ (t);~ (t) son efectivamente linealmente independientes y solucion se de x x dejan como ejercicio al lector.
1 2
83
~ 0(t) = A~ (t) x x
(5.6)
Donde A es una matriz (real) de n n constante, no necesariamente diagonalizable. Es decir, estudiaremos el caso en que A tiene un numero menor que n de vectores propios linealmente independientes.
1 3
p( ) = 1 4
= (1
)( 3
)+4=
+ 2 + 1 = ( + 1) :
2
Es decir, = 1 es valor propio de multiplicidad dos. Los vectores propios de A satisfacen la ecuacion
1
Pero,
3
1 2
v v
!
1 2
= 2 4
1 2
1 4
v v
1 2
= 0 0
! !+
2 1 v = 0 () 2v = v () v 2 1 4 4 v 0 v 2 Como A no tiene dos vectores propios distintos que sean linealmente independientes, no podemos aplicar los resultados anteriormente vistos para encontrar un conjunto fundamental.
1 2
! *
tk ak . k
!
84
1 0 e t 0 ::: 0 1 C B C t C C =) eDt = B 0 e . : : : 0 C B . . C C B . . . C A @ . . . A 0 0 : : : e nt
Se tiene que
Demostracion :
0 B k=B D B B @
Luego, 0 ::: 0 k ::: . . . . . . 0 0 :::
k
1 2
0 0 . . .
k n
0 1 C 1 B 1 X tk Dk X B C C =) = B B C A k k! k B @
=0 =0
tk k k
!
0 . . . 0
tk k k
!
. . . 0
tk k k n
!
0 0 . . .
1 C C C C C A
0 P1 tk k k 1 B X tk Dk B 0 =B B . . k! B . k @
=0 =0
k
1
P1 0 tk k k . . . 0
=0
k
2
::: :::
0 0 . . P1 . tk ::: k k
=0
k n
Propiedad 5.5.2 Sea A 2 Mn n (IR) una matriz diagonalizable. Se tiene que A = PDP =) eAt = PeDtP
1 1
Demostracion :
A = PDP =) A = PDP PDP = PD P =) Ak = PDk P
1 2 1 1 2 1 1
Luego,
eAt =
1 1 X tk Ak X tk PDk P = k! k k! k
=0 =0
=P
1 X tk Dk P = PeDtP k! k
1 =0
Teorema 5.7 W (t) = eAt es una matriz fundamental del sistema ~ 0(t) = A~ (t). x x Demostracion :
Para que W (t) sea matriz fundamental basta veri car las siguientes dos propiedades.
85
W (t) = eAt = I + tA + t2 A + t6 A + : : :
2 3 2 3
W 0(t)
= = = =
! d I + tA + t A + t A + : : : dt 2 6 ! 0 + A + tA + t2 A + : : : ! t A + t A + ::: A I + tA + 2 6 AW (t)
2 3 2 3 2 2 3 2 3 2 3 1
Luego todas las columnas de W (t) son solucion de (5.6). 2. Las columnas de W (t) son linealmente independientes. En efecto, si fw (t); : : :; wn (t)g ~ ~ son las columnas de W (t), entonces
Luego, puesto que existe t tal que W w ; : : :; wn ](t ) 6= 0, concluimos que fw ; : : : ; wng ~ ~ ~ ~ es un conjunto linealmente independiente.
0 1 0 1
2. eA t
(
Demostracion
1. Directo.
86
e AteAt = eA t eAt = eA t t = eA = I
( ) ( ) 0
Luego, e
At
= (eAt) .
1
eAt = e
((
A I
)+
I t = e Itet A I
) (
eAt = e tet A
(
0)
t0
De nicion 5.8 Se dice que una matriz B 2 Mn n (IR) es nilpotente, si existe m 2 IN; m 0, tal que B k = 0 8k m. Lema 5.1 Si A 2 Mn n (IR) tiene un valor propio
eAt
=e
0t
0
I + (A
I )t + : : : + (A
I )n
! tn : (n 1)!
1
87
Si A tiene un valor propio de multiplicidad n, se tiene que su polinomio caracteristico es p( ) = ( )n . Recordamos que el teorema de Cayley Hamilton establece que una matriz siempre satisface su propia ecuacion caracteristica. Luego se tiene que p(A) = 0 () (A I )n = 0 =) (A I )k = 0 8k n: Luego, concluimos que : 1 n k 1 k k k X k X X k eAt = e tet A I = e t t (A k! I ) = e t t (A k! I ) + e t t (A k! I ) k k k n ! n tk (A k I ) + 0 = e t I + (A tn tX n = e I )t + : : : + (A I ) (n 1)! k! k
0 0 0 0 1
Demostracion :
0 )
=0
=0
=0
De nicion 5.9 Si es un valor propio de A, decimos que ~ es un vector propio generv alizado de A, asociado a , si existe m 2 IN; m 1, tal que (A I )m~ = 0. v Observacion 5.5.3 Los vectores propios de una matriz tambien son vectores propios generalizados.
Teorema 5.8 Existencia de vectores propios generalizados Sea A 2 Mn n (IR). Se tiene que :
1. Si es un valor propio de A de multiplicad m, entonces existen m vectores propios generalizados, linealmente independientes, asociados a : Mas aun, si f~ ; : : :;~m g son v v m ). estos vectores, se tiene que f~ ; : : :;~mg Ker((A I ) v v 2. Existen n vectores propios generalizados de A, linealmente independientes, tales que si es un valor propio de A de multiplicidad m, entonces hay m, y solo m vectores propios generalizados asociados a .
1 1
La demostracion de este teorema es extensa, y escapa los topicos que pretende cubrir este texto. Se deja el estudio de este teorema propuesto al lector.
Para calcular los vectores propios generalizados asociados a se procede como sigue : Se resuelve el sistema (A I )~ = 0. Si el numero de vectores ~ que resuelven dicho sistema v v es menor que m, se procede a resolver el sistema (A I ) ~ = 0. Si nuevamente se tiene v que el numero de vectores ~ que resuelven dicho sistema es menor que m, seguimos con v (A I ) ~ = 0, hasta llegar al sistema (A I )m~ = 0. Es decir, en a lo mas m iteraciones v v habremos encontrado m vectores propios generalizados que sean linealmente independientes. Es importante notar que si ~ es tal que (A I )k~ = 0, entonces se tendra que (A I )l~ = v v v 0 8l k.
3
88
Lema 5.2 Sea A 2 Mn n (IR). Sea un valor propio de A, y sea ~ un vector propio v
eAt~ = e v t I + (A I )t + : : : + (A I )m
1
Donde m es la multiplicidad de .
Demostracion :
, luego
t
=0
1 X tk (A
=0
=0
diante el cual se puede calcular eAt~ en un numero nito de pasos, y sin conocimiento de v At . e
Observacion 5.5.5 El Lema (5.2) es de gran utilidad, pues proporciona un metodo meTeorema 5.9 Sea A 2 Mn n (IR), y sea f~ ; : : : ;~ng un conjunto de vectores propios genv v
eralizados linealmente independiente de A. Se tiene que
1
feAt~ ; : : : ; eAt~ng v v
1
Puesto que eAt es matriz fundamental, se tiene que todas sus columnas son solucion de ~ 0(t) = A~ (t). Como eAt~ corresponde a una combinacion lineal de columnas de eAt, se x x v tiene que necesariamente tambien solucion de ~ 0(t) = A~ (t) (El espacio de solucion de x x 0(t) = A~ (t) es espacio vectorial). ~ x x De namos ~ i(t) eAt~i. Para ver que fx ; : : :; xng es linealmente independiente, basta x v ~ ~ observar que W x ; : : :; xn](t)(t) = det feAt~ ; : : :; eAt~ng] = det(eAt (~ j~ j : : : j~n)) = det(eAt)det((~ j~ j : : : j~n)): ~ ~ v v v v v v v v Como f~ ; : : : ;~ng es linealmente independiente, y puesto que eAt es matriz fundamental se v v tiene que W x ; : : : ; xn](t)(t) 6= 0 ~ ~ Luego feAt~ ; : : : ; eAt~ng v v 0 (t) = A~ (t). es un conjunto fundamental de soluciones de ~ x x
1 1 1 1 2 1 2 1 1 1
Demostracion
89
Lema 5.3 Sean X (t) y Y (t) dos matrices fundamentales de un mismo sistema ~ 0(t) = A~ (t). x x Demostracion Sean fx (t); : : :; xn(t)g las columnas de X (t), y fy (t); : : :; yn(t)g las columnas de Y (t). ~ ~ ~ ~ Puesto que ~j (t) es solucion, y dado que fx (t); : : :; xn(t)g es conjunto fundamental, se tiene y ~ ~ que existen constantes fc ; : : :; cn g tales que ~j (t) = c ~ (t) + : : : + cn~ n(t), para cada j . y x x
1 1 1
Lema 5.4 Sea X (t) una matriz fundamental del sistema ~ 0(t) = A~ (t). Se tiene que x x
eAt = X (t)X (0)
1
Dado que X (t) y eAt son matrices fundamentales, se tiene que existe una matriz constante C tal que eAt = X (t)C . Evaluando en t = 0, y dado que X (t) es invertible para cada t, se tiene que I = X (0)C =) C = X (0) =) eAt = X (t)X (0)
1 1
Demostracion
feAt~ ; : : : ; eAt~ng v v
1 1 2
Por n estamos en condiciones de poder dar un metodo de resolucion de un sistema ~ 0(t) = x A~ (t) mediante el uso de la matriz exponencial. x
distintos de A.
90
X (t) = ( eAt~ jeAt~ j : : : jeAt~n ) v v v 5. Utilizamos la formula de variacion de parametros, para obtener la expresion de la solucion general : Z ~ x ~ (t) = X (t)~ + X (t) X (s)f (s)ds c
1 2 1
Observacion 5.5.7 Puede suceder que sea dificil el calculo de X (t), pero que sea sencillo
1 1 1
el calculo de X (0). En este caso, calculamos eAt = X (t)X (0). Utilizando la formula de variacion de parametros, obtenemos la solucion general
As f (s)ds ~
1 0 1 0 0 ~ 0(t) = B 1 3 0 C ~ (t) x Ax @
0 1 1
p( ) =
1 0
1
3
2
0 1 1
0 0
3
= (1
) (3
2
Luego sus valores propios son = = 1, y = 3. Calculemos los vectores propios asociados a = 1.
(A
Pero,
0 10 1 0 1 0 0 0 B 1 2 0 C B v C = B 0 C () v + 2v = 0 I )~ = 0 () @ v A@ v A @ 0 A v = 0 0 0 1 0 v
1 2 3 1 2 2
91
Dado que asociado a = 1 hay solo un vector propio, le buscamos un vector propio generalizado.
(A
Pero,
0 10 1 0 1 0 0 0 B 2 4 0 C B v C = B 0 C () v + 2v = 0 I ) ~ = 0 () @ v A@ v A @ 0 A 1 2 0 v 0
1 2 3 2 1 2
0 1 *0 1 0 1+ v 0 2 B v C 2 B 0 C;B 1 C v + 2v = 0 () @ A @ A @ A v 1 0
1 2 3 1 2
Por otro lado, sabemos que para = 3 existe un vector propio asociado. Luego,
(A
Pero,
10 1 0 1 0 2v = 0 v 0 2 0 0 B 1 0 0 C B v C = B 0 C () v = 0 I )~ = 0 () @ v A@ A @ A v 2v = 0 0 0 1 2 v
1 2 3 1 1 2 3
* 2v = 0 B v C2 B v = 0 =) @ v A @ v 2v = 0 v
1 1 2 3 1 2 3
0 1+ 0 2C A
1
0 1 0 1 0 1 0 2 0 B 0 C ;~ = B 1 C ;~ = B 2 C ~ =@ A v @ A v @ A v
1
Asociados a = 1; = 1; = 3, respectivamente. Como sabemos que ~ , y ~ son vectores propios, obtenemos las soluciones, v v
1 2 3
0 1 0 t~ = et B 0 C x ~ (t) = e v @ A
1
0 1 0 t~ = e t B 2 C ~ (t) = e v x @ A
3
92
Por otro lado, dado que ~ es un vector propio generalizado de orden dos, obtenemos la v solucion,
~ (t) = x
2
= = = =
! t ~ e I + (A I )t + (A I) 2 v 00 1 0 1 0 1 0 0 0 0 0 0 et BB 0 1 0 C ~ + t B 1 2 0 C ~ + t2 B 2 @@ Av @ Av @ 0 0 1 0 1 0 1 00 1 0 10 1 0 2 0 0 0 2 0 t BB 1 C + t B 1 2 0 C B 1 C + t B 2 e @@ A @ A@ A 2 @ 0 0 1 0 0 1 00 1 0 1 0 11 2 0 0 t BB 1 C + t B 0 C + t B 0 CC e @@ A @ A 2 @ AA 0 1 0 0 1 2 tB 1 C e@ A t
2
0 4 2 0 4 2
0 0 C~ C Av A 0 1 0 11 0 2 C B 1 CC 0 A@ AA 0 0
2
1 1
0 1 0 1 0 1 2 0 0 ~ (t) = c et B 0 C + c et B 1 C + c e t B 2 C x @ A @ A @ A 1 t 1
3 2 3
4 1 1 4 2
1 2
2 0 1 2C A 0 1 1 1 0 0C A 0 1 0 0 et 0 C A et + e t et
1 1 2 1 2 3 1 2 3
Donde C 0; 1] = ff : 0; 1] ! IR=f 0 es continua g y C 0; 1] = ff : 0; 1] ! IR=f es continua g. Ademas notemos que D es un operador lineal, pues D( f + g) = D(f ) + D(g). Como ya se introdujo el concepto de operador, veamos la transformada que motiva este capitulo.
1
L(f (t))(s) =
Z1
0
(6.1)
M y c tales que
De nicion 6.2 Diremos que una funcion f es de orden exponencial si existen constantes
jf (t)j Mect
93
94
Tomaremos como dominio de L al espacio de funciones f : (0; 1) ! IR tales que 1. f es continua por tramos. 2. f es de orden exponencial.
Observacion 6.1.1 Notemos Zque si f es de orden exponencial, entonces se tiene que Z1 Z 1 c st dt st M e s c t dt < +1 si s > c jf (t)je Me e
( ) 0 0
Entonces la integral impropia L(f )(s) = 1e st f (t)dt es convergente para todo s > 0, o sea la transformada de Laplace de una funcion de orden exponencial esta de nida en un intervalo de la forma (c; 1). Mas aun Z1 jL(f )(s)j e st jf (t)dtj s M c ! 0 cuando s ! 1 Ejemplo 6.1.2 Para familiarizarnos con el concepto de orden exponencial, veamos algunos casos.
0 0
1. Las funciones f (t) = eat ; eat tn ; tnsen(t); : : :,etc. Son funciones de orden exponencial. 2. Las funciones acotadas son de orden exponencial. 3. La funcion f (t) = et no es de orden exponencial, pues no existe c tal que t ct en (0; 1) =)no existe M; c tal que et Mect en (0:1).
2
2
Observacion 6.1.2 Notemos que si f y g son de orden exponencial entonces f + g tambien lo es. Ademas como L es lineal (por la linealidad de la integral), se tiene que L( f + g)(s) = L(f )(s) + L(g)(s)
95
Observacion 6.2.1 Si > 0 entonces L(t )(s) = s L(t )(s) En virtud de la linealidad de L y usando el ejemplo anterior, podemos calcular la transformada de Laplace de un polinomio cualquiera.
Veamos ahora un resumen de las transformadas de Laplace mas usadas. L(1)(s) = 1 L(tn)(s) = snn! 1 s + a s L(sen(at))(s) = s + a L(cos(at))(s) = s + a L(cosh(at))(s) = s s a L(senh(at))(s) = s a a L(eat)(s) = s 1 a s > a L(f 0)(s) = sL(f ) f (0)
2 2 2 2 2 2 2
(6.2) (6.3)
2
La ultima de las transformadas en la lista es de suma importancia para las ecuaciones diferenciales, pues "transforma"las derivadas en una expresion polinomial para s. Debido a lo anterior, revisemos esta transformacion.
?1 Z 1 f 0(t)e stdt = f (t)e st? ? f (t)( se st)dt = f (0) + sL(f )(s) Notemos que esta transformada se tiene solo si f (t) y f 0(t) son de orden exponencial. Suponiendo que se tienen las condiciones anteriores , podemos iterar el proceso y calcular la transformada de Laplace de derivadas con orden superior (PROPUESTO???). Esto nos permitira resolver ecuaciones diferenciales desde un punto de vista distinto, aplicando la transformada al problema diferencial. Este metodo sera estudiado en las proximas secciones. Prosigamos con el estudio de las propiedades de la transformada.
L(f 0)(s) =
Z1
0
Propiedad 6.2.1
1. Formula del desplazamiento:
96
Demostracion 6.1
1. Por de nicion se tiene que
L(eatf (t))(s) =
2. Notemos que
Z1
0
st eatf (t)dt =
Z1
0
a)
L(tf (t))(s) =
Z1
0
st tf (t)dt =
Z1
0
Lft s
(
( ))( )
Usemos el razonamiento anterior en el caso L(tn f (t))(s). Para esto, observemos que dn st n n st dsn e = ( 1) t e , luego procediendo de manera analoga se concluye el resultado.
Como en la proposicion anterior llegamos a una expresion para la derivada de la transformada de Laplace, aparece naturalmente la pregunta si existe una formula para la integral del operador de Laplace.
Para algun p. Imponiendo la condicion G(s) ! 0 cuando s ! 1 (ver observacion 6.1.1) se tiene que p = 1 con lo cual obtenemos
Z1
p
L(f (t))(s)ds
1
En adelante diremos transformada inversa de g(s) a la funcion x(t) tal que L(x(t))(s) = g(s) y se denotara L . Observemos que como L es lineal, se tiene que L tambien lo es.
97
De nicion 6.3 Sean f y g dos funciones de nidas en 0; 1), continuas por trozos. La convolucion de f y g se de ne como
(f g)(t) =
Zt
0
f ( )g(1
)d
e sen(1
Por ultimo veamos la relacion entre la convolucion y la transformada de Laplace. El teorema que viene a continuacion, nos permitira determinar el resultado de la transformacion sin tener que pasar por la de nicion de convolucion y operador de Laplace.
Teorema 6.1 Si f (t) y g(t) de nidas en 0:1) continuas por trozos y de orden exponencial,
se tiene que
Z 1Z 1
0 0
e stf (t)dt e
st
( + )
Z1
st r
( + )
g(r)drdt
(L(f (t))L(g(t))) =
1
Z1
0
f (t)
Z1
0
e s g( e
s
t)d dt
(L(f (t))L(g(t))) =
Z1
0
f (t)g(1 t)dtd =
Z1
0
Z
0
1 Este cambio es posible, pues f y g son continuas por trozos y de orden exponencial. Ver el teorema de Fubini en cualquier libro de Calculo.
98
Ejemplo 6.3.2 Calculemos la transformada inversa de s s . Solucion Recordemos que L(t)(s) = s y que L(sen(t))(s) =
convolucion se tiene que
2
S2
1 +1
. Por el teorema de
1 L(t sen(t))(s) = s1 1 + s
2
t sen(t) = (t
0
Zt
)sen( )d = t
Zt
0
sen( )d
Zt
0
sen( )d
El primer termino no presenta mayores problemas y basta integrar por partes el segundo termino para obtener
t sen(t) = tsen(t) + t (
Concluimos que L ( s
1
cos( )]t
Zt
0
2 (1+ 2 )
) = t sen(t).
6.4 Aplicaciones
En esta seccion estudiaremos el uso de la transformada de Laplace como metodo de resolucion de ecuaciones diferenciales ordinarias. Tambien veremos su aplicacion a problemas integrodiferenciales y la ecuacion de Bessel.
x00(t) + ax0(t) + bx(t) = f (t) (6.7) Que satisfaga las condiciones iniciales x(0) = x y x0(0) = x . Apliquemos la transformada de Laplace y en virtud de su linealidad, podemos escribir (6.7) como L(x00(t)) + aL(x0(t)) + bL(x(t)) = Lf (t) Utilizando las propiedades vistas en la ecuacion (6.6) e imponiendo las condiciones iniciales, podemos expresar la ecuacion anterior como s L(x(t)) sx x + asL(x(t)) ax + bL(x(t)) = L(f (t)) Por ultimo despejamos L(x(t)) obteniendo ( +a L(x(t)) = L(f (t))s++sas +)bx + x (6.8)
0 1 2 0 1 0 0 1 2
6.4. APLICACIONES
99
Si somos capaces de encontrar (o reconocer) que funcion x(t) cumple con la ecuacion (6.8), habremos obtenido una solucion a nuestro problema, condiciones iniciales incluidas. Este procedimiento es particularmente adecuado para resover ecuaciones del tipo (6.7) en las que la funcion f (t) es continua a trozos, pues los otros metodos expuestos anteriormente no consideraban este caso.
Observacion 6.4.1 En relidad falta veri car si puedo aplicar la transformada a x(t). Se
puede probar (omitiremos la demostracion) que si f (t) es continua a trozos y de orden exponencial, entonces x(t); x0(t); x00(t) admiten transformada de Laplace.
Ejemplo 6.4.1 Resolvamos una ecuacion diferencial con codicion inicial. Sea
x00(t) + 4x(t) = 4t; con x(0) = 1 x0(0) = 5
(6.9)
Solucion
1. Apliquemos transformada de Laplace a la ecuacion (6.9) y usemos las propiedades vistas en la ecuacion (6.6) para obtener la siguiente expresion
L(x00(t) + 4x(t))(s) = L(x00(t))(s) + 4L(x0(t))(s) = L(4t)(s) = s L(x(t)) sx(0) x0(0) + 4L(x(t))(s) = 4L(t)(s) = L(x(t))(s + 4) s 5 = 4 s
2 2 2
4 L(x(t))(s) = (s + 4)s + s s 4 + s 5 4 = s1 + +
2 2
1 + s + 5 s +4 s +4 s +4
2 2 2
2. Reconociendo cada termino de la expresion anterior (usando la ecuacion (6.3)), podemos construir una solucion x(t) de (6.9), es decir
100
Zt
0
sen(t
)x( )d
(6.10)
Ajustando las constantes para reconocer las transformadas inversas, llegamos al resultado
En el ejemplo anterior podemos apreciar el uso de la transformada de Laplace en ecuaciones integrales. En los ejercicios del nal del capitulo se propondra el estudio de ecuaciones integro-diferenciales como otra aplicacion del operador de Laplace.
t x00(t) + tx0(t) + (t
2
)x(t) = 0
6.4. APLICACIONES
101
o equivalentemente
2
Solucion Apliquemos la transformada a la ecuacion anterior d d L(tx00(t)) + L(x0(t)) + L(tx(t)) = 0 =) ds L(x(t)) + sL(x(t)) x(0) + ds L(x(t)) = 0
d (s L(x(t)) sx(0) x0(0)) + sL(x(t)) x(0) d L(x(t)) = 0 ds ds d L(x(t)) 1) + sL(x(t)) 1 d L(x(t)) = 0 (2sL(x(t)) + s ds ds d L(x(t)) sL(x(t)) = 0 (s + 1) ds De namos w(s) = L(x(t))(s), luego podemos reescribir la ecuacion anterior como dw(s) = sw(s) () dw(s) = s ds ds s +1 w(s) s +1
2 2 2 2 2 2
Resolviendo la ecuacion de variables separables se obtiene que 1 log w(s) = 2 log(s + 1) + log K K > 0 =) w(s) = (s Como ya hemos encontrado w(s) solo nos resta despejar la solucion mos L ((s + 1) = K ) = K L (( s1 + 1) = Recordemos la expansion de Taylor para expresiones del tipo
1 2 1 2 1 1 2 2
+ 1)
2
1 2
+ log K
(1 + x) =
donde
k
1 X
k
=0
1)
::: k
( !
xk k k s
Ahora ajustamos las constantes para obtener una transformada inversa, llegando a ! ! 1 1 1 L(t k ) = L X 1 tk = =X (1 + s ) k 2k! k 2k! k k Concluimos que el resultado nal es ! 1 X 1 tk x(t) = K k 2k! k Imponiendo la condicion inicial x(0) = 1 se tiene que K = 1.
1 2 1 2 2 1 2 2 2 =0 ==0 1 2 2 =0
sk
=0
k s
2 +1
=0
2 La notacion clasica de la solucion es J (t), pero para ser consistentes con la notacion del texto, nosotros 0 la llameremos x(t)
102
1 X
n
=0
an(t t )n = a + a (t t ) + a (t t ) + ::::
2 0 0 1 0 2 0 =0 0
(7.1)
Donde t es una variable y los coe cientes an son constantes. Se dice que (7.1) converge en P el punto t = r si la serie in nita ( de numeros reales ) 1 an(r t )n converge; esto es, el n limite de las sumas parciales, N X (7.2) lim an(r t )n N !1 existe (como numero nito). Si este limite no existe, se dice que la serie de potencias diverge en t = r.
n
0 =0
1 X
an(t
t )n = a + 0 + 0 + :::::: = a
0 0
(7.3)
=0
Pero, > que se puede decir acerca de la convergencia para otros valores de t? Como se establece en el proximo teorema, una serie de potencias de la forma (7.1) converge para todo 103
104
valor de t perteneciente a un cierto "intervalo"con centro en t y diverge para los valores de t que esten fuera de este intervalo. Ademas, en los puntos interiores de dicho intervalo, se dice que la serie de potencias converge absolutamente si P1 jan(t t )nj converge. (Recordemos n que la convergencia absoluta de una serie implica la convergencia ordinaria de la serie).
=0 0
Teorema 7.1 Para cada serie de potencias de la forma (7.1), existe un numero con 0 1, llamado radio de convergencia de la serie de potencias, tal que (7.1) converge absolutamente para jt t j < y diverge para jt t j > . Si la serie (7.1) converge para todo valor real de t, entonces = 1. Si la serie converge solamente en t , entonces = 0.
0 0 0
Demostracion 7.1 Esta demostracion es mas propia de un curso de calculo, por lo que
Observese que el teorema anterior resuelve la cuestion de la convergencia, excepto en los extremos t . De manera que estos dos puntos requieren de un analisis separado. Para determinar el radio de convergencia , un metodo que a menudo resulta facil de aplicar es el criterio del cuociente.
Teorema 7.2 Si
Donde 0
? n ? lim ? aa ? = L ? n!1 ?
+1
Demostracion 7.2 Por las mismas razones que el teorema anterior, omitiremos esta demostracion que se encuentra en cualquier texto de calculo.
+1
Observacion Se advierte que si el cuociente jan =an j no existe, entonces se deben emplear
otros metodos distintos del criterio del cuociente (como por ejemplo el criterio de la raiz) para determinar . Para cada valor de t para la cual la serie de potencias converge, se obtiene un numero que es la suma de la serie. Resulta apropiado denotar esta suma con f (t), ya que su valor depende de la eleccion de t. Dadas dos series de potencias
f (t) =
1 X
an(t t
)n ;
g(t) =
1 X
=0
bn (t t )n
0
=0
con radios de convergencia distinto de cero, se desea obtener representaciones en series de potencias de la suma, el producto y la division de las funciones f (t) y g(t). La suma se obtiene por medio de la adicion termino a termino:
f (t) + g(t) =
1 X
(an + bn)(t t )n
0
=0
105
Para todo t perteneciente al intervalo de convergencia comun de las series de potencias. La representacion de la serie del producto entre f (t) y g(t) es:
f (t)g(t) =
=0 0 0
1 X
n
=0
cn (t t )n
0
donde cn = Pn akbn k El cuociente f (t)=g(t) tambien tendra un desarrollo en serie de k potencias en torno a t siempre que g(t ) 6= 0. Sin embargo, el radio de convergencia de esta serie puede resultar menor que el de f (t) o g(t). Desafortunadamente, no existe una formula comoda para obtener los coe cientes de la serie de potencias. El siguiente teorema explica, en parte, porque las series de potencias son tan utiles.
=0
f (t)dx =
1 X an n n + 1 (t t ) + C n
+1 0 =0
e integracion. En efecto, al ser lineal la derivada (integral), f 0 (t) coincide con la derivada termino a termino, luego se concluye el teorema (analogo para la integral).
Notemos que no todas las funciones se pueden expresar como serie de potencias, luego aparece naturalmente la de nicion:
torno a t , esta funcion es la suma en serie de potencias 1 an(t t )n , que tiene un radio n de convergencia positivo.
0 =0 0
De nicion 7.2 Se dice que una funcion f es analitica P t si, en un intervalo abierto en en
0 0 1 0
Por ejemplo, una funcion polinomial b + b t + ::: + bntn es analitica para todo t ya que siempre se puede reescribir en la forma a + a (t t ) + ::: + an(t t )n . Asi tambien, las funciones elementales et, sin t y cos t son analiticas para todo t, mientras que ln t es analitica para todo t > 0. En efecto, se tienen las representaciones: 1 n t = Xt e (7.4) n n! 1 X ( 1)n n sin t = t (7.5) n (2n + 1)!
0 1 0 0 =0 2 +1 =0
106 cos t =
=0
1 X ( 1)n n t (7.6) n (2n)! 1 X ( 1)n n ln t = (7.7) n (t 1) n En la expresion de la serie de potencia de ln t es en torno a t = 1, sin embargo se puede obtener una expresion para todo t > 0.
1 =1
la ecuacion:
Observacion 7.1.1 Recordemos que las series tienen una propiedad de unicidad, pues, si
1 X
es valida en algun intervalo abierto en torno a t , entonces an = bn para n = 0; 1; 2; 3; 4; :::. Por tanto, si de alguna manera se puede obtener un desarollo en serie de potencia para una funcion analitica, entonces esta serie de potencias debe ser su serie de Taylor.
0
an(t t )n =
0
1 X
=0
bn(t t )n
0
=0
De nicion 7.3 Un punto t se llama punto ordinario de la ecuacion (7.8) si p = a =a y q = a =a son analiticas en t . Si t no es punto ordinario, se le llama punto singular
0 1 2
de la ecuacion.
En un punto ordinario t de la ecuacion, las funciones coe cientes p(t) y q(t) son analiticas y, por lo mismo, es de esperar que las soluciones de estas ecuaciones hereden tal propiedad. Este razonamiento se probara mas adelante, ahora veamos un ejemplo para ilustrar el metodo de de resolucion.
0
x(t) =
1 X
Ahora nuestra tarea consiste en encontrar los coe cientes an. Para este n se necesita del desarrollo de x0 (t) proporcionado por la diferenciacion termino a termino de x(t):
antn
(7.9)
=0
x0(t) =
1 X
1 X
nan tn
1 X
=1
nan
tn
+ 2t
=1
antn = 0
+1
=0
Lo cual se reduce a:
1 X
n
=1
nantn +
1
1 X
n
=0
2an tn = 0
(7.10)
Para sumar las dos series de potencias presentes en (7.10), sumamos los coe cientes de potencias iguales de t, obteniendo:
(7.11)
Para que la serie de potencias del primer miembro de la ecuacion (7.11) sea identicamente cero, se debe veri car que todos los coe cientes sean iguales a cero. De modo que
a =0 3a + 2a = 0
1 1 3
2a + a = 0 4a + 2a = 0 etc:
2 4 0 2
2 a = 0 a = a a = 3a = 0 a = 1a = 1( a ) = 1a 2 2 2
2 0 3 1 4 2 2 0
108
+1
Usando la ecuacion (7.10) podemos obtener la relacion de recurrencia que se puede usar para determinar el coe ciente ak en terminos de ak , esto es, 2 ak = k + 1 ak Luego haciendo k = 1; 2; 3; ::: y utilizando el hecho de que a = 0, resulta que: a = 2 a = a (k = 1); a = 2 a = 0 (k = 2) 2 3 2 a = 1 a (k = 3); a = 2 a = 0 (k = 4) a = 4 2 5
+1
Tras una buena inspeccion se observa que: n a n = ( n1) a n = 1; 2; 3; ::: ! a n = 0 n = 0; 1; 2; ::: Sustituyendo la expresion (7.11), se obtiene la solucion en serie de potencias 1 n X x(t) = a a t + 1 a t + ::: = a ( n1) t n (7.12) 2 ! n Puesto que el coe ciente a se deja indeterminado, sirve como constante arbitraria y, por lo tanto, la ecuacion (7.12) proporciona la solucion general. Ademas se puede veri car que dicha expresion converge a: x(t) = a e t Por ultimo, notemos que este metodo sirve tambien para resolver problemas de valor inicial, ya que basta reemplazar el valor de x(0) en la expresion encontrada para calcular el valor de a , lo que nos lleva a una solucion unica en serie de potencias del problema de valor inicial.
2 0 2 +1 2 4 2 0 0 0 0 =0 0
(7.13) Entonces, (7.13) tiene dos soluciones analiticas linealmente independientes de la forma
an(t t )n
0
(7.14)
=0
109
Ademas, el radio de convergencia de cualquier solucion en serie de potencias de la forma (7.14) es por lo menos igual a la distancia de t al punto singular (real o complejo) de la ecuacion (7.13) mas cercano.
Como se vio en la seccion anterior, el metodo de las series de potencias entrega una solucion general de la misma forma de (7.14), con a y a como constantes arbitrarias (son dos constantes pues es de segundo grado). Las dos soluciones mencionadas en el teorema se pueden obtener tomando a = 1 y a = 0, para la primera y a = 0 y a = 1 para la segunda. Ahora veamos un ejemplo para ilustrar el metodo de resolucion en este caso.
0 1 0 1 0 1
Ejemplo 7.3.1 Encuentre los primeros terminos del desarrollo en serie de potencias en
torno a t = 1 de la solucion general de la ecuacion 2x00 + tx0 + x = 0 Determine tambien el radio de convergencia de la serie. Solucion Notemos que esta ecuacion no tiene puntos singulares, pues p(t) = t=2 y q(t) = 1=2 son analiticas para todo valor de t. De modo que t = 1 es un punto ordinario, luego la ecuacion tiene la solucion de la forma
x(t) =
0 0
1 X
Se pueden simpli car los calculos de los coe cientes an, trasladando el centro del desarrollo (7.15) de t = 1a r = 0. Esto se lleva a cabo por medio de la sustitucion r = t 1. puesto que x(t) = x(r + 1), en virtud de la regla de la cadena, resulta que entonces la ecuacion inicial se transforma en
2 2
an(t 1)n
(7.15)
=0
dx = dx ; dt dr
dx=dx dt dr
2 2 2 2
2 d x + (r + 1) dx + x = 0 dr dr
(7.16) (7.17)
x(r) =
1 X
donde los coe cientes an de las ecuaciones (7.17)y (7.15) son iguales. Procedindo como de costumbre, sustituimos al serie de potencias de x(r) en (7.16), deducimos una formula de recurrencia para los coe cientes y nalmente obtenemos que 1 1 1 x(t) = a (1 4 (t 1) + 24 (t 1) + :::) + a ((t 1) 4 (t 1) 1 (t 1) + :::) 8 Notemos que si los coe cientes de la ecuacion lineal no son polinomios, pero si son funciones analiticas, aun se puede encontrar la solucion por el mismo metodo.
2 3 2 3 0 1
an r n
=0
110
at x00(t) + btx0(t) + cx(t) = 0 t > 0 o escrita en la forma canonica x00(t) + p(t)x0(t) + q(t)x(t) = 0 t > 0 con p(t) = p =t y q(t) = q =t (donde p y q son las constantes b=a y c=a, respectivamente). Si sustituimos tr en la ultima ecuacion se obtiene r(r 1) + p r + q ]tr = 0 de donde resulta la Ecuacion indicial r(r 1) + p r + q = 0 (7.18) Por consiguiente, si r es una raiz de la ecuacion (7.18) entonces tr es una solucion de las ecuaciones iniciales. Supongamos ahora de manera mas general que en vez de tener p y q constantes, se tienen funciones analiticas. Esto es, en un cierto intervalo abierto comun con centro en t = 0 1 X n tp(t) = p + p t + p t + ::: = pn t n 1 X t q(t) = q + q t + q t + ::: = Q ntn
0 0 2 0 0 2 0 0 0 0 1
=0
=0
lim t q(t) = q t!
2 0
Y por consiguiente, para valores de t cercanos a 0 se tiene que tp(t) p y t q(t) q . Por tanto es razonable suponer que las soluciones de la ecuacion inicial se comportaran (para t cercano a 0) como las soluciones de la ecuacion de Cauchy-Euler(vistas en capitulos anteriores)(OJO): t x00 + p tx0 + q x = 0
0 2 0 2 0 0
x00(t) + p(t)x0(t) + q(t)x(t) = 0 (7.19) es un punto singular regular si tanto (t t )p(t) como (t t ) q(t) son analitica en t . De lo contrario, t se llama punto singular irregular
0 0 2 0 1 0
1 En la terminologia de variable compleja, p tiene un polo de orden a lo sumo 1, y q tiene un polo de orden a lo sumo 2, en t0.
111
Supongamos que t = 0 es un punto singular de la ecuacion (7.19) de manera que p(t) y q(t) satisfacen: 1 1 X n X n p(t) = pn t ; q(t) = qnt :
1 2
La idea del matematico Frobenius fue que, puesto que las ecuaciones de Cauchy-Euler tienen soluciones de la forma tr , entonces para el punto singular t = 0, debe haber soluciones de (7.19) de la forma tr, multiplicada por una funcion analitica. En consecuencia, se buscan soluciones de la forma:
=0
=0
w(r; t) = tr
1 X
Sin perdida de generalidad, suponemos que a es una constante arbitraria distinta de cero, entonces solo resta determinar r y los coe cientes an; n 1. Derivando w(r; t) con repecto a t se obtiene
0
antn =
1 X
=0
antn r ; t > 0
+
=0
w0(r; t) =
1 X
1 X
Si se sustituyen los desarrollos anteriores de w(r; t); w0(r; t)w00(r; t); p(t) q(t) en (7.19), se obtiene
n
(n + r)antn
=) w00(r; t) =
1 X
1 X
=0
(n + r)(n + r 1)antn
1 X
=0
(n + r)(n + r 1)an tn
+ +
=0
n 1 X n
pn xn qntn
=0 2
1 X
n
(n + r)an tn
+
=0
antn
=0
Realizando las multiplicaciones y agrupando los terminos con potencias iguales de t, empezando por la potencia menor tr . Llegamos a r(r 1) + p r + q ]a tr + (r 1)ra + (r + 1)p a + p ra + q a + q a ]tr + : : : = 0 Como estamos igualando una serie de potencia a 0, se debe tener que cada coe ciente debe ser cero. Considerando el primer termino, tr , resulta r(r 1) + p r + q ]a = 0 Como se ha supuesto que a 6= 0, la cantidad incluida dentro del corchete debe ser igual a cero. Esto nos proporciona la ecuacion indicial que es similar a la que se obtuvo para las ecuaciones de Cauchy-Euler. Esta ecuacion es llamada ecuacion indicial del punto t . Ahora igualemos los coe cientes de tr a cero, tenemos que (r + 1)r + (r + 1)p + q ]a + (p r + q )a = 0 Dado que a es arbitrario y se conocen los valores de pi; qi y r, podemos despejar a conla condicion de que el coe ciente a no sea cero. Haciendo recursivamente este proceso, se pueden despejar los valores de an en funcion de pi ; qi; r; an ; : : :; a 0. Para clari ar el metodo, veamos un ejemplo donde utilizaremos todos los conceptos vistos anteriormente.
2 2 1 0 0 0 1 0 1 1 0 0 1 1 0 2 0 0 0 0 0 1 0 0 1 1 1 0 0 1 0 1
=0
=0
112
regular t = 0 de una solucion de
w(t; r) = tr
1 X
n
=0
antn =
1 X
n
=0
antn
Debido al analisis anterior, r debe satisfacer la ecuacion indicial , luego se obtiene que r(r 1) 1 r + 1 = 0 2 2 lo que se reduce a (2r 1)(r 1) = 0. Luego se tiene que r = 1 y r = 1=2 son raices de la ecuacion indicial. Utilizando la raiz mas grande, despejamos a ; a ; etc. Para esto sustituimos w(t; 1), w0 (t; 1) y w00 (t; 1) en la ecuacion original, resultando
1 2
(t + 2)t
1 X
k
=2
1 X
n
=0
(n + 1)nantn
1 X
n
=0
(n + 1)antn + (1 + t)
1 X
k
=1
1 X
n
=0
an tn = 0
+1
(k 1)(k 2) + 1]ak tk +
2
2k(k 1) k + 1]ak tk = 0
1
2(1)(0) 1 + 1]a t +
0 0
1 X
k
=2
(k
(7.20)
Notemos que el primer coe ciente en al ecuacion anterior es cero. Ahora podemos determinar los ak en terminos de a igualando a cero los coe cientes de tk de la ecuacion(7.20) para k = 2; 3;etc. Esto nos permite llegar a la relacion de recurrencia
(k
113
2
Finalmente podemos utilizar la relacion de recurrencia para obtener los valores de a ; a ; a ; : : : y sustituyendo resulta que 1 1 w(t; 1) = a t (1 1 t + 10 t 30 t + : : : 3 Donde a es arbitrario. En particular para a = 1, se obtiene la solucion 1 1 1 x (t) = t 3 t + 10 t 30 t + : : :
1 2 3 1 2 3 0 0 0 2 3 4 1
k 2
Para encontrar una segunda solucion, se podria intentar con r = 1=2 y despejar a ; a ; a ; : : :, para obtener la solucion w(t; 1=2).
1 2 3
114
Hagamos un resumen del Metodo de Frobenius y repasemos las etapas mas importantes.
Metodo de Frobenius
Para obtener una solucion en serie de potencias en torno al punto singular t de
0
(7.21)
Sigamos los siguientes pasos: 1. Sea p(t) := a (t)=a (t),q(t) := a (t)=a (t). Si tanto (t t )p(t) como (t t ) q(t) son analiticas en t , entonces t es un punto singular regular y podemos aplicar los pasos restantes. 2. Resolvamos la ecuacion indicial r(r 1) + p r + q = 0, donde p = limt!t (t t )p(t) y q = limt!t (t t ) q(t). Designando las raices r ; r con la condicion r r . 3. Sea 1 1 X X w(t; r) = (t t )r an (t t )n = an(t t )n r
1 2 0 2 0 0 2 0 0 0 0 0
Derivando termino a termino y sustituyendo w(t; r) en la ecuacion (7.21) se obtiene una ecuacion de la forma
=0
=0
A (t t )r J + A (t t )r
+ 0 0 1 0 0 1 2
+1
+ ::: = 0
4. Igualando a cero los coe cientes A ; A ; A : : : : 5. Utilizando las igualdades anteriores, se debe encontrar una relacion de recurrencia que incluya los coe cientes a ; a ; a ; : : : 6. Tomemos r = r la raiz m'as grande y usemos la relacion obtenida en el paso anterior para deterninar recursivamente a ; a ; a ; : : : en terminos de a y r . 7. Por ultimo se tiene que un desarrollo en serie de potencias de una solucion de (7.21) es
0 1 2 1 1 2 3 0 1
w(t; r ) = (t t )r
1 0 0 1
1 X
n
=0
an(t t )n t > t
0
donde a es arbitrario y los valores de los coe cientes an se de nen en terminos de a yr.
115
Para terminar el capitulo veamos un teorema que nos permite resolver el problema del radio de convergencia de la serie de potencias,
lo menos una solucion en serie de potencias de la forma w(t; r) (vista en el repaso anterior), con r = r es la raiz mas grande de la ecuacion indicial asociada. Ademas este serie converge para todo valor de t tal que 0 < t t < R, donde R es la distancia de t al punto singular mas cercano.
1 0
Teorema 7.5 Si t es un punto singular regular de la ecuacion (7.21), entonces existe por
0
116
(8.1)
En este caso, notemos que f (x; y) y g(x; y) no dependen de t explicitamente, por lo cual llamaremos al sistema Autonomo.
Este sistema claramente es no-autonomo, pues f (x; y) = ysen(t)+y y g(x; y) = y +x+cos(t) dependen explicitamente de t.
2
En lo que sigue, supondremos que f (x; y) y g(x; y) son funciones de IR ! IR de clase C , es decir, las derivadas parciales de f (x; y) y g(x; y) son continuas.
2 1
De nicion 8.1 Dadas una solucion de (8.1), ~ (t) = (x(t); y(t)), nos interesa describir su x trayectoria, de nida como su recorrido, es decir, el conjunto (curva) de puntos ~ (t); t 2 I . x
(HACER DIBUJO)
De nicion 8.2 El conjunto de las trayectorias de (8.1) descritos en el plano, se denominan Plano de Fase del sistema (8.1).
117
118
Queremos describir este conjunto geometricamente, es decir, gra car las trayectorias ~ (t) del x sistema (8.1). Para ello, veremos algunas propiedades generales de sistemas. La primera y fudamental es
Teorema 8.1 (Existencia y Unicidad) Dado t 2 IR y ~ 2 IR (~ = (x ; y )), existe una unica solucion ~ (t) del sistema x x x
2 0 0 0 0
Notemos que ~ (t) esta de nido en un intervalo maximal de existencia I =]a; b . Si a (o b) es x nito, entonces lim (x (t) + y (t)) = +1 t!a | {z }
2 2
k~ t k2 x
( )
Solucion Como las ecuaciones no estan ligadas, podemos resolver el sistema componente
dx = x =) Z dx = Z dt dt x
3
Despejando se llega a
2
y(t) = be
1 2(
! 0 x(t) = @ p y(t) be
t c t
1 0 p A ;@ be
2(
t c t
1 A
para cada c 2 IR y b 2 IR. Su intervalo maximal de existencia es I =]c; +1 . Por ultimo gra quemos las trayectorias (HACER DIBUJO)
119
En este capitulo estudiaremos el caso de sitemas autonomos. Sin embargo, existe una forma de transformar un sistema no-autonomo en uno autonomo.(PONER DEM???) Recordemos el ultimo ejemplo de la seccion anterior y notemos que (0; 0) es un punto singular del sistema, es decir ~ (t) (0; 0) es una solucion constante del sistema. Como todas las x trayectorias se acercan a (0; 0) cuando t ! +1, decimos que este punto es asintoticamente estable. En general
De nicion 8.3 A un punto (x ; y ) se le llamara Punto Singular del Sistema (8.1) si f (x ; y ) = 0 y g(x ; y ) = 0. En este caso ~ (t) = (x ; y ) es una solucion constante del x
0 0
sistema.
Teorema 8.2 (Propiedad basica de los Sistemas Autonomos) Si ~ (t) es una solucion del sistema (8.1), entonces w(t) ~ (t + p) donde p 2 IR es tambien x ~ x solucion de (8.1). Es decir, el traslado temporal de una solucion sigue siendo solucion. Demostracion 8.1 De namos
(x; y) ~x F (~ ) = f(x; y) g
~x Entonces el sistema se escribe como ~ 0(t) = F (~ (t)). x Por otro lado, tenemos que w0(t) = ~
=
120
De nicion 8.5 Llamaremos curva cerrada a aquella que pasa por si misma. En caso contrario, diremos que la curva es simple.
Demostracion 8.2
2 2
1. Probemos que si ~ (t) y ~ (t) son dos soluciones cuyas trayectox x rias coinciden en un punto, entonces estas trayectorias son la misma. Como las trayectorias coinciden en un punto, entonces existe t y t tales que ~ (t ) = x ~ (t ). x De namos w(t) = ~ (t + (t t )), entonces, debido a la propiedad (8.2), w(t) tambien ~ x ~ es solucion del sistema (8.1). Ademas por hipotesis se tiene que w(t ) = ~ (t ) = ~ (t ) ~ x x Luego, por el teorema de Existencia y Unicidad se debe tener que w(t) ~ (t). Es ~ x decir ~ (t) = w(t) = ~ (t + (t t )) 8t 2 IR x ~ x Por lo tanto ~ (t) es un trasladado temporal de ~ (t), lo que concluye el primer punto. x x 2. Probemos que si ~ (t) es una solucion tal que ~ (t ) = ~ (t ) con t < t , entonces ~ (t) x x x x es periodica de periodo p = (t t ). Sea I el intervalo maximal de existencia de ~ (t), de modo que t ; t 2 I . De namos x w(t) = ~ (t + (p)). ~ x Primero veamos que I = IR. En efecto si I =]a; b , entonces el intervalo maximal de existencia para w(t) es J =]a p; b p . ~ Pero t y t estan en I entonces a < t < b =) a p < t < b p =) t 2 J Ademas ~ (t ) = w(t ), entonces por el teorema de existencia y unicidad, se tiene que x ~ ~ (t) = w(t) 8t 2 IR, mas aun como coinciden se obtiene que I = J , es decir x ~ ]a p; b p = ]a; b =) a = +1 ^ b = 1 =) I = IR Notemos que tambien hemos probado que ~ (t) = ~ (t + p), luego ~ (t) es periodica y su x x x trayectoria es una curva cerrada.
1 2 1 2 1 1 2 2 1 1 2 2 1 1 1 1 2 2 1 1 2 1 2 1 2 2 1 1 2 1 2 2 1 1 1 1
Teorema 8.4 Sea ~ (t) es una solucion del sistema (8.1), de nida en t ; 1) y limt!1 ~ (t) x x
0
Demostracion 8.3 Supongamos que ~ (t) = (x(t); y(t)) ! (x ; y ) cuando t ! 1 =) f (x(t); y(t)) ! f (x ; y ) x
0 0 0 0
Pues f (x; y) es continua. Por otro lado, se tiene que integrando ~ 0(t) resulta que x
Zs
t0
~ 0(t)dt = x
Zs
t0
Tomando limite
Zs
t0
| {z }
x ~0
Zs
t0
Sea l = f (x ; y ). Notemos que f (x(t); y (t)) ! l cuando t ! 1. Supongamos que l > 0, entonces es tiene que
0 0
Z1
t0
Analogamente se prueba que l < 0 no es posible. Por lo tanto, l Utilizando el mismo procedimiento se prueba que g (x ; y ) = 0.
(8.3)
Tomando x = y y = _. A continuacion estudiemos el sistema (8.3) para dibujar su diagrama de fase. Se tiene que
dx = y ^ dy = sen(x) =) dx = dt = dy dt dt y sen(x)
122
Integrando, se obtiene que
Esto nos dice que cada trayectoria del sistema debe estar contenida en una curva de nivel de la funcion H (x; y ) = y cos(x). Dibujemos las curvas de nivel (HACER DIBUJO!!!)
1 2
Es importante entender el diagrama de fase de un sistema que sigue un fenomeno fisico determinado, y especialmente como se comporta este diagrama en torno a un punto singular. En el caso del pendulo, los puntos singulares (0; 0) y ( ; 0) son de naturaleza muy distinta: 1. El punto (0; 0) es estable en el sentido que una solucion que parte cerca del punto, siempre se mantiene cerca de el. 2. El punto ( ; 0) es inestable en el sentido que una solucion que parte cerca del punto, puede irse muy lejos de ( ; 0).
~ 0(t) = A~ (t) x x
donde A 2 Mn n (IR). Supondremos que det(A) 6= 0 lo que implica que
(8.4)
A~ (t) = 0 =) ~ (t) = 0 x x
Es decir, ~ (t) = 0 es el unico punto singular del sistema. x Para hacer el bosquejo de un diagrama de fase, condideremos algunos casos distintos 1. A diagonalizable. Dentro de este caso, veamos los siguientes subcasos (a) Valores propios reales distintos. Como son distintos, debemos tener en cuenta si poseen el mismo signo o no. (b) Valores propios reales iguales. (c) Valores propios complejos conjugados. 2. A no diagonalizable, es decir, A tiene un valor propio doble.
1
123
Veamos el analisis de cada uno de estos casos. Sean y los valores propios de A, entonces se tiene que Primer caso: Valores Propios Reales, Distintos y con el mismo Signo. Sin perdida de generalidad < < 0. Sean ~ y ~ los vectores propios asociados. Entonces todo solucion de (8.4) se escribe ~ (t) = c e t~ + c e t~ () ~ (t) = w(t)~ + z(t)~ x u v x u v Asi (w(t); z(t)) constituyen las coordenadas de ~ (t) en la base de IR dada por los vectores x ~ . Gra quemos ~ (t) en estas coordenadas, es decir ~y x (HACER DIBUJO!!!)
1 2 2
El eje w corresponde a la recta generada por ~ en las coordenadas originales y el eje z a u aquella generada por ~ . v (HACER DIBUJO!!!) Decimos que ~ es un nodo estable de dos tangentes. Se dice estable, en el sentido que 0 las trayectorias se aproximan a ~ cuando t ! 1. 0 Si en lugar de < tomamos < , el gra co es el siguiente (HACER DIBUJO!!!) Las trayectorias se acercan tangencialmente al eje asociado al valor propio de valor absoluto menor. Si ; > 0, se tiene que w(t) = c e t y z(t) = c e t. Las trayectorias en este caso se alejan del origen, es decir, ~ es un nodo inestable 0 (HACER DIBUJO!!!!)
1 2
En este caso = , con vectores propios ~ y ~ respectivamente. Supongamos = > 0, entonces w(t) = c e t z(t) = c e t Luego, c e t + c e t = 0 es una recta que pasa por el origen. Ademas, (w(t); z(t)) ! (0; 0) cuando t ! 1. Por lo tanto, Las echas "salen"del origen y las trayectorias son todas las rectas que pasan por el (0; 0). ~ es llamado nodo estelar inestable. 0 (HACER DIBUJO!!!) Si = < 0, el diagrama es el mismo, pero las echas estan orientadas hacia el origen. Por esto se le llama nodo estelar estable.
1 2 1 2
Supongamos < 0 < , asi las coordenadas del sistema asociadas a ~ 4y~ , son w(t) = c e t ^ z(t) = c e t Primero analicemos el caso c > 0 y c = 0, entonces (w(t); z(t)) = (c e t; 0) ! (0; 0) cuando t!1
1 2 1 2 1
124
1
! ! z(t) = et = w(t) =) z(t) = K (w(t)) c c Como y tiene signos opuestos, se tiene que = < 0 (HACER DIBUJ!!!) Analogamente, podemos estudiar el caso c ; c < 0, c > 0; c < 0, c < 0; c > 0 y obtenemos el siguiente diagrama de fase (HACER DIBUJO!!!!) Cuarto caso: Valores Propios Complejos. Sea = + i y = i con 6= 0.Sean los vectores propios asociados ~ = ~ + i~ y u a b ~ . Entonces se tiene que las soluciones complejas linealmente independientes son ~ = ~ ib v a
1 1
2 1 1 2 1 2 1 2
(HACER DIBUJO!!!) Analogamente, podemos analizar el caso c = 0 y c 6= 0, obteniendo el mismo diagrama, pero con diferencias en el sentido de las echas. (HACER DIBUJO!!!) Por ultimo tomemos el caso c ; c > 0. Luego
1 2
e
( + )
i t(~ + i~ ) a b
)
^e
i t(~ a
)
i~ ) b
Pero, e i t(~ + i~) = e t(cos( t)+ isen( t))(~ + i~ ). Gracias a la formula anterior, podemos a b a b escribir una solucion como e t(cos( t)~ sen( t)~) ie t(cos( t)~ + sen( t)~) a b a b La otra simplemente es su conjugada. Las partes real y compleja son soluciones reales del sistema y son linealmente independientes. Por lo tanto, son una base de soluciones, es decir la solucion general es x ~ (t) = c e t(cos( t)~ sen( t)~) + c e t(cos( t)~ + sen( t)~) a b a b t c cos( t) + c sen( t)] ~ + e t c cos( t) c sen( t)]~ = e {z }a | {z }b |
1 2 1 2 2 1
wt
( )
zt
( )
Escribiremos gra camente las coordenadas w(t) y z(t) de las soluciones, respecto a ~ y ~, a b base de IR . (HACER DiBUJO!!!!)
2