Presentado por:
Presentado a:
Universidad Surcolombiana
Matematica Aplicada
Neiva-Huila 2016
2016
1
INTRODUCCION
En el peridodo 2016-2 se estudiaron una serie de temas, con los cuales se desa-
rrollo la asignatura de Analisis Cualitativo a cargo del docente Diego Armando
Morales, con el fin de complementar los conocimientos adqueridos en materias
anteriores.
2
Indice
1. ECUACIONES DIFERENCIALES ORDINARIAS. 5
1.1. Ecuaciones De Primer Orden. . . . . . . . . . . . . . . . . . . . . 5
1.1.1. Teora De La Existencia Y Unicidad. . . . . . . . . . . . . 6
1.1.2. Campo Diferencial . . . . . . . . . . . . . . . . . . . . . . 7
1.1.3. Aplicaciones a la Fsica. . . . . . . . . . . . . . . . . . . . 11
4. SISTEMAS LINEALES. 37
4.1. Sistemas Lineales Desacoplados. . . . . . . . . . . . . . . . . . . . 38
4.2. Diagonalizacion. . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
5. OPERADORES LINEALES 41
6. EXPOSICIONES. 46
6.1. SISTEMAS DE ECUACIONES DIFERENCIALES LINEALES . 46
6.2. SISTEMAS DE ECUACIONES LINEALES CON VALORES PRO-
PIOS COMPLEJOS . . . . . . . . . . . . . . . . . . . . . . . . . 56
6.2.1. Eigenvalores Complejos . . . . . . . . . . . . . . . . . . . 56
6.2.2. Analisis de estabilidad de los valores propios . . . . . . . 60
6.3. FORMA CANONICA DE JORDAN . . . . . . . . . . . . . . . . 62
6.4. TEORIA DE LA ESTABILIDAD . . . . . . . . . . . . . . . . . . 67
6.4.1. Caracterizacion Del Punto Crtico . . . . . . . . . . . . . 69
6.5. LINEALES NO HOMOGENEOS . . . . . . . . . . . . . . . . . . 72
6.5.1. Metodo de diagonalizacion . . . . . . . . . . . . . . . . . 73
3
6.6. EXISTENCIA Y UNICIDAD . . . . . . . . . . . . . . . . . . . . 76
6.6.1. Existencia . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
6.6.2. Unicidad . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
4
1. ECUACIONES DIFERENCIALES ORDINA-
RIAS.
0
En general f (x, y, y , y (n) ) = 0 es una ecuacion de orden n.
0
y (n) = f (x, y, y , y (n1) ) es una ecuacion diferencial escrita de manera explicita.
dy
Sea = f (x, y) con problema de valor inicial y(x0 ) = y0
dx
Dado J JCD
dy
= f (x, y) y() = n.
dx
5
1.1.1. Teora De La Existencia Y Unicidad.
dF
Es continua.
dy
dy 2 dF 2 1
Sea = y 3 Con condicion inicial y(1) = 0. Donde su derivada es = y 3 .
dx dy 3
dy
2 = dx
y3
R 2 R
y 3 = dx
1
3y 3 = x + c
1
3y 3 x = c
-1 = c
3
x1
y= y=0
3
dy
Dado = f (x, y) y = n, entonces si la funcion (x) es solucion de la ecua-
dx
cion diferencial.
Zx
(x) = f (t) dt + n.
6
1.1.2. Campo Diferencial
dy
= f (x, y)
dx
dy y
= x2 + y 2 = c
dx x
dy
1. = f (x)
dx
dy
= 2x
dx
y = x2 + c
7
Ejemplo.
Solucion:
dM 2y 2 6xy
= = 4y 6x
dy dy
dN
= 3y 8x
dx
dM dN
Tengo que, 6=
dy dx
Ahora.
1 dM dN d
(x) = =
N dy dx dx
1 dM dN d
(y) = =
M dy dx dx
8
0 0
dM dN x y
(x, y) = = N M
dy dx x y
Ahora.
0 0
x y
(x, y) = (4y 6x) (3y 8x) = (3xy 4x2 ) (2y 2 6xy)
x y
0 0
x y
(x, y) = y + 2x = x(3y 4x) y(2y 6x)
x y
0 0
x 1 y 1
Si, = = ()
x x y y
1 1
(x, y) = y + 2x = x(3y 4x) y(2y 6x)
x y
y + 2x = 3y 4x 2y + 6x
y + 2x = y + 2x
Reemplazando ().
dx
dx = 1
x x
dx 1
=
xdx x
dx dx
=
x x
lnx = lnx
x=x
Siendo: (x, y) = xn y m
9
M
= 2(m + 2)xn y m+1 6(m + 1)xn+1 y m
y
N
= 3(n + 1)xn y m+1 4(n + 2)xn+1 y m =
x
2(m + 2) = 3(n + 1)
6(m + 1) = 4(n + 2)
Por tanto;
2m + 4 = 3n + 3 (1)
6m 6 = 4n 8 (2)
De (1) tengo:
2m = 3n 1
3 1 3 1
m= n () m = m = (1) = 1
2 2 2 2
De (2) tengo:
6m = 4n 2
4 2
m= n+ ()
6 6
3n 1 4n + 2
=
2 6
3n 4n 12
=
2 6 26
3n 2n 5
=
2 3 6
10
5n 5
=
6 6
n=1
dy
= f (y)
dx
11
00
y (t) = g
d2 y
=g
dt2
t2
y(t) = g + c1 + c2
2
Ejemplo.
00
a=S , S(0) = R, S(0) = 0.
rM m
K=
S2
MS
ma = r 2
S
00 rM
S (t) =
S2
S(t) = atb
b 2 = 2b
12
3b = 2
2
b=
3
2 1
a= = rM S 2
3 3
2
a3 = rM
9
9
a3 = rM
2
13
9rM 2
a= S(t) = a(c t) 3
2
Si S(0) = R.
13
9rM 2
R= c3
2
1
2 23 R
c3 = 1
(9rM ) 3
R 2R
c=
9RM
! 23
R 2R
Ahora. S(t) = a t
9RM
13
escalares c y d, entonces V se llama espacio vectorial y sus elementos se
llaman vectores.
8. (c + d)u = cu + du Distributividad.
9. c(du) = (cd)u
10. 1u = u.
Teorema.
Sea V un espacio vectorial, un vector en V y c un escalar.
1. 0u = 0
2. c0 = 0
3. (1)u = u
4. Si cu = 0, entonces c = 0 o u = 0.
Demostracion.
14
u = 1u por axioma (10).
u = ( c1c )u
1
u = (cu) por axioma (9).
c
1
u= 0
c
u=0 por propiedad (2) de teorema.
2.2. Subespacio.
Definicion: Un subconjunto W de un espacio vectorial V se llama subespacio
de V si W es en si mismo un espacio vectorial con los mismos escalares, suma
y multiplicacion por un escalar que V .
Teorema.
Sea v un espacio vectorial y sea W un subconjunto no vacio de V . Entonces W
es un subespacio de V si y solo si se cumplen las siguientes condiciones.
Demostracion.
Ahora vasta probar los axiomas (4) y (5) de espacios vectoriales, tengo que como
W es un subespacio no vaco, contiene almenos un vector u, entonces por la con-
dicion (2) y el teorema anterior condicion (1) tengo que la condicion (1) implica
que 0u = 0 tambien va a estar en W , por tanto queda demostrado el axioma (4).
Ejemplos.
15
Solucion.
W no es vaco, por tanto vasta demostrar las condiciones (1) y (2) del teorema
anterior.
De igual modo tengo que: (cA)T = cAT = cA, de modo que cA es simetrica y
por tanto esta en W .
a
4
un subespacio de R
Solucion.
a c
a+c a+c
b+d b+d
tengo que: u + v = b d = (b + d), de modo que u + v tambien esta
a+c a+c
en W .
ka
kb
De igual forma si k es un escalar, tengo: ku =
kb de modo que ku tambien
ka
esta en W .
16
Solucion.
Ejemplos.
1) Demuestre que M23 = gen(E11 , E12 , E13 , E21 , E22 , E23 ) donde.
1 0 0 0 1 0 0 0 1
E11 = , E12 = , E13 = ,
0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0
E21 = , E22 = , E23 =
1 0 0 0 1 0 0 0 1
Esto es, Eij es la matriz con un 1 en el renglon i, columna j y ceros en cualquiera
otra parte.
Solucion.
Observemos que:
a11 a12 a13
= a11 E11 + a12 E12 + a13 E13 + a21 E21 + a22 E22 + a23 E23
a21 a22 a23
Por tanto vemos que en general Mmn es generado por las mn matrices Eij ,
donde i = 1, ..., m y j = 1, ..., n.
17
2) En P2 , determine si r(x) = 1 4x + 6x2 esta en gen (p(x), q(x)) donde:
Solucion.
c + 2d = 1
c + d = 4
c 3d = 6
c1 v1 , c2 v2 , ..., ck vk = 0
Teorema.
Un conjunto de vectores {v1 , v2 , ..., vk } es un espacio vectorial V es linealmente
dependiente si y solo si almenos uno de los vectores puede expresarse como una
combinacion lineal de los otros.
Demostracion.
Si uno de los vectores, por ejemplo v1 es una combinacion lineal de los otros,
entonces van a existir escalares c2 , ..., ck tal que v1 = c2 v2 , ..., ck vk . Al reordenar
se obtiene v1 c2 v2 ... ck vk = 0, lo que implica que v1 , v2 , ..., vk son lineal-
18
mente dependientes, pues al menos uno de los escalares es distinto de 1.
c1 v1 = c2 v2 ... ck vk
1
Multiplicando a ambos lados por para obtener v1 como una combinacion
c1
lineal de otros vectores, tengo:
c2 ck
v1 = ( )v2 ... ( )vm
c1 c1
Ejemplo.
Solucion.
c1 (1 + x) + c2 (x + x2 ) + c3 (1 + x2 ) = 0
c1 + c3 = 0
c1 + c2 = 0
c2 + c3 = 0
2.5. Bases.
Un subconjunto de un espacio vectorial V es una base para V si:
1) genera a V
2) es linealmente independiente.
Ejemplos.
19
1) Demuestre que = {1 + x, x + x2 , 1 + x2 } es una base para P2
Solucion.
c1 (1 + x) + c2 (x + x2 ) + c3 (1 + x2 )
De igual forma,
c1 + c3 = a
c1 + c2 = b
c2 + c3 = c
1 0 1
La cual tiene como solucion, pues la matriz de coeficientes 1 1 0, tiene
0 1 1
rango 3 y por tanto es invertible.
Solucion.
a 1 0 1
b 0 1 0
Dado que: b = a 0 +b 1, se tiene que W1 = gen(u, v) donde: u = 0
a 1 0 1
0
1
y v = 1. Por tanto tengo que {u, v} es linealmente independiente, y por
0
tanto es una base de W1
20
b) W2 = {a + bx bx2 + ax3 }
Solucion.
Dado que,
a + bx bx2 + ax3 = a(1 + x3 ) + b(x x2 )
Tengo que W2 = gen(u(x), v(x)), donde:
u(x) = 1 + x3 y v(x) = x x2
Dado que {u(x), v(x)} son linealmente independientes tambien es una base para
W2 .
a b
c) W3 =
b a
Solucion.
a b 1 0 0 1
Dado que =a +b , tengo que W3 = gen(U, V ), donde
b a 0 1 1 0
1 0 0 1
U = yV = , por tanto tengo que {U, V } es linealmente inde-
0 1 1 0
pendiente , tambien es una base para W3 .
La dimension del espacio vectorial cero {0} se define como cero. Un espacio
vectorial que no tiene base finita se llama de dimension infinita.
1. T (u + v) = T (u) + T (v)
2. T (cu) = cT (u)
Ejemplos.
21
1) Defina T : Mnn Mnn mediante T (A) = AT . Demuestre que T es una
transformacion lineal.
Solucion.
Solucion.
Solucion.
Rb Rb
S(f + g) = a
(f (x) + g(x) dx.
a
22
Rb
y, S(cf ) = (cf )(x) dx.
a
Rb
S(cf ) = cf (x) dx.
a
Rb
S(cf ) = c f (x) dx.
a
S(cf ) = cS(f )
Ejemplo.
1 2 1 0 1 1
Sea A = yB= . Entonces A B, con P =
0 1 2 1 1 1
2.8.2. Diagonalizacion.
Una matriz A de nxn es diagonalizable si existe una matriz diagonal D tal que
A sea semejante a D; esto es, si existe una matriz invertible P de nxn tal que
P 1 AP = D.
Mas precisamente existe una matriz invertible P y una matriz diagonal D tales
que P 1 AP = D si y solo si las columnas de P son n eigenvectores linealmente
independientes de A correspondientes a los eigenvectores en P en el mismo or-
den.
Ejemplo.
23
Solucion.
det|(A I)| = 0
2 3 7 0 0
det 0 5 1 0 0 = 0
0 0 1 0 0
2 3 7
det 0 5 1 = 0
0 0 1
= (2 )(5 )(1 ) = 0
Para = 2 se tiene.
2 2 3 7 x 0
0 52 1 y = 0
0 0 1 2 z 0
0 3 7 0 0 3 7 0 0 3 7 0
1
0 3 1 0 f3 0 3 1 0 f3 + f2 0 3 0 0 7f3 + f1
3
0 0 3 0 0 0 1 0 0 0 1 0
0 0 0 0
1
f2 + f1 y f2 0 1 0 0
3
0 0 1 0
Ahora Sea, x = t, y = 0, z = 0
x t 1
Luego, V1 = y = 0 = t 0
z 0 0
Para = 5 se tiene.
2 5 3 7 x 0
0 55 1 y = 0
0 0 1 5 z 0
24
3 3 7 0 3 3 7 0 3 3 0 0
0 0 1 0 6f2 + f3 0 0 1 0 7f2 + f1 0 0 1 0
0 0 6 0 0 0 0 0 0 0 0 0
3x 3y = 0
3x = 3y
x = y y z=0
x s 1
Ahora sea y = s, entonces, V2 = y = s = s 1
z 0 0
Para = 1 se tiene.
2 + 1 3 7 x 0
0 5+1 1 y = 0
0 0 1 + 1 z 0
3 3 7 0
0 6 1 0
0 0 0 0
3x 3y + 7z = 0 (1)
6y + z = 0 (2)
De (2) despejo z.
z = 6y
Reemplazo z en (1).
3x 3y + 7(6y) = 0
3x 3y 42y = 0 3
x y 14y = 0
x 15y = 0
x = 15y
25
1 1 15
Por tanto tengo que P = 0 1 1
0 0 6
Ahora. P 1 = [P |I]
1 1 15 |1 0 0 1 1 15 |1 0 0
1
P 1 = 0 1 1 |0 1 0 f3 0 1 1 |0 1 0 f3 + f2
6
0 0 6 |0 0 1 0 0 1 |0 0 61
15
1 1 15 |1 0 0 1 1 0 |1 0 6
1 1
0 1 0 |0 1 6 15f 3 + f1
0 1 0 |0 1 6 f2 + f1
0 0 1 |0 0 16 0 0 1 |0 0 16
8
1 0 0 |1 1 3
1
0 1 0 |0 1 6
0 0 1 |0 0 16
8
1 1 3
Por tanto tengo que P 1 = 0 1 1
6
0 0 16
dy
dx = f (x, y)
dy
dx = g(x).h(y)
1 dy
h(y) . dx = g(x) Despejando g(x).
1 dy
R R
h(y) . dx .dx = g(x).dx Integrando respecto a x.
dy
De donde, dx .dx = dy
R R
m(y).dy = g(x).dx
Luego, y() = n
26
Ry Rx
m(s).ds = g(t).dt Parametrizando.
n
Ejemplo.
dy y
1) = , y(0) = 1
dx x
df
Se cumple siempre y cuando se continua en (, n).
dx
df x
Derivando tenemos = 2 , es posible en el punto y(0) = 1, cuando y no
dx y
valga cero, pues no abria solucion
y2 x2
= +c
2 2
y2 x2
=c Despejando c.
2 2
y2 x2
=1 Dividiedo por c.
2c 2c
Teniendo as una hiperbola.
27
y2 1 x2
=
2 2 2
2 2
y x 1 1
= + Con c = .
2 2 2 2
Siendo esta la unica curva que pasa por ese punto con esa pendiente, lo garan-
tiza el teorema de existencia y unicidad.
dy 1
2) dt = yt+t+1 , y(0) = 0
dy 1
=
dt t(y + 1) + (y + 1)
dy 1 1
= .
dt (y + 1) (t + 1)
R R dt
(y + 1).dy = t+1 Separando variables e intengrando.
y2
+ y = ln |1| + c
2
0 = ln |1| + c Por la condicion inicial.
c = ln |1| Despejando c.
c = 0.
y2
De manera implcita : + y = ln |t + 1|.
2
De forma explcita :
y2
+ y = ln |t + 1|
2
y 2 + 2y = 2ln |t + 1| Multipicando por 2.
(y + 1)2 = 2ln |t + 1| + 1
p
y = 2ln |t + 1| + 1 1
dy
a1 (x) + a0 (x)y = b(x)
dx
dy a0 (x) b(x)
+ y= , a1 (x) no se anule.
dx a1 (x) a1 (x)
Ly : y 0 + g(x)y = h(x)
28
Ly = 0: Homogenea: Donde las raices de la funcion son la solucion.
Ejemplo.
dy 2
1) = aty + 4et
dt
Para que valores de a se puede encontrar soluciones explicitas de y?.
dy 2
aty = 4et
dt
t2
R
Luego, (t) = ea t.dt
= ea 2
t2 dy t2 2
Ahora, ea 2 ea 2 aty = 4et
dt
d a t2 2 a
[e 2 y] = 4 et (1+ 2 ) .dt
R
Entonces,
dt
a
Por lo tanto, 1+ 2 = 0 a = 2
29
3.3. Ecuaciones de Bernoulli
y 0 + g(x)y + h(x)y = 0 , 6= 0
(y 1 )0 + (1 )g(x)y 1 + (1 )h(x) = 0
z 0 + (1 )g(x)z + (1 )h(x) = 0
F F F F
dF = x + y x =M , y =N
M N
Porque son iguales, = ?.
y x
2F 2F
= .
xy yx
30
2F F
Luego, = ( )
xy x y
N
= [N ] =
x x
2F F
Ahora, = ( )
yx y x
M
= [M ] =
y y
M N
Por lo tanto = .
y x
y 0 + P (x)y = Q(x)
dy
+ P (x)y Q(x) = 0
dx
dy
= P (x)y + Q(x)
dx
dy = (P (x)y Q(x)).dx
dy + (P (x)y Q(x)).dx = 0
M N N M
Z
y x
Z
x y
.dx .dy
(x) = e N y (y) = e M
31
(x, y)M (x, y).dx + (x, y)N (x, y).dy = 0
[(x, y)M (x, y)] = [(x, y)N (x, y)] Depende d x e y.
y x
M N
M + = N + Derivando .
y y x x
M N
= M+ N
y x y x
Para (x):
M N
= N
y x x
M N
y x 0
=
N
M N
0
Z Z
y x
=
N
M N
Z
y x
.dx
(x) = e N Integrando y aplicando e.
3.5. Aplicaciones.
x0 = ax
x = x(t) = keat
x0 = kaeat = a(keat )
x0 = ax(t)
32
La anterior imagen representa el comportamiento de la Solucion
dP dA
= rP Crecimiento de poblacion , = kA0 Cantidad de alimen-
dt dt
tos.
A0 (1 + kt) A0
a0 = = a0 (1 + kt)ert ; Con a0 =
P0 ert P0
Ahora, tcm : El instante de tiempo catastrofe malthusiano.
amin = a0 (1 + ktcm)ertcm
1 + ktcm amin
Luego, rtcm
e a0
amin P0
Pues = amin . siendo mayor la poblacion que el alimento por el tcm
a0 A0
amin
entonces asi es mayor o igual.
a0
33
Funcion W Lambert
Tambien conocida como funcion Omega o log producto; esta es la funcion inver-
sa de f (w) = wew donde ew es la funcion exponencial natural y w es cualquier
numero complejo. La funcion se define mediante W . Para todo numero complejo
denominado z, con z = W (z)eW (z) .
P >N
P
>1
N
P
0>1 = u(P )
N
34
dP P P
Entonces, = kP (1 ); f (p) = kP (1 )
dt N N
Se dan 2 soluciones de equilibrio, en P = 0, P = N , porque la variacion se
mantiene constante.
P <N
P
N 1<0
dP P P
dt = kP (1 N )( N 1)
dP P P
dt = kP (1 N )( M 1); N 6= M
35
Figura 4: Soluciones de Equilibrio.
Ejemplo:
dP P
= kP 1 ; P (0) = P0 .
dt N
Supongamos que N = 1, entonces P (t) =?.
dP P
= kP 1
dt N
Z Z
dP
= k.dt Separando variables e integrando.
P (1 P )
1 A B
Luego, = +
P (1 P ) P 1P
Donde A = 1 y B = 1, entonces,
Z Z Z
dP dP
+ = k.dt
P 1P
ln |P | ln |1 P | = kt + c
eln| 1P | = ekt+c
P
Propiedades de logaritmo y aplicando e.
36
P
= cekt
1P
P0
Ahora P (0) = P0 tenemos: c =
1 P0
Luego, reemplazando c tenemos:
P P0 kt
= e
1P 1 P0
P (1 P0 ) = P0 ekt (1 P )
P (1 P0 ) + P P0 ekt = P0 ekt
4. SISTEMAS LINEALES.
Se presenta un sistema de ecuaciones diferenciales ordinarias de la forma:
x0 = Ax
Se puede ver que la solucion de este sistema lineal (1) con la condicion inicial
x(0) = x0 esta dada por
x(t) = eAt x0 .
donde eAt es una funcion matricial n n definida por una serie de Taylor.
Se busca calcular la matriz eAt en terminos de los valores propios y los vectores
propios de esta matriz cuadrada A.
37
4.1. Sistemas Lineales Desacoplados.
x01 = x1
x02 = 2x2
En forma matricial se puede escribir x0 = Ax (1*), donde
1 0
A=
0 2
Note que en este caso A es una matriz diagonal, A = diag[1, 2] y en general
todas las matrices A son matrices diagonales, el sistema (1*) se reduce a un
sistema lineal desacoplado. En general la solucion de cualquier sistema lineal
desacoplado puede encontrarse por el metodo de separacion de variable. Por lo
tanto,
x1 (t) = c1 et (2)
x2 (t) = c2 e2t
et 0
o equivalente x(t) = c (2)
0 e2t
donde c = x(0). Se puede observar que las curvas solucion de (2) se encuentran
sobre las curvas algebraicas y = xk2 donde la constante k = c21 c2 El movimiento
que describe la solucion de (2) puede verse para x1 y x2 en un plano fase. Para
el caso en que c1 = c2 = 0, x1 (t) = 0 y x2 (t) = 0 para todo t R se conocen
como puntos de equilibrio.
38
Figura 6: Solucion del Sistema.
Ejercicio.
1) Encuentre la solucion general del siguiente sistema:
x01 = x1
x02 = 3x2
Solucion.
1 0
A=
0 3
Donde su solucion esta dada por:
x1 (t) = c1 et
x2 (t) = c2 e3t
o equivalente,
et
0
x(t) =
0 e3t
4.2. Diagonalizacion.
x0 = Ax (1)
Teorema.
39
Con el fin de reducir el sistema (1) a un sistema lineal no acoplado mediante el
teorema anterior, se define la transformacion lineal de coordenadas:
y = P 1 x
Entonces,
x = Py
As que,
y 0 = P 1 x0 = P 1 Ax = P 1 AP y
y de acuerdo con el anterior teorema, se obtiene el sistema lineal desacoplado
y 0 = diag[1 , 2 , ..., n ]y
Ejemplo.
x01 = x1 3x2
x02 = 2x2
Se puede escribir la matriz en la forma (1) como:
1 3
A=
0 2
40
1 1 1 3 1 1 y1
y0 = . . .
0 1 0 2 0 1 y2
1 0 y1
y0 = .
0 2 y2
Obteniendo as el sistema desacoplado
y10 (t) = y1
y20 (t) = 2y2
5. OPERADORES LINEALES
Los operadores lineales cumplen con las condiciones de linealidad. Si T es un
operador lineal Rn Rn entonces para vectores x, y Rn y k R se tiene que:
kT k = max|x|1 |T (x)|
1. kT k 0 y kT k = 0 T = 0.
41
2. kkT k = |k| kT k para k R.
3. kS + T k kSk + kT k
Demostracion:
1)* kT k si es mayor que cero ya que kT k = max|x|1 |T (x)| 0 por ser el maxi-
mo y por la definicion de |.|
2)kkT k = max|x|1 |KT (x)| = |k| max|x|1 |T (x)| por propiedades del maximo,
se tiene finalmente que kkT k = |k| kT k
kS + T k kSk + kT k
lm Tk = T
k
Lema 1.
Para S, T L(Rn ) y x Rn siendo kT k = max |T |
|x| ; |x| = 1
1) |T (x)| kT k |x|
2)
kT Sk
kT kk kSk
k
3) T kT k para k=0,1,2...
Demostracion
x
1) Sea y un vector unitario, y = |x| . Entonces
x
T (y) = T ( |x| )
1
= |x| T (x) (Porque cumple con las condiciones de linealidad)
42
|T (x)|
|T (y)| = 1
|x| |T (x)| = |x| max |T|x|
(x)|
= kT k
Por lo tanto,
|T (x)|
|x| kT k
|T (x)| kT k |x|
3) Si k=1.
T
kT k1
1
kT k kT k (v)
Si k=2.
T
= kT T k kT k kT k = kT k2
2
=
T T
T
kT k kT kk kT k = kT kk+1
k+1
k
k
T
k
Por lo tanto
T k
kT k
Teorema.
X T k tk
Dado T L(Rn ) y t0 > 0, la serie es absolutamente y uniformemente
k!
k=0
convergente para todo |t| t0
Demostracion.
43
Definicion 1. Sea A una matriz nxn. Entonces para t R
X Ak t k
eAt =
k!
k=0
Para una matriz A de nxn, eAt es una matriz nxn que puede ser
calculada
en
terminos de los valores y vectores propios de A. Se puede ver que
eAt
ekAk|t|
donde kAk = kT k y T es una transformacion lineal T (x) = Ax
Proposicion 1.
Si S y T son transformaciones lineales sobre Rn y S = P T P 1 . Entonces
eS = P eT P 1 .
Demostracion.
N N
X Sk X (P T P 1 )k X Tk
eS = = lm = P lm P 1
k! N k! N k!
k=0 k=0 k=0
S T 1
e = Pe P
Corolario 1.
Si S y T son transformaciones lineales sobre Rn que conmutan, es decir que
satisfacen ST = T S, entonces eS+T = eS eT
Demostracion.
Corolario 2.
Si T es una transformacion lineal sobre Rn , la inversa de la transformacion lineal
eT esta dada por (eT )1 = eT .
44
Corolario 3.
a b cosb senb
Si A = entonces, eA = ea
b a senb cosb
Corolario 4.
a b
Si A = ,
0 a
A a1 b
Entonces e = e Podemos encontrar la matriz eAt para alguna matriz
0 1
A2x2 , teniendo en cuenta una matriz P tal que la matriz B = P 1 AP tiene
alguna de las siguientes formas
0 1 a b
B= ,B= ,oB=
0 0 b a
eAt = P eBt P 1
2 0
Ejemplo. Encuentre las exponenciales de la matriz A =
0 3
Solucion. Encontremos los valores propios de A.
2 0 0 2 0
det(A I) = det( ) = det( )
0 3 0 0 3
(2 )(3 ) = 0
Para = 2 tenemos:
22 0 0 0
=
0 3 2 0 5
1
Entonces, x2 = 0, sea x1 = s lo que nos queda el vector propio v1 =
0
Para = 3 tenemos:
2+3 0 5 0
=
0 3 + 3 0 0
45
0
Entonces, x1 = 0, sea x2 = t lo que nos queda el vector propio v2 = , por lo
1
tanto, la matriz P y P 1 son:
1 0 1 1 0
P = ,P =
0 1 0 1
Por lo tanto la matriz exponencial eAt es de la siguiente forma:
0 e2t
At t 1 1 0 1 0
e = Pe P =
0 1 0 e3t 0 1
2t
e 0
=
0 e3t
6. EXPOSICIONES.
6.1. SISTEMAS DE ECUACIONES DIFERENCIALES
LINEALES
La forma normal de un sistema de ecuaciones diferenciales lineales de primer
orden es
dx1
= a11 (t)x1 + a12 (t)x2 + ... + a1n (t)xn
dt
dx2
= a21 (t)x1 + a22 (t)x2 + ... + a2n (t)xn
dt
..
.
dxn
= an1 (t)x1 + an2 (t)x2 + ... + ann (t)xn
dt
Visto en forma matricial es
x1 (t) a11 (t) a12 (t) ... a1n (t)
x2 (t) a21 (t) a22 (t) ... a2n (t)
X = . ; A(t) = .
.. .. ..
.. .. . . .
xn (t) an1 (t) an2 (t) ... ann (t)
x1 a11 (t) a12 (t) ... a1n (t) x1
x2
d a21 (t) a22 (t) ... a2n (t) x2
. = ..
.. .. .. ..
dt .. . . . . .
xn an1 (t) an2 (t) ... ann (t) xn
0
X = AX
46
dx
x dt a b x
si X = entonces dx =
y c d y
dy
O tambien
dX a b
= AX donde A=
dt c d
A partir de la naturaleza de los valores propios y el signo de ellos, los sistemas
lineales se clasifican en diferentes tipos.
El polinomio caracterstico de A es
1 0
det(A I) donde I =
0 1
Ahora, det(A I) = 2 (a + d) + ad bc
2 T + D
Las races o ceros de este polinomio, son los valores propios de la matriz A. Esto
es,
T T 2 4D T T 2 4D
1 = + ; 2 =
2 2 2 2
De esta expresion se deduce que los valores propios de A son:
T2
De T 2 4D = 0, se obtiene D = . Esta parabola se conoce como la parabola
4
de raiz repetida
47
dX
Para hallar la solucion de un sistema lineal de ecuaciones diferenciales =
dt
AX, se hace uso del principio de linealidad que nos dice:
Esto es, si X1 (t) y X2 (t) son dos soluciones del sistema dado y si k1 y k2 son
constante cualesquiera, entonces
k1 X1 (t) + k2 X2
Si la matriz A posee un valor propio real con vector propio asociado v, en-
dX
tonces el sistema lineal = AX tiene la solucion X(t) = et v conocida como
dt
solucion de lnea recta.
X1 (t) = e1 t v1 y X2 (t) = e2 t v2
48
Por consiguiente, en virtud del principio de linealidad
X(t) = k1 e1 t v1 + k2 e2 t v2
Ahora, para cuando los valores 1 ,2 son reales y distintos, se obtienen los si-
guientes casos:
1. 2 < 1 < 0
2. 1 > 2 > 0
3. 2 < 0 < 1
49
4. 2 < 1 = 0
5. 0 = 2 < 1
50
Para 1 = 1, su vector propio asociado es tal que
Av = 1 v (A 1 I2 )v = 0,
esto es,
1 1 v1 0
=
0 0 v2 0
de donde se obtiene v2 = v1 .
Luego,
v1 v1 1
v= = = v1
v2 v1 1
Aw = 2 w (A 2 I2 )v = 0,
esto es,
0 1 w1 0
=
0 1 w2 0
de donde se obtiene w2 = 0.
51
Luego,
w1 w1 1
w= = = w1
w2 0 0
El campo vectorial posee entonces dos soluciones de linea recta linealmente in-
dependientes que tienden al equilibrio (0,0). La solucion general es
t 1 2t 1
X(t) = k1 e + k2 e
1 0
k1 et + k2 e2t
x(t)
= ;
y(t) k1 et
dy dy 1
=
dx dt dx
dt
Como x(t) = k1 et + k2 e2t , y y(t) = k1 et , se tiene
dy k1 et 1
= = ,
dx k1 et 2k2 e2t k2 t
1 2 e
k1
52
Si k1 6= 0.
dy
Luego, tiende a 1 cuando t si k1 6= 0, es decir, son soluciones que
dx
tienden al equilibrio (0, 0) con pendientes que tienden a 1 (1 es la pendiente
de la linea recta de vectores propios asociados al valor propio 1 = 1) o tam-
bien se puede decir que tienden al origen en direccion tangencial a la linea de
vectores propios asociados con el valor propio dominante 1 = 1.
dy
Si k1 = 0, = 0, que es precisamente la pendiente para las soluciones de
dx
lnea recta con condiciones iniciales a lo largo de la lnea de vectores propios
correspondientes a 2 = 2.
Solucion
El polinomio caracterstico;
q
2
T (T ) 4D
=
2 2
donde la traza T = 7 y el determinante D = 0.
53
Luego los eigenvalores del sistema es:
1 = 7, 2 = 0
Aw = w
En efecto:
6 3 w1 7w1
=
2 1 w2 7w2
esto equivale
(
6w1 + 3w2 = 7w1
2w1 + w2 = 7w2
quedando
(
3w2 = w1
.
w1 = 3w2
Luego,
w1 3w2 3
w= = = w2
w2 w2 1
54
esto es, (
6w1 + 3w2 = 0
2w1 + w2 = 0
y as, 2w1 = w2 .
Luego, w2 1
w1 2 2
w= = = w2
w2 w2 1
Puesto que
3k1 k22
x0 1
X(0) = = =
y0 k1 + k2 1
3
k2 k =
3k1 2 = 1
1
7
.
k2 = 4
k1 + k2 = 1
7
Luego,
9 2
x(t) = e7t
7 7
y(t) = 3 e7t + 4
7 7
55
Figura 9: Plano fase
56
(ad bc) = 0 surge como parte de un par complejo conjugado: = p iq.
Si los valores propios de una matriz son complejos, sus vectores propios tendran
tambien componentes o entradas complejas.
Recordemos...
x3 x5 x7
P (1)n x2n+1
sin x = x 3! + 5! 7! = (2n+1)!
n=0
x2 x4 x6
P (1)n x2n
cos x = 1 2! + 4! 6! = (2n)!
n=0
Es decir que
(2n+1)!
P (1)n z 2n P
= (2n!) +i
n=0 (1)n z 2n+1
Eigenvalores Complejos
Si una matriz real A de tamano 2n x2n tiene eigenvalores complejos, estos apa-
recen en pares conjugados complejos y si A tiene 2n eigenvalores complejos
distintos, el siguiente teorema nos permite resolver el Sistema lineal.
Teorema.
Sea A Rnxn tiene k eigenvalores reales distintos 1 , ..., k con eigenvectores
correspondientes u1 , ..., uk y s = nk 2 pares conjugados complejos de eigenva-
lores k+1 , k+1 , ..., k+s , k+s , donde j = aj + ibj con los correspondientes
eigenvectores w, wk+1 , ..., wk+s , wk+s , donde w = uj + ivj .
57
Luego sea P = [v1 u1 v2 . . . vn un ]. Entonces P Rnxn es invertible y
Donde los bloques reales 2x2 Bj , para j > k, son dados por
aj bj
bj aj
Para j = k + 1, ..., k + s
Demostracion.
1
Similarmente, v = 2i (w w), y por lo tanto
1 1
Av = 2i (Aw Aw) = 2i (w w) = ={w} = bu + av.
Corolario.
Bajo las hipotesis del teorema anterior, la solucion del problema con valor inicial
X = AX
X(0) = x0
Es dado por
cos bj t sin bj t
X(t) = P diag eaj t P 1 x0
sin bj t cos bj t
cos bt sin bt
R=
sin bt cos bt
58
Representa una rotacion mediante bt en radianes.
Ejemplo. Resolver.
1 -1 0 0
1 1 0 0
A=
0
0 3 -2
0 0 1 1
La matriz A tiene valores propios complejos, 1 = 1 i y 2 = 2 i.
Para 1 = 1 + i se tiene
-i -1 0 0
1 -i 0 0
A= 0 0 2-i -2
0 0 1 1-i
de donde se sacan las siguientes ecuaciones
ix = y
x=iy=1
x = iy
(2 i)z = 2w
(2 i)iw 2w = 0 ((2 i)i 2)w = 0 w = 0; z = 0
z = iw
es decir que
i 0 1
1 1
+ i 0
0 = u1 + iv1 = 0
w1 =
0
0 0 0
Analogamente se hace para 2 = 2 + i, y se tiene que
0 0 0
0 0 0
w2 = 1 + i = u2 + iv2 = 1 + i
1
1 1 0
Ahora;
1 0 0 0
0 1 0 0
P = v1 u1 v2 u2 =
0
0 1 1
0 0 0 1
1 0 0 0
1
0 1 0 0
P =
0
0 1 -1
0 0 0 1
59
y,
1 -1 0 0
1
1 1 0 0
P AP =
0 0 2 -1
0 0 1 2
La solucion del problema con valor inicial es
t
e cos t et sin t
0 0
et sin t et cos t 0 0 1
x(t) = P P x0
0 0 e2t cos t e2t sin t
0 0 e2t sin t e2t cos t
et cos t et sin t
0 0
et sin t et cos t 0 0
= 2t 2t
x0
0 0 e (cos t + sin t) 2e sin t
2t 2t
0 0 e sin t e (cos t sin t)
Ejemplo.
x0 = 2x + 3y
y 0 = 3x 2y
Los valores propios son 5i,es decir que = 0 por lo tanto en su diagrama
de fase vamos a encontrar centros.
60
Ejemplo.
x0 = x + y
y0= 3x + y
Los valores propios son 1 i,es decir que > 0 por lo tanto en su diagrama de
fase vamos a encontrar una fuente espiral, tambien conocido como foco inestable.
Ejemplo.
x0 = 2x + y
y 0 = 3x + y
Los valores propios son 21 i 23 ,es decir que < 0 por lo tanto en su diagrama
de fase vamos a encontrar una sumidero espiral, tambien conocido como foco
estable.
61
6.3. FORMA CANONICA DE JORDAN
La forma canonica de Jordan de una matriz da una idea de la forma de la solu-
cion de un sistema lineal de ecuaciones diferenciales.
62
D I2 0 ... 0
0 D I2 ... 0
...
B=
0 ... D I2
0 ... 0 D
Con
a b 1 0 0 0
D= ; I2 = y0=
b a 0 1 0 0
Por ultimo la matriz de Jordan J tiene la forma
B1 (1 ) 0 ... 0
0 B2 (2 ) ... 0
J = ...
0 ... Br (r )
Donde cada Bj (j ) es una matriz de bloques de jordan
Teorema 1.
Sea A una matriz real o compleja de nxn. Entonces existe una matriz C in-
vertible de nxn tal que, J = C 1 AC. Donde J es una matriz de Jordan cuyos
elementos en la diagonal son los valores caractersticos de A. Pero esta matriz
es unica, excepto por el orden en el que aparecen los bloques de Jordan.
Teorema 2.
Para cualquier vector constante c, x(t) = eAt c es solucion de (*). Mas aun la
solucion de (*) dada por x(t) = eAt x0 satisface x(0) = x0 .
Demostracion.
A 2 t2 A 3 t3
Sea x(t) = eAt c = [I + At + 2! + 3! + ...]c (1)
d Ak tk ktk1 k Ak tk1 k1 k1
dt k! = k! A = (k1)! = A[ A(k1)!
t
] (2)
63
A2 t2 A3 t3
x0 (t) = d At
dt e c = A[I + At + 2! + 3! + ...]c = AeAt c = Ax(t)
at
teat
At e
As, e =
0 eat
Teorema 3.
Sea J la Forma Canonca de Jordan de una matriz A y sea J = C 1 AC entonces
A = CJC 1 y eAt = CeJt C 1
Demostracion.
Observemos que,
64
C(Jt)2 C 1
= CIC 1 + C(Jt)C 1 + 2! + ...
(Jt)2 (Jt)3
= C[I + Jt + 2! + 3! + ...]C 1
= CeJt C 1
Para calcular eAt en realidad solo se necesita calcular eJt . Cuando J es diagonal,
se hace como ya es usual. Si A es una matriz de 2x2 que no es diagonalizable,
entonces
t
tet
1 e
J= ; y eJt =
0 0 et
Ejemplo.
Solucion.
3 1
Se tiene A = . Los valores caractersticos de A son 1 = 1, 2 = 4
2 2
1 1
con vectores caractersticos correspondientes v1 = , v2 = . Entonces
2 1
tenemos que
t
1 2 1 1 1 0 e 0
C= , C 1 = 31 , J = C 1 AC = , eJt =
1 1 2 1 0 4 0 e4t
Luego,
eAt = CeJt C 1
t
1 1 2 e 0 1 1
= 3
1 1 0 e4t 2 1
et et
1 2
= 31
1 1 2e4t e4t
t
e 2e4t et + e4t
= 13
2et + 2e4t 2et e4t
65
t
e 2e4t et + e4t 240et 30e4t
x1 (t) 90
v(t) = = eAt x0 = 13 = 13
x2 (t) 2et + 2e4t 2et e4t 150 480et + 30e4t
1
Por lo menos despues de 6 meses, t = 2 ano, entonces
1
x1 (t) = 80e 2 + 10e2 206
1
x2 (t) = 160e 2 10e2 190
Ejemplo.
Encuentre las poblaciones de las dos especies para t > 0 si las poblaciones ini-
ciales son x1 (0) = 500, x2 (0) = 100
Solucion.
2 1
Sea A = y el unico valor caracterstico es = 3. Con un solo vector
1 4
1
caracterstico v1 = . Por la definicion anterior tenemos que (A3I)v2 = v1
1
1
por lo tanto obtenemos, v2 =
2
Entonces,
3t
te3t
1 1 2 1 3 1 e 3t 1 t
C= , C 1 = ,J = , eJt = = e
1 2 1 1 0 3 0 e3t 0 1
Luego tenemos que
1 1
1 t 2 1
eAt = CeJt C 1 = e3t
2 0 1 1 1 1
3t 1 1 2t 1t
=e
1 2 1 1
1 t t
= e3t
t 1+t
Luego la solucion al sistema es,
x1 (t) At 3t 1 t t 500 3t 500 600t
v(t) = = e x0 = e =e
x2 (t) t 1 + t 100 100 + 600t
66
Se puede ver que la poblacion x1 sera eliminada despues de 56 anos = 10 meses,
aun cuando comenzo con una poblacion 5 veces mayor que x2
E s = uj , vj |aj < 0
E c = uj , vj |aj = 0
E u = uj , vj |aj > 0
Es decir, E s , E c y E u son subespacios de Rn abarcado por la parte real e ima-
ginaria del vector propio generalizado wj correspondiente al valor propio j con
parte real positiva, negativa y cero respectiamente.
Ejemplo. La matriz
2 1 0
A= 1 2 0
0 0 3
Sus valores propios son 1 = 2 + i,2 = 3.Los vectores
propios
correspondien-
0 1
tes a estos valores propios son:w1 = u1 + iv1 = 1 + i 0
0 0
Luego, el subespacio estable E s de (1) esta en el plano x1 , x2 y es subespacio
inestable en el eje x3 . El retrato de fase del sistema se muestra a continuacion:
67
Criterio Para Determinar La Estabilidad de Las Soluciones
p() = det(A I)
Se verifica:
1. Si todas las races de p() = 0 tienen parte real negativa, todas las solu-
ciones del sistema son asintoticamente estables.
2. Si al menos una de las races de p() = 0 tienen parte real positiva, todas
las soluciones del sistema son inestables.
3. Si las races de p() = 0 tienen parte real menor o igual a cero y 1 = il
son todos los que tienen parte real cero, se dice que la solucion del sistema
es estable.
68
Ejemplo. Sea la matriz
1 0 1
A= 0 2 1
0 1 1
Hallamos sus valores propios, es decir, p() = det(A I) = 0. Esto es,
1 0 1
p() = det 0 2 1 = (1 )(2 + 3 + 3) = 0
0 1 1
3 3
Entonces 1 = 1 y 2 = i
2 2
Por lo tanto, la solucion del sistema es asintoticamente estable, ya que todas las
races del polinomio tienen parte real negativa.
Casos Principales:
Casos Frontera:
69
1. Si las races 1 y 2 son reales e iguales,entonces es un nodo.
2. Si las races 1 y 2 son imaginarias puras,entonces es un centro.
Definicion: Si todos los valores propios de Anxn tienen parte real negati-
va(positiva) el origen se denomina sumidero(fuente) para el sistema lineal X 0 =
AX
donde,
0 2
B=
3 2
Ahora,
det(B I) = (0 )(2 ) + 6 = 2 2 + 6
Luego, los valores propios son: = 1 5i
Como la parte real de los valores propios son positivos, entonces el origen es una
fuente espiral.
70
Definicion: Si todos los valores propios de Anxn tienen parte real diferente de
cero entonces las soluciones del sistema son hiperbolicas por tanto el sistema
X 0 = AX es llamado sistema lineal hiperbolico.
1 1
Ejemplo. Sea A = . Hallamos sus valores propios, esto es,
1 1
1 1
det(A I) = = (1 )(1 ) (1) = 2 + 2 + 2
1 1
Entonces, 1 = 1 + i,y 2 = 1 i.
Por lo tanto, las soluciones del sistema son hiperbolicas pues los valores propios
tienen parte real distinta de cero.
Teorema.
Las siguientes afirmaciones son equivalentes.
y
|eAt X0 | meat |X0 |, t 0
Demostracion.
71
Y, si uno de los valores propios de Aa tienen parte real cero, es decir, = ib,
entonces , existe X0 Rn , X0 6= 0,tales que al menos una componente de la
solucion es de la forma ctk cosbt, o, ctk senbt, k 0.
As, si no todos los valores propios de A tienen parte real negativa , existe
X0 Rn tales que eAt no tiende a 0 cuando t 0, es decir, que a = b.
y
|eAt X0 | meat |X0 |, t 0
lm eAt X0 = 0
t
y
lm |eAt X0 | =
t
Para este modelo nos interesa resolver la parte no homogenea, por tanto utili-
zaremos el metodo de Diagonalizacion para encontrar a V(t)
72
6.5.1. Metodo de diagonalizacion
Se inicia con un sistema de la forma:
0
X = AX + g(t) (3)
Sea T la matriz cuyas columnas son los eigenvectores (1) , ..., (n) de A y defi-
nase una nueva variable dependiente y por medio de.
X = T y (4)
Esta ultima ecuacion es un sistema de n ecuaciones no acopladas para y1 (t), ..., yn (t);
en consecuencia, las ecuaciones pueden resolverse por separado.
con j = 1, ..., n
Donde hj (t) es determinada combinacion lineal de g1 (t), ..., gn (t). Donde esta
ultima ecuacion escrita de manera escalar es una ecuacion lineal de primer orden
y puede resolverse por los metodos que ya conocemos.
Rt
yj (t) = erj t erj s hj (s)ds + Cj erj t (7),
t0
con j = 1, .., n
73
Donde las Cj son constantes arbitrarias. Por ultimo, la solucion X de la ecua-
cion (3) se obtiene a partir de (4).
Recordemos que los valores propios los obtenemos del polinomio resultante de
det(A I) = 0.
2 1 1 0
det =0
1 2 0 1
Luego,
2 1
det =0
1 2
As, obtenemos:
(2 + )(2 + ) 1 = 0
2 + 4 + 3 = ( + 3)( + 1)
En sintesis 1 = 3 y 2 = 1
Ahora procedemos a encontrar los vectores propios asociados a los valores pro-
pios, resolviendo (A 1 I)V = 0, como sigue:
2 1 1 0 x1 0
+3 =
1 2 0 1 x2 0
1 1 x1 0
=
1 1 x2 0
De donde obtenemos el vector propio asociado:
1
V1 =
1
74
De manera analoga encontramos el vector propio asociado al valor propio 2 =
1 escrito como sigue:
1
V2 =
1
De lo anterior, y conociendo la forma de la soluciones, tenemos:
1 1 t
X = c1 e3t + c2 e
1 1
Recordemos que esta es la parte homogenea del sistemas, ahora encontremos la
solucion de la parte no homogenea mediante la sustitucion indicada anterior-
mente:
1 1
T =
1 1
Y sus respectiva inversa:
1 1 1
T =
1 1
Recordemos el primer resultado de la sustitucion, explicado anteriormente:
y 0 = Dy + T 1 g(t)
y1 = 21 et 3 t 1
+ c1 e3t
3 9
y2 = et + 3(t 1) + c2 et
75
6.6. EXISTENCIA Y UNICIDAD
6.6.1. Existencia
Teorema.
Supongamos que f (x, y) es una funcion continua en el rectangulo de la forma
R = {(x, y)| a x a; b y b} en el plano x y. Si (x0 , y0 ) es un
punto en este rectangulo, entonces existe un > 0 y una funcion Y (x) definida
en x0 < x < x0 + que es una solucion del problema de condiciones iniciales
dy
dx = f (x, y) , y(x0 ) = y0
Demostracion
Iterantes de Picard
dy
dx = f (x, y) , y(x0 ) = y0
Rx
y(x) = y0 + x0
f (s, y(s))ds
Consideremos
dy
= f (x, y) ; y0 = 0 (1)
dx
a x a ; b y b
De este se deduce que en D la funcion tiene siempre valor finito es decir que
para cualquier punto (x, y) en D existe un numero M tal que |f (x, y)| M
2. La funcion f (x, y) satisface la condicion de Lipschitz, es decir que
76
|f (x, y) f (x, z)| k|y z|
Se considera el intervalo
b
0 x a0 = min a, (2)
M
b b
En donde min a, M es el numero menor de a y M
Sea y1 (x), y2 (x), y3 (x)... una sucesion de funciones definidas por la siguientes
relaciones
Z x
y1 (x) = f (x, 0)dx
0
Z x
y2 (x) = f (x, y1 (x))dx
0
Z x
y3 (x) = f (x, y2 (x))dx
0
Z x
yn (x) = f (x, yn1 (x))dx
0
Las funciones y1 (x), y2 (x), ... son continuas en el intervalo (2) porque la integral
de una funcion continua es siempre continua.
Y en la misma forma
77
Rx Rx
|y2 (x)| 0
|f (x, y1 )|dx M 0
dx = M x < M a0 < b
En general se obtiene
xn
|yn (x) yn1 (x)| < k n1 M (3)
n!
M kx
= k (e 1)
78
y1 + (y2 y1 )(y3 y2 ) + ... + (yn yn1 ) = yn
o bien
dY
dx = f (x, Y (x)) ; Y0 = 0
6.6.2. Unicidad
Teorema.
Si f (x, y) y f
y son funciones continuas en el rectangulo de la forma R =
{(x, y)| a x a; b y b} en el plano x y. Si (x0 , y0 ) es un punto en
este rectangulo y y1 (x) y y2 (x) son dos soluciones del problema de condiciones
iniciales
dy
= f (x, y) ; y0 = 0 (1)
dx
entonces y1 (x) = y2 (x) para todos los valores de x para los que (x, y1 (x)), (x, y2 (x))
R. Es decir, la solucion del problema es unica.
Demostracion
79
Sea (x) = Y (x) Z(x), entonces por la demostracion del teorema anterior
Z x
(x) = (f (x, Y ) f (x, Z))dx (2)
0
Z x Z x Z x
|(x)| = |f (x, Y ) f (x, Z)|dx < k |Y Z|dx = k |(x)|dx (3)
0 0 0
Z x
|(x)| < k N dx = kN x (4)
0
Corolario
Sea A : J L(E) y b : J E son funciones continuas en el intervalo J.
Entonces para cada (X0 , Y0 )E J, tiene solucion unica de:
Demostracion
80
[
Sea J = Jn donde cada Jn es un intervalo compacto que contiene a t0 y
n=1
Jn Jn+1 ; para n = 1, 2, 3, ...
Por el teorema anterior, existe una unica solucion xn (t), definida en el intervalo
Jn , ahora para tJ tenemos que x(t) = xn (t) si tJn . Por unicidad de soluciones
x(t) esta bien definida y por lo tanto unica solucion definida en el intervalo J
81
Referencias
[1] David Poole, Algebra Lineal Una Introduccion Moderna, Trent University,
tercera edicion, CENGAGE Learning.
[2] Perko, Differential Equation and dynamical systems.
[3] Morris, Differential equation, dynamical systems and lineal algebra.
82