Anda di halaman 1dari 82

ANALISIS CUALITATIVO

Presentado por:

Wendy Katherine Caceres Cod. 20131116467

Allison Mara Ramirez Cod. 20131117781

Ingrid Tatiana Cumbe Cod. 20131118669

Presentado a:

Diego Armando Morales

Universidad Surcolombiana

Matematica Aplicada

Neiva-Huila 2016
2016

1
INTRODUCCION

En el peridodo 2016-2 se estudiaron una serie de temas, con los cuales se desa-
rrollo la asignatura de Analisis Cualitativo a cargo del docente Diego Armando
Morales, con el fin de complementar los conocimientos adqueridos en materias
anteriores.

2
Indice
1. ECUACIONES DIFERENCIALES ORDINARIAS. 5
1.1. Ecuaciones De Primer Orden. . . . . . . . . . . . . . . . . . . . . 5
1.1.1. Teora De La Existencia Y Unicidad. . . . . . . . . . . . . 6
1.1.2. Campo Diferencial . . . . . . . . . . . . . . . . . . . . . . 7
1.1.3. Aplicaciones a la Fsica. . . . . . . . . . . . . . . . . . . . 11

2. REPASO ALGEBRA LINEAL. 13


2.1. Espacio Vectorial. . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.2. Subespacio. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.3. Conjuntos Generadores. . . . . . . . . . . . . . . . . . . . . . . . 17
2.4. Independencia Lineal. . . . . . . . . . . . . . . . . . . . . . . . . 18
2.5. Bases. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.6. Dimension De Un Espacio. . . . . . . . . . . . . . . . . . . . . . . 21
2.7. Transformaciones Lineales. . . . . . . . . . . . . . . . . . . . . . 21
2.8. Semejanza Y Diagonalizacion. . . . . . . . . . . . . . . . . . . . . 23
2.8.1. Semejanza . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.8.2. Diagonalizacion. . . . . . . . . . . . . . . . . . . . . . . . 23

3. ECUACIONES DIFERENCIALES DE PRIMER ORDEN 26


3.1. Ecuaciones de Variables Separables . . . . . . . . . . . . . . . . . 26
3.2. Ecuaciones Lineales. . . . . . . . . . . . . . . . . . . . . . . . . . 28
3.3. Ecuaciones de Bernoulli . . . . . . . . . . . . . . . . . . . . . . . 30
3.4. Ecuaciones Exactas. . . . . . . . . . . . . . . . . . . . . . . . . . 30
3.5. Aplicaciones. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
3.5.1. Modelo de Malthus. . . . . . . . . . . . . . . . . . . . . . 33
3.5.2. Modelo Logstico. . . . . . . . . . . . . . . . . . . . . . . . 34

4. SISTEMAS LINEALES. 37
4.1. Sistemas Lineales Desacoplados. . . . . . . . . . . . . . . . . . . . 38
4.2. Diagonalizacion. . . . . . . . . . . . . . . . . . . . . . . . . . . . 39

5. OPERADORES LINEALES 41

6. EXPOSICIONES. 46
6.1. SISTEMAS DE ECUACIONES DIFERENCIALES LINEALES . 46
6.2. SISTEMAS DE ECUACIONES LINEALES CON VALORES PRO-
PIOS COMPLEJOS . . . . . . . . . . . . . . . . . . . . . . . . . 56
6.2.1. Eigenvalores Complejos . . . . . . . . . . . . . . . . . . . 56
6.2.2. Analisis de estabilidad de los valores propios . . . . . . . 60
6.3. FORMA CANONICA DE JORDAN . . . . . . . . . . . . . . . . 62
6.4. TEORIA DE LA ESTABILIDAD . . . . . . . . . . . . . . . . . . 67
6.4.1. Caracterizacion Del Punto Crtico . . . . . . . . . . . . . 69
6.5. LINEALES NO HOMOGENEOS . . . . . . . . . . . . . . . . . . 72
6.5.1. Metodo de diagonalizacion . . . . . . . . . . . . . . . . . 73

3
6.6. EXISTENCIA Y UNICIDAD . . . . . . . . . . . . . . . . . . . . 76
6.6.1. Existencia . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
6.6.2. Unicidad . . . . . . . . . . . . . . . . . . . . . . . . . . . 79

4
1. ECUACIONES DIFERENCIALES ORDINA-
RIAS.
0
En general f (x, y, y , y (n) ) = 0 es una ecuacion de orden n.
0
y (n) = f (x, y, y , y (n1) ) es una ecuacion diferencial escrita de manera explicita.

1.1. Ecuaciones De Primer Orden.


dy
= f (x, y)
dx
0
y + 2xy = 0 donde, (x) = y
0
(x) + 2x(x) = 0
2
(x) = ex
2
y = cex Formula de la solucion.

dy
Sea = f (x, y) con problema de valor inicial y(x0 ) = y0
dx

Dado J JCD
dy
= f (x, y) y() = n.
dx

5
1.1.1. Teora De La Existencia Y Unicidad.
dF
Es continua.
dy
dy 2 dF 2 1
Sea = y 3 Con condicion inicial y(1) = 0. Donde su derivada es = y 3 .
dx dy 3

dy
2 = dx
y3
R 2 R
y 3 = dx
1
3y 3 = x + c
1
3y 3 x = c

-1 = c
 3
x1
y= y=0
3

dy
Dado = f (x, y) y = n, entonces si la funcion (x) es solucion de la ecua-
dx
cion diferencial.

Zx
(x) = f (t) dt + n.

6
1.1.2. Campo Diferencial
dy
= f (x, y)
dx
dy y
= x2 + y 2 = c
dx x

dy
1. = f (x)
dx

dy
= 2x
dx
y = x2 + c

7
Ejemplo.

Halle la solucion de la ecuacion diferencial (2y 2 6xy)dx + (3xy 4x2 )dy = 0

Solucion:

dM 2y 2 6xy
= = 4y 6x
dy dy

dN
= 3y 8x
dx

dM dN
Tengo que, 6=
dy dx

Ahora.
 
1 dM dN d
(x) = =
N dy dx dx
 
1 dM dN d
(y) = =
M dy dx dx

8
0 0
dM dN x y
(x, y) = = N M
dy dx x y

Ahora.
0 0
x y
(x, y) = (4y 6x) (3y 8x) = (3xy 4x2 ) (2y 2 6xy)
x y

0 0
x y
(x, y) = y + 2x = x(3y 4x) y(2y 6x)
x y

0 0
x 1 y 1
Si, = = ()
x x y y

1 1
(x, y) = y + 2x = x(3y 4x) y(2y 6x)
x y

y + 2x = 3y 4x 2y + 6x

y + 2x = y + 2x

Reemplazando ().

dx
dx = 1
x x

dx 1
=
xdx x
dx dx
=
x x
lnx = lnx
x=x

Sin nesecidad de hacer proceso de Ecuaciones Diferenciales veamos lo siguiente.

Siendo: (x, y) = xn y m

(2xn y m+2 6xn+1 y m+1 )dx + (3xn+1 y m+1 4xn+2 y m )dy = 0

9
M
= 2(m + 2)xn y m+1 6(m + 1)xn+1 y m
y
N
= 3(n + 1)xn y m+1 4(n + 2)xn+1 y m =
x

2(m + 2) = 3(n + 1)
6(m + 1) = 4(n + 2)
Por tanto;

2m + 4 = 3n + 3 (1)

6m 6 = 4n 8 (2)

De (1) tengo:

2m = 3n 1
3 1 3 1
m= n () m = m = (1) = 1
2 2 2 2

De (2) tengo:

6m = 4n 2

4 2
m= n+ ()
6 6

Ahora igualango (*), (**) obtengo;

3n 1 4n + 2
=
2 6

3n 4n 12
=
2 6 26

3n 2n 5
=
2 3 6

10
5n 5
=
6 6
n=1

dy
= f (y)
dx

1.1.3. Aplicaciones a la Fsica.


Caida Libre.

11
00
y (t) = g

d2 y
=g
dt2
t2
y(t) = g + c1 + c2
2

Ejemplo.

00
a=S , S(0) = R, S(0) = 0.

rM m
K=
S2
MS
ma = r 2
S

00 rM
S (t) =
S2
S(t) = atb

S(t) = a(c + t)b


0
S (t) = ab(b 1)tb2
00
S (t) = rM S 2

ab(b 1)tb2 = rM a2 t2b

b 2 = 2b

12
3b = 2
2
b=
3
  
2 1
a= = rM S 2
3 3
 
2
a3 = rM
9

9
a3 = rM
2

  13
9rM 2
a= S(t) = a(c t) 3
2

Si S(0) = R.

  13
9rM 2
R= c3
2

1
2 23 R
c3 = 1
(9rM ) 3


R 2R
c=
9RM

! 23
R 2R
Ahora. S(t) = a t
9RM

2. REPASO ALGEBRA LINEAL.


2.1. Espacio Vectorial.
Definicion: Sea V un conjunto sobre el cual se definen dos operaciones, llama-
das suma y multiplicacion por un escalar. Si u y v estan en V , la suma de u y
v se denota mediante u + v, y si c es un escalar, el multiplo escalar de u por c
se denota mediante cu.
Si los siguientes axiomas se cumplen para todo u, v y w en V y para todos los

13
escalares c y d, entonces V se llama espacio vectorial y sus elementos se
llaman vectores.

1. u + v estan en V Cerradura bajo la suma.


2. u + v = v + u Conmutativa.
3. (u + v) + w = u + (v + w) Asociatividad.
4. Existe un elemento 0 en V , llamado Vector cero, tal que u + 0 = u.

5. Para cada u en V , existe un elemento u en v tal que u + (u) = 0.


6. cu esta en V . Cerradura bajo la multiplicacion escalar.
7. c(u + v) = cu + cv Distributividad.

8. (c + d)u = cu + du Distributividad.
9. c(du) = (cd)u
10. 1u = u.

Teorema.
Sea V un espacio vectorial, un vector en V y c un escalar.

1. 0u = 0
2. c0 = 0

3. (1)u = u
4. Si cu = 0, entonces c = 0 o u = 0.

Demostracion.

Para (2) tengo.

c0 = c(0 + 0)c0 + c0 Por axionas (4) y (7) de espacios vectoriales.


Al sumar un negativo de c0 a ambos lados tengo: c0 + (c0) = (c0 + c0) + (c0)
por tanto tengo.
0 = c0 + (c0 + (c0)) por los axiomas (3) y (5).
0 = c0 + 0 por axioma (5).
0 = c0 por axioma (4).

Ahora para (4).

Supongamos que cu = 0, para ello debemos mostrar que c = 0 o u = 0, por


tanto suponemos que c 6= 0. (Si c = 0 no hay nada que probar.)
1
Si c 6= 0, su recproco esta definido entonces.
c

14
u = 1u por axioma (10).
u = ( c1c )u
1
u = (cu) por axioma (9).
c
1
u= 0
c
u=0 por propiedad (2) de teorema.

2.2. Subespacio.
Definicion: Un subconjunto W de un espacio vectorial V se llama subespacio
de V si W es en si mismo un espacio vectorial con los mismos escalares, suma
y multiplicacion por un escalar que V .

Teorema.
Sea v un espacio vectorial y sea W un subconjunto no vacio de V . Entonces W
es un subespacio de V si y solo si se cumplen las siguientes condiciones.

1. Si u y v estan en W , entonces u + v esta en W .


2. Si u estan en W y c es un escalar, entonces cu esta en W .

Demostracion.

Supongamos que W es un subespacio de V , por tanto W satisface los 10 axio-


mas de espacios vectoriales, en particular, el axioma (1) en la condicion (1) y el
axioma (6) en la condicion (2) del teorema.

Ahora, supongamos que W es un subconjunto de un espacio vectorila V que sa-


tisfacen las condiciones del teorema, por tanto los axiomas (1) y (6) se cumplen.
Los axiomas (2),(3),(7),(8),(9) y (10) se cumplen en W por que son verdade-
ros para todos los vectores en V y por tanto son verdaderos en particular para
aquellos vectores en W .

Ahora vasta probar los axiomas (4) y (5) de espacios vectoriales, tengo que como
W es un subespacio no vaco, contiene almenos un vector u, entonces por la con-
dicion (2) y el teorema anterior condicion (1) tengo que la condicion (1) implica
que 0u = 0 tambien va a estar en W , por tanto queda demostrado el axioma (4).

Si u esta en V, entonces, al tomar c = -1 en la condicion (2), se tiene que -u =


(-1)u tambien esta en W, usando el teorema anterior condicion (3).

Ejemplos.

1) Sea W el conjunto de matrices simetricas nxn. Demuestre que W es un


subespacio de Mnn

15
Solucion.

W no es vaco, por tanto vasta demostrar las condiciones (1) y (2) del teorema
anterior.

Sea A y B que estan W y sea c un escalar, entonces AT = A y B T = B se tiene


que: (A + B)T = AT + B T = A + B, por tanto A + B es simetrica y por lo tanto
esta en W .

De igual modo tengo que: (cA)T = cAT = cA, de modo que cA es simetrica y
por tanto esta en W .

Se demostro que W es cerrada para la suma y la multiplicacion por un escalar.


Por tanto W es un subespacio de Mnn por teorema anterior.

a
b
2) Demuestre que el conjunto W de todos los vectores de la forma b es

a
4
un subespacio de R

Solucion.

W no es vaco por que contiene al vector 0.(Tomamos


a = b =0).
a c
b d
Ahora sean u y v que esta en W , entonces: u = b y v = d, por tanto

a c

a+c a+c
b+d b+d
tengo que: u + v = b d = (b + d), de modo que u + v tambien esta

a+c a+c
en W .

ka
kb
De igual forma si k es un escalar, tengo: ku =
kb de modo que ku tambien

ka
esta en W .

Por tanto, W es un subespacio de R4 que es cerrado bajo la suma y la multipli-


cacion por un escalar, por tanto W es un subespacio de R4 por teorema anterior.
 
a b
3) Demuestre que el conjunto W de todas las matrices de la forma
b a
es un subespacio de M22

16
Solucion.

W no es vaco por que contiene la matriz 0.(Tomamos


 a=b = 0). 
a b c d
Ahora sea A y B en W , decimos: A = y B = , entonces:
  b a d c
a+c b+d
A+B = de modo que A + B tambien esta en W .
(b + d) a + c
 
ka kb
De igual modo si k escalar tengo: kA = de modo que kA tambien
kb ka
esta en W .

Por tanto W es un subconjunto no vacio de M22 que es cerrado para la suma


y la multiplicacion por un escalar, por tanto W es un subespacio de M22 por
teorema anterior.

2.3. Conjuntos Generadores.


Definicion: Si S = {v1 , v2 , ..., vk } es un conjunto de vectores en un espacio vec-
torial V , entonces el conjunto de todas las combinaciones lineales de v1 , v2 , ..., vk
se llama el generador de v1 , v2 , ..., vk y se denota gen(v1 , v2 , ..., vk ) o gen(S). Si
V = gen(S), entonces S se llama conjunto generador para V y se dice que V es
generado por S.

Ejemplos.

1) Demuestre que M23 = gen(E11 , E12 , E13 , E21 , E22 , E23 ) donde.
     
1 0 0 0 1 0 0 0 1
E11 = , E12 = , E13 = ,
0 0 0 0 0 0 0 0 0
     
0 0 0 0 0 0 0 0 0
E21 = , E22 = , E23 =
1 0 0 0 1 0 0 0 1
Esto es, Eij es la matriz con un 1 en el renglon i, columna j y ceros en cualquiera
otra parte.

Solucion.

Observemos que:
 
a11 a12 a13
= a11 E11 + a12 E12 + a13 E13 + a21 E21 + a22 E22 + a23 E23
a21 a22 a23
Por tanto vemos que en general Mmn es generado por las mn matrices Eij ,
donde i = 1, ..., m y j = 1, ..., n.

17
2) En P2 , determine si r(x) = 1 4x + 6x2 esta en gen (p(x), q(x)) donde:

p(x) = 1 x + x2 y q(x) = 2 + x 3x2

Solucion.

Se buscan escalares c y d tales que, cp(x) + dq(x) = r(x).

Por tanto tengo:

c(1 x + x2 ) + d(2 + x 3x2 ) = 1 4x + 6x2

Reagrupando las potencias de x tengo:


(c + 2d) + (c + d)x + (c 3d)x2 = 1 4x + 6x2

Igulando cada una de las potencias obtenemos:

c + 2d = 1
c + d = 4
c 3d = 6

Resolviendo decimos que c = 3 y d = 1, por tanto tengo que r(x) = 3p(x)q(x)


de modo que r(x) esta en gen(p(x), q(x)).

2.4. Independencia Lineal.


Definicion: Un conjunto de vectores {v1 , v2 , ..., vk } es un espacio vectorial V
es linealmente dependiente si existen escalares c1 , c2 , ..., ck almenos uno de los
cuales no es cero, tal que,

c1 v1 , c2 v2 , ..., ck vk = 0

Un conjunto de vectores que no es linealmente dependiente se dice que es lineal-


mente independiente.

Teorema.
Un conjunto de vectores {v1 , v2 , ..., vk } es un espacio vectorial V es linealmente
dependiente si y solo si almenos uno de los vectores puede expresarse como una
combinacion lineal de los otros.

Demostracion.

Si uno de los vectores, por ejemplo v1 es una combinacion lineal de los otros,
entonces van a existir escalares c2 , ..., ck tal que v1 = c2 v2 , ..., ck vk . Al reordenar
se obtiene v1 c2 v2 ... ck vk = 0, lo que implica que v1 , v2 , ..., vk son lineal-

18
mente dependientes, pues al menos uno de los escalares es distinto de 1.

Ahora, supogamos que v1 , v2 , ..., vk son linealmente dependientes. Entonces exis-


ten escalares c1 , c2 , ..., ck , no todos cero, tales que c1 v1 + c2 v2 + ... ck vk = 0.
Supongamos que c1 6= 0 entoces,

c1 v1 = c2 v2 ... ck vk
1
Multiplicando a ambos lados por para obtener v1 como una combinacion
c1
lineal de otros vectores, tengo:
c2 ck
v1 = ( )v2 ... ( )vm
c1 c1
Ejemplo.

1) En P2 determine si el conjunto {1 + x, x + x2 , 1 + x2 } es linealmente de-


pendiente.

Solucion.

Sean escalares c1 , c2 , c3 tal que,

c1 (1 + x) + c2 (x + x2 ) + c3 (1 + x2 ) = 0

Entonces, (c1 + c3 ) + (c1 + c2 )x + (c2 + c3 )x2 = 0 Lo que implica que ,

c1 + c3 = 0
c1 + c2 = 0
c2 + c3 = 0

Por tanto tengo que c1 = c2 = c3 = 0, se tiene que {1 + x, x + x2 , 1 + x2 } es


linealmente independiente.

2.5. Bases.
Un subconjunto de un espacio vectorial V es una base para V si:

1) genera a V

2) es linealmente independiente.

Ejemplos.

19
1) Demuestre que = {1 + x, x + x2 , 1 + x2 } es una base para P2

Solucion.

Como lo vimos en el ejercicio anterior es linealmente independiente. Ahora,


para demostrar que genera a P2 , decimos que sea a + bx + cx2 un polinomio
arbitrario de P2 , deben existir escalares c1 , c2 , c3 tal que,

c1 (1 + x) + c2 (x + x2 ) + c3 (1 + x2 )

De igual forma,

(c1 + c3 ) + (c1 + c2 )x + (c2 + c3 )x2 = a + bx + cx2

Al igualar las potencias iguales de x, obtenemos el siguiente sistema lineal,

c1 + c3 = a
c1 + c2 = b
c2 + c3 = c

1 0 1
La cual tiene como solucion, pues la matriz de coeficientes 1 1 0, tiene
0 1 1
rango 3 y por tanto es invertible.

Por tanto tengo que es una base para P2 .

1) Encuente bases para los los tres espacios vectoriales siguientes.




a

b

a) W1 = b


a

Solucion.

a 1 0 1
b 0 1 0
Dado que: b = a 0 +b 1, se tiene que W1 = gen(u, v) donde: u = 0

a 1 0 1

0
1
y v = 1. Por tanto tengo que {u, v} es linealmente independiente, y por

0
tanto es una base de W1

20
b) W2 = {a + bx bx2 + ax3 }

Solucion.

Dado que,
a + bx bx2 + ax3 = a(1 + x3 ) + b(x x2 )
Tengo que W2 = gen(u(x), v(x)), donde:

u(x) = 1 + x3 y v(x) = x x2

Dado que {u(x), v(x)} son linealmente independientes tambien es una base para
W2 .
 
a b
c) W3 =
b a
Solucion.
     
a b 1 0 0 1
Dado que =a +b , tengo que W3 = gen(U, V ), donde
b a 0 1 1 0
   
1 0 0 1
U = yV = , por tanto tengo que {U, V } es linealmente inde-
0 1 1 0
pendiente , tambien es una base para W3 .

2.6. Dimension De Un Espacio.


Definicion: Un espacio vectorial V se llama de dimension finita si tiene una
base que consiste de un numero finito de vectores. La dimension de V , denotada
mediante dimV , es el numero de vectores en una base V .

La dimension del espacio vectorial cero {0} se define como cero. Un espacio
vectorial que no tiene base finita se llama de dimension infinita.

2.7. Transformaciones Lineales.


Definicion: Una transformacion lineal de un espacio vectorial V a un espacio
vectorial W es un mapeo T : V W tal que, para todo u y v en V y para
todos los escalares c tengo:

1. T (u + v) = T (u) + T (v)
2. T (cu) = cT (u)

Ejemplos.

21
1) Defina T : Mnn Mnn mediante T (A) = AT . Demuestre que T es una
transformacion lineal.

Solucion.

Tomamos A y B en Mnn y un escalar c tal que:

T (A + B) = (A + B)T = AT + B T = T (A) + T (B)

T (cA) = (cA)T = cAT = cT (A)

Por tanto, T es una transformacion lineal.


0
2) Sea el operador diferencial : D F definido por (f ) = f . Demues-
tre que es una transformacion lineal.

Solucion.

Sean f y g funciones derivables y sea c un escalar. Entonces, a partir de calculo


se tiene:
0 0 0
(f + g) = (f + g) = f + g = (f ) + (g)
0 0
y, (cf ) = (cf ) = cf = c(f )

Por tanto, es una transformacion lineal.


Rb
3) Defina S : [a, b] R mediante S(f ) = a
f (x) dx. Demuestre que S es
una transformacion lineal.

Solucion.

Sean f y g en [a, b], entonces:


Rb
S(f + g) = a
(f + g)(x) dx.
Rb
S(f + g) = a
(f (x) + g(x) dx.

Rb Rb
S(f + g) = a
(f (x) + g(x) dx.
a

S(f + g) = S(f ) + S(g)

22
Rb
y, S(cf ) = (cf )(x) dx.
a
Rb
S(cf ) = cf (x) dx.
a
Rb
S(cf ) = c f (x) dx.
a

S(cf ) = cS(f )

Por tanto se tiene que S es lineal.

2.8. Semejanza Y Diagonalizacion.


2.8.1. Semejanza
Sea A y B matrices de nxn. Se dice que A es semejante a B si existe una matriz
invertible P de nxn tal que P 1 AP = B. Si A es semejante a B se escribe A B.

Ejemplo.
     
1 2 1 0 1 1
Sea A = yB= . Entonces A B, con P =
0 1 2 1 1 1

2.8.2. Diagonalizacion.
Una matriz A de nxn es diagonalizable si existe una matriz diagonal D tal que
A sea semejante a D; esto es, si existe una matriz invertible P de nxn tal que
P 1 AP = D.

Sea A una matriz nxn. entonces A es diagonalizable si y solo si A tiene n eigen-


vectores linealmente independientes.

Mas precisamente existe una matriz invertible P y una matriz diagonal D tales
que P 1 AP = D si y solo si las columnas de P son n eigenvectores linealmente
independientes de A correspondientes a los eigenvectores en P en el mismo or-
den.

Ejemplo.

Compruebe si la siguiente matriz es diagonalizable y si es posible encuentre las


matrices P y P 1 que satisfagan la definicion.

2 3 7
A = 0 5 1
0 0 1

23
Solucion.

Hallamos los autovalores.

det|(A I)| = 0

2 3 7 0 0
det 0 5 1 0 0 = 0
0 0 1 0 0

2 3 7
det 0 5 1 = 0
0 0 1
= (2 )(5 )(1 ) = 0

Los auto valores son: = 2, = 5, = 1



2 0 0
D = 0 5 0
0 0 1
Hallamos los auto vectores.

Para = 2 se tiene.

2 2 3 7 x 0
0 52 1 y = 0
0 0 1 2 z 0

0 3 7 0 0 3 7 0 0 3 7 0
1
0 3 1 0 f3 0 3 1 0 f3 + f2 0 3 0 0 7f3 + f1
3
0 0 3 0 0 0 1 0 0 0 1 0

0 0 0 0
1
f2 + f1 y f2 0 1 0 0
3
0 0 1 0
Ahora Sea, x = t, y = 0, z = 0

x t 1
Luego, V1 = y = 0 = t 0
z 0 0
Para = 5 se tiene.

2 5 3 7 x 0
0 55 1 y = 0
0 0 1 5 z 0

24

3 3 7 0 3 3 7 0 3 3 0 0
0 0 1 0 6f2 + f3 0 0 1 0 7f2 + f1 0 0 1 0
0 0 6 0 0 0 0 0 0 0 0 0

Por tanto tengo.

3x 3y = 0
3x = 3y

x = y y z=0
x s 1
Ahora sea y = s, entonces, V2 = y = s = s 1
z 0 0
Para = 1 se tiene.

2 + 1 3 7 x 0
0 5+1 1 y = 0
0 0 1 + 1 z 0

3 3 7 0
0 6 1 0
0 0 0 0

Por tanto tengo,

3x 3y + 7z = 0 (1)
6y + z = 0 (2)

De (2) despejo z.

z = 6y

Reemplazo z en (1).

3x 3y + 7(6y) = 0
3x 3y 42y = 0 3
x y 14y = 0
x 15y = 0
x = 15y

Ahora sea y = w, x = 15w, z = 6w



x 15w 15
Luego V3 = y = w = w 1
z 6w 6

25

1 1 15
Por tanto tengo que P = 0 1 1
0 0 6

Ahora. P 1 = [P |I]


1 1 15 |1 0 0 1 1 15 |1 0 0
1
P 1 = 0 1 1 |0 1 0 f3 0 1 1 |0 1 0 f3 + f2
6
0 0 6 |0 0 1 0 0 1 |0 0 61

15

1 1 15 |1 0 0 1 1 0 |1 0 6
1 1
0 1 0 |0 1 6 15f 3 + f1
0 1 0 |0 1 6 f2 + f1
0 0 1 |0 0 16 0 0 1 |0 0 16

8

1 0 0 |1 1 3
1
0 1 0 |0 1 6
0 0 1 |0 0 16
8

1 1 3
Por tanto tengo que P 1 = 0 1 1
6
0 0 16

3. ECUACIONES DIFERENCIALES DE PRI-


MER ORDEN
3.1. Ecuaciones de Variables Separables

dy
dx = f (x, y)
dy
dx = g(x).h(y)

1 dy
h(y) . dx = g(x) Despejando g(x).

1 dy
R R
h(y) . dx .dx = g(x).dx Integrando respecto a x.
dy
De donde, dx .dx = dy
R R
m(y).dy = g(x).dx

Luego, y() = n

26
Ry Rx
m(s).ds = g(t).dt Parametrizando.
n

Ejemplo.
dy y
1) = , y(0) = 1
dx x
df
Se cumple siempre y cuando se continua en (, n).
dx
df x
Derivando tenemos = 2 , es posible en el punto y(0) = 1, cuando y no
dx y
valga cero, pues no abria solucion

Figura 1: Unica Curva en ese Punto.

Si no hubiese condicion inicial: Despues de aplicar separacion de variable e in-


tegrar tenemos:

y2 x2
= +c
2 2
y2 x2
=c Despejando c.
2 2
y2 x2
=1 Dividiedo por c.
2c 2c
Teniendo as una hiperbola.

Ahora haciendolo cuando parametrizamos tenemos:


Ry Rx
s.ds = t.dt
1 0
s2 y t 2
|1 = |x1
2 2

27
y2 1 x2
=
2 2 2
2 2
y x 1 1
= + Con c = .
2 2 2 2
Siendo esta la unica curva que pasa por ese punto con esa pendiente, lo garan-
tiza el teorema de existencia y unicidad.
dy 1
2) dt = yt+t+1 , y(0) = 0
dy 1
=
dt t(y + 1) + (y + 1)
dy 1 1
= .
dt (y + 1) (t + 1)
R R dt
(y + 1).dy = t+1 Separando variables e intengrando.

y2
+ y = ln |1| + c
2
0 = ln |1| + c Por la condicion inicial.
c = ln |1| Despejando c.
c = 0.
y2
De manera implcita : + y = ln |t + 1|.
2
De forma explcita :

y2
+ y = ln |t + 1|
2
y 2 + 2y = 2ln |t + 1| Multipicando por 2.

y 2 + 2y + 1 = 2ln |t + 1| + 1 Completando cuadrados

(y + 1)2 = 2ln |t + 1| + 1
p
y = 2ln |t + 1| + 1 1

3.2. Ecuaciones Lineales.

dy
a1 (x) + a0 (x)y = b(x)
dx
dy a0 (x) b(x)
+ y= , a1 (x) no se anule.
dx a1 (x) a1 (x)
Ly : y 0 + g(x)y = h(x)

28
Ly = 0: Homogenea: Donde las raices de la funcion son la solucion.

Ly = h(x): No Homogenea: Donde se suma la solucion particular con la solucion


de la homogenea.

Sea y 0 + P (x)y = Q(x).


R
P (x).dx
Porque el factor integrante tiene esta forma, (x) = e ?.
dy
(x) + (x)P (x)y = (x)Q(x) Multiplicando por (x) en la ecuacion.
dx
dy d
(x) + (x)P (x)y = [(x)y].
dx dx
Luego, 0 (x) = (x)P (x)
R 0 (x) R
= P (x).dx Separando variables e integrando.
(x)
R
ln |(x)| = P (x).dx
R
eln|(x)| = e P (x).dx
Aplicando e.
R
P (x).dx
(x) = e .

Ejemplo.
dy 2
1) = aty + 4et
dt
Para que valores de a se puede encontrar soluciones explicitas de y?.
dy 2
aty = 4et
dt
t2
R
Luego, (t) = ea t.dt
= ea 2

t2 dy t2 2
Ahora, ea 2 ea 2 aty = 4et
dt
d a t2 2 a
[e 2 y] = 4 et (1+ 2 ) .dt
R
Entonces,
dt
a
Por lo tanto, 1+ 2 = 0 a = 2

Y as para a = 2 se encuentran soluciones explicitas.

29
3.3. Ecuaciones de Bernoulli

En estas ecuaciones lo que se busca es convertir la ecuacion en una ecuacion


lineal.

y 0 + g(x)y + h(x)y = 0 , 6= 0

y y 0 + g(x)y 1 + h(x) = 0 , Multiplicando por y .

(1 )y y 0 + (1 )g(x)y 1 + (1 )h(x) = 0 , Multiplicando por (1 ).

Como (y 1 )0 = (1 )y y 0 , sustituyendo tenemos:

(y 1 )0 + (1 )g(x)y 1 + (1 )h(x) = 0

Ahora, haciendo un cambio de variable z = y 1 se tiene:

z 0 + (1 )g(x)z + (1 )h(x) = 0

Siendo esta ya una ecuacion lineal.

3.4. Ecuaciones Exactas.

F (x, y) = C , Curvas de nivel.

F F F F
dF = x + y x =M , y =N

= M (x, y).dx + N (x, y).dy = 0


M N
Luego para que sean exactas, = .
y x
R F
F (x, y) = M (x, y).dx + h(y) =N
y
R F
F (x, y) = N (x, y).dy + g(x) =M
x

M N
Porque son iguales, = ?.
y x

2F 2F
= .
xy yx

30
2F F
Luego, = ( )
xy x y

N
= [N ] =
x x

2F F
Ahora, = ( )
yx y x

M
= [M ] =
y y

M N
Por lo tanto = .
y x

Algunas ecuaciones lineales se pueden volver exactas?.

y 0 + P (x)y = Q(x)
dy
+ P (x)y Q(x) = 0
dx
dy
= P (x)y + Q(x)
dx
dy = (P (x)y Q(x)).dx

dy + (P (x)y Q(x)).dx = 0

Siendo esta ya una ecuacion exacta.


M N
Cuando no son exactas, 6= .
y x
M (x, y).dx + N (x, y).dy = 0

Para volverla exacta se multiplica por (x) o (y) siendo asi,

M N N M
Z
y x
Z
x y
.dx .dy
(x) = e N y (y) = e M

Porque (x) y (y) tiene esa forma?.

31
(x, y)M (x, y).dx + (x, y)N (x, y).dy = 0

[(x, y)M (x, y)] = [(x, y)N (x, y)] Depende d x e y.
y x

M N
M + = N + Derivando .
y y x x
 
M N
= M+ N
y x y x

Para (x):
 
M N
= N
y x x
 
M N

y x 0
=
N
 
M N

0
Z Z
y x
=
N

M N
Z
y x
.dx
(x) = e N Integrando y aplicando e.

De igual forma para (y).

3.5. Aplicaciones.

x0 = ax
x = x(t) = keat
x0 = kaeat = a(keat )
x0 = ax(t)

32
La anterior imagen representa el comportamiento de la Solucion

Porque k debe ser una constante?

Sea (t) = u(t)eat

0 (t) = u0 (t)eat + au(t)eat


d
(u(t)eat ) = u0 (t)eat + au(t)eat
dt
Luego u0 (t) = 0 para que se cumpla x0 = ax(t).
Por lo tanto u(t) = k.

3.5.1. Modelo de Malthus.

dP dA
= rP Crecimiento de poblacion , = kA0 Cantidad de alimen-
dt dt
tos.

Con sus soluciones: P (t) = P0 ert , A(t) = A0 (1 + kt)

Relacionando la cantidad de alimentos por persona tenemos:

A0 (1 + kt) A0
a0 = = a0 (1 + kt)ert ; Con a0 =
P0 ert P0
Ahora, tcm : El instante de tiempo catastrofe malthusiano.

Entonces amin = a(tcm), el alimento minimo que se tiene en ese instante.

amin = a0 (1 + ktcm)ertcm
1 + ktcm amin
Luego, rtcm

e a0
amin P0
Pues = amin . siendo mayor la poblacion que el alimento por el tcm
a0 A0
amin
entonces asi es mayor o igual.
a0

33
Funcion W Lambert

Tambien conocida como funcion Omega o log producto; esta es la funcion inver-
sa de f (w) = wew donde ew es la funcion exponencial natural y w es cualquier
numero complejo. La funcion se define mediante W . Para todo numero complejo
denominado z, con z = W (z)eW (z) .

La funcion W de Lambert no puede expresarse en terminos de funciones elemen-


tales.Puede emplearse para resolver varias ecuaciones que alberguen exponen-
ciales y tambien participa en la solucion de ecuaciones diferenciales retrasadas
temporalmente, como y 0 (t) = ay(t 1).

Entonces algunas ecuaciones que poseen exponenciales pueden resolverse me-


diante esta funcion. Para ello, la estrategia general consiste en sustituir to-
das las instancias de lo desconocido a una parte de la ecuacion y tornarla,
entonces, a la forma Y = XeX , para la cual W proporciona una solucion:
X = Y eY Y = W (X)
1 1 amin r
As, tenemos entonces que el tcm = (r e k ).
r w a0

3.5.2. Modelo Logstico.

Sea N: Capacidad de soporte, entonces,

1. Si la poblacion es muy pequena, entonces la varicaion es proporcional a ella


misma.
dP
= kP
dt
2. Si la poblacion es muy grande, entonces si la capacidad de soporte es superada
la poblacion decrece.
dP
< 0, Si P > N
dt
dP
Luego, = f (p); f (p) = kP u(t) < 0, pues P > N
dt
Dado que N > 0.

P >N
P
>1
N
P
0>1 = u(P )
N

34
dP P P
Entonces, = kP (1 ); f (p) = kP (1 )
dt N N
Se dan 2 soluciones de equilibrio, en P = 0, P = N , porque la variacion se
mantiene constante.

Figura 2: Soluciones de Equilibrio.

Figura 3: Diagrama de Soluciones.

3. Si la poblacion es pequena (P < N ) la velocidad d la poblacion decrece.

P <N
P
N 1<0
dP P P
dt = kP (1 N )( N 1)
dP P P
dt = kP (1 N )( M 1); N 6= M

Se dan 3 soluciones de equilibrio, en P = 0, P = N y P = M .

35
Figura 4: Soluciones de Equilibrio.

Figura 5: Diagrama de Soluciones.

Ejemplo:
 
dP P
= kP 1 ; P (0) = P0 .
dt N
Supongamos que N = 1, entonces P (t) =?.

 
dP P
= kP 1
dt N
Z Z
dP
= k.dt Separando variables e integrando.
P (1 P )

1 A B
Luego, = +
P (1 P ) P 1P
Donde A = 1 y B = 1, entonces,

Z Z Z
dP dP
+ = k.dt
P 1P
ln |P | ln |1 P | = kt + c

eln| 1P | = ekt+c
P
Propiedades de logaritmo y aplicando e.

36
P
= cekt
1P

P0
Ahora P (0) = P0 tenemos: c =
1 P0
Luego, reemplazando c tenemos:

P P0 kt
= e
1P 1 P0
P (1 P0 ) = P0 ekt (1 P )

P (1 P0 ) = P0 ekt P P0 ekt Distribuyendo

P (1 P0 ) + P P0 ekt = P0 ekt

P [(1 P0 ) + P0 ekt ] = P0 ekt Haciendo factor comun


P0 ekt
P (t) = 1P0 +P0 ekt
.

4. SISTEMAS LINEALES.
Se presenta un sistema de ecuaciones diferenciales ordinarias de la forma:

x0 = Ax

Donde x Rn , A es una matriz n n


dx1
dt
dx ..
x0 = = (1)

dt .
dxn
dt

Se puede ver que la solucion de este sistema lineal (1) con la condicion inicial
x(0) = x0 esta dada por
x(t) = eAt x0 .
donde eAt es una funcion matricial n n definida por una serie de Taylor.
Se busca calcular la matriz eAt en terminos de los valores propios y los vectores
propios de esta matriz cuadrada A.

37
4.1. Sistemas Lineales Desacoplados.

El metodo de separacion de variables, puede ser usado para resolver la ecuacion


diferencial de primer orden
x0 = ax
La solucion esta dada por:
x(t) = ceat
Donde c = x(0), el valor de la funcion x(t) en el tiempo t = 0.

Ahora consideremos el sistema lineal desacoplado

x01 = x1

x02 = 2x2
En forma matricial se puede escribir x0 = Ax (1*), donde
 
1 0
A=
0 2
Note que en este caso A es una matriz diagonal, A = diag[1, 2] y en general
todas las matrices A son matrices diagonales, el sistema (1*) se reduce a un
sistema lineal desacoplado. En general la solucion de cualquier sistema lineal
desacoplado puede encontrarse por el metodo de separacion de variable. Por lo
tanto,

x1 (t) = c1 et (2)
x2 (t) = c2 e2t

et 0
 
o equivalente x(t) = c (2)
0 e2t
donde c = x(0). Se puede observar que las curvas solucion de (2) se encuentran
sobre las curvas algebraicas y = xk2 donde la constante k = c21 c2 El movimiento
que describe la solucion de (2) puede verse para x1 y x2 en un plano fase. Para
el caso en que c1 = c2 = 0, x1 (t) = 0 y x2 (t) = 0 para todo t R se conocen
como puntos de equilibrio.

38
Figura 6: Solucion del Sistema.

Ejercicio.
1) Encuentre la solucion general del siguiente sistema:

x01 = x1

x02 = 3x2
Solucion.
 
1 0
A=
0 3
Donde su solucion esta dada por:

x1 (t) = c1 et
x2 (t) = c2 e3t
o equivalente,
et
 
0
x(t) =
0 e3t

4.2. Diagonalizacion.

La diagonalizacion se puede utilizar para reducir el sistema lineal

x0 = Ax (1)

a un sistema lineal desacoplado. Consideremos una matriz A de valores propios


reales distintos. Recordemos que:

Teorema.

Si los valores propios 1 , 2 , ..., n de una matriz cuadrada n n A reales


y distintos, entonces existe un conjunto de correspondientes vectores propios
{v1 , v2 , ..., vn } que forman una base para Rn , la matriz P = [v1 , v2 , ..., vn ] es
invertible y
P 1 AP = diag[1 , 2 , ..., n ]

39
Con el fin de reducir el sistema (1) a un sistema lineal no acoplado mediante el
teorema anterior, se define la transformacion lineal de coordenadas:

y = P 1 x

Entonces,
x = Py
As que,
y 0 = P 1 x0 = P 1 Ax = P 1 AP y
y de acuerdo con el anterior teorema, se obtiene el sistema lineal desacoplado

y 0 = diag[1 , 2 , ..., n ]y

Este sistema tiene como solucion y(t) = diag[e1 , e2 , ..., en ]y(0).

Y entonces y(0) = P 1 x(0) y x(t) = P y(t), de esto se sigue que la solucion de


(1) es,
x(t) = P EP 1 x(0) (2)
donde E(t) s la matriz diagonal

E(t) = diag[e1 , e2 , ..., en ]

Ejemplo.

1) Considere el sistema lineal

x01 = x1 3x2

x02 = 2x2
Se puede escribir la matriz en la forma (1) como:
 
1 3
A=
0 2

Donde los valores propios de A son 1 = 1 y 2 = 2.

Y sus correspondientes vectores propios son :


   
1 1
v1 = y v2 =
0 1
Luego la matriz P y su inversa son:
   
1 1 1 1 1
P = y P =
0 1 0 1
Entonces por la transformacion y = P 1 x, e y 0 = P 1 AP y

40
       
1 1 1 3 1 1 y1
y0 = . . .
0 1 0 2 0 1 y2
   
1 0 y1
y0 = .
0 2 y2
Obteniendo as el sistema desacoplado

y10 (t) = y1
y20 (t) = 2y2

de acuerdo a esto, las soluciones son y1 (t) = c1 et y y2 (t) = c2 e2t . Luego,


 t 
e 0
E(t) =
0 e2t
De esta forma se puede escribir la solucion general como x(t) = P E(t)P 1 C,
   t     
1 1 e 0 1 1 c1
x(t) = . . .
0 1 0 e2t 0 1 c2
Donde x(0) = c o equivalente. Luego las soluciones del sistema son:

x1 (t) = c1 et + c2 (et e2t )


x2 (t) = c2 e2t

5. OPERADORES LINEALES
Los operadores lineales cumplen con las condiciones de linealidad. Si T es un
operador lineal Rn Rn entonces para vectores x, y Rn y k R se tiene que:

1) T (x, y) = T (x) + T (y)


2) T (kx) = kT (x)
3) T (x + y) = T (x) + T (y)

Para definir un operador exponencial, es necesario estudiar la convergencia de


un operador lineal T : Rn Rn en el espacio L(Rn ) de todos los operadores
lineales sobre Rn . La norma de un operador T, esta definida as:

kT k = max|x|1 |T (x)|

donde |x| es la norma euclidiana de x Rn .


p
|x| = x21 + ... + x2n

La norma de los operadores tiene las siguientes propiedades, para S, T L(Rn )

1. kT k 0 y kT k = 0 T = 0.

41
2. kkT k = |k| kT k para k R.
3. kS + T k kSk + kT k

Demostracion:

1)* kT k si es mayor que cero ya que kT k = max|x|1 |T (x)| 0 por ser el maxi-
mo y por la definicion de |.|

* kT k = max|x|1 |T (x)| = 0 T (x) = 0 Por propiedad del maximo.

2)kkT k = max|x|1 |KT (x)| = |k| max|x|1 |T (x)| por propiedades del maximo,
se tiene finalmente que kkT k = |k| kT k

3) |S + T | |S| + |T | max|x|1 |S| + max|x|1 |T |

Luego, max|x|1 |S + T | max|x|1 |S| + max|x|1 |T |

kS + T k kSk + kT k

De la desigualdad de Cauchy Schwarz se deduce que si T L(Rn ) esta re-


n
presentado
por la matriz A, con respecto a la base estandar para R , entonces
kAk nl.

Definicion: Una sucesion de operadores lineales Tk L(Rn ) se dice que con-


verge a un operador T Rn , cuando k , es decir

lm Tk = T
k

Si para todo  > 0, N tal que para k N, kT Tk k < 

Lema 1.
Para S, T L(Rn ) y x Rn siendo kT k = max |T |
|x| ; |x| = 1

1) |T (x)| kT k |x|
2) kT Sk
kT kk kSk
k
3) T kT k para k=0,1,2...

Demostracion

x
1) Sea y un vector unitario, y = |x| . Entonces

x
T (y) = T ( |x| )

1
= |x| T (x) (Porque cumple con las condiciones de linealidad)

42
|T (x)|
|T (y)| = 1
|x| |T (x)| = |x| max |T|x|
(x)|
= kT k

Por lo tanto,
|T (x)|
|x| kT k

|T (x)| kT k |x|

2) kT (S(x))k kT k kSk |x| kT k kSk

Luego, kT Sk = max |T S| kT k kSk

3) Si k=1.

T kT k1
1

kT k kT k (v)

Si k=2.

T = kT T k kT k kT k = kT k2
2

Si se cumple para k veamos que se cumple para k + 1

= T T T kT k kT kk kT k = kT kk+1
k+1 k k
T
k
Por lo tanto T k kT k

Teorema.

X T k tk
Dado T L(Rn ) y t0 > 0, la serie es absolutamente y uniformemente
k!
k=0
convergente para todo |t| t0

Demostracion.

Debemos probar que la serie es convergente. Sea kT k = a, entonces

T t kT k k|tk | kT kk |tk | ak |tk |


k k
ak tk
k! k! k! = k! k! 0

X (at)k
Entonces, = eat0
k!
k=0

De lo anterior se concluye que la exponencial del operador lineal , esta definida


por la serie absolutamente convergente

X Tk
eT =
k!
k=0

43
Definicion 1. Sea A una matriz nxn. Entonces para t R

X Ak t k
eAt =
k!
k=0

Para una matriz A de nxn, eAt es una matriz nxn que puede ser calculada
en
terminos de los valores y vectores propios de A. Se puede ver que eAt ekAk|t|
donde kAk = kT k y T es una transformacion lineal T (x) = Ax

Proposicion 1.
Si S y T son transformaciones lineales sobre Rn y S = P T P 1 . Entonces
eS = P eT P 1 .

Demostracion.
N N
X Sk X (P T P 1 )k X Tk
eS = = lm = P lm P 1
k! N k! N k!
k=0 k=0 k=0
S T 1
e = Pe P

Corolario 1.
Si S y T son transformaciones lineales sobre Rn que conmutan, es decir que
satisfacen ST = T S, entonces eS+T = eS eT

Demostracion.

Si ST = T S entonces por el teorema binomial


X Sj T k
(S + T )n = n!
j!k!
j+k=n

De tal forma que,


Sj T k
S+T
X (S + T )n X X j!k!
X X Sj T k
e = = n! =
n=0
n! n=0
n! n=0
j!k!
j+k=n j+k=n
j k
X S X T
= = eS eT
j=0
j! k!
k=0

Hemos utilizado el hecho de que el producto de dos series absolutamente conver-


gentes es una serie absolutamente convergente que viene dada por su producto
de Cauchy.

Corolario 2.
Si T es una transformacion lineal sobre Rn , la inversa de la transformacion lineal
eT esta dada por (eT )1 = eT .

44
Corolario 3.
   
a b cosb senb
Si A = entonces, eA = ea
b a senb cosb
Corolario 4.
 
a b
Si A = ,
0 a
 
A a1 b
Entonces e = e Podemos encontrar la matriz eAt para alguna matriz
0 1
A2x2 , teniendo en cuenta una matriz P tal que la matriz B = P 1 AP tiene
alguna de las siguientes formas
     
0 1 a b
B= ,B= ,oB=
0 0 b a

Con los anteriores corolarios y la definicion 2, se tiene que


 t     
e 0 t 1 t at cosbt senbt
eBt = , e Bt
= e , o e Bt
= e
0 et 0 1 senbt cosbt

Respectivamente. Y por la proposicion 1, la matriz eAt esta dada por

eAt = P eBt P 1
 
2 0
Ejemplo. Encuentre las exponenciales de la matriz A =
0 3
Solucion. Encontremos los valores propios de A.
     
2 0 0 2 0
det(A I) = det( ) = det( )
0 3 0 0 3
(2 )(3 ) = 0

Por lo tanto, los valores propios son 1 = 2, 2 = 3

Para = 2 tenemos:
   
22 0 0 0
=
0 3 2 0 5
 
1
Entonces, x2 = 0, sea x1 = s lo que nos queda el vector propio v1 =
0
Para = 3 tenemos:
   
2+3 0 5 0
=
0 3 + 3 0 0

45
 
0
Entonces, x1 = 0, sea x2 = t lo que nos queda el vector propio v2 = , por lo
1
tanto, la matriz P y P 1 son:
   
1 0 1 1 0
P = ,P =
0 1 0 1
Por lo tanto la matriz exponencial eAt es de la siguiente forma:

0 e2t
   
At t 1 1 0 1 0
e = Pe P =
0 1 0 e3t 0 1
 2t 
e 0
=
0 e3t

6. EXPOSICIONES.
6.1. SISTEMAS DE ECUACIONES DIFERENCIALES
LINEALES
La forma normal de un sistema de ecuaciones diferenciales lineales de primer
orden es
dx1
= a11 (t)x1 + a12 (t)x2 + ... + a1n (t)xn
dt
dx2
= a21 (t)x1 + a22 (t)x2 + ... + a2n (t)xn
dt
..
.
dxn
= an1 (t)x1 + an2 (t)x2 + ... + ann (t)xn
dt
Visto en forma matricial es

x1 (t) a11 (t) a12 (t) ... a1n (t)
x2 (t) a21 (t) a22 (t) ... a2n (t)
X = . ; A(t) = .

.. .. ..
.. .. . . .
xn (t) an1 (t) an2 (t) ... ann (t)

x1 a11 (t) a12 (t) ... a1n (t) x1
x2
d a21 (t) a22 (t) ... a2n (t) x2
. = ..

.. .. .. ..
dt .. . . . . .
xn an1 (t) an2 (t) ... ann (t) xn

0
X = AX

46
dx

    
x dt a b x
si X = entonces dx =
y c d y
dy
O tambien
 
dX a b
= AX donde A=
dt c d
A partir de la naturaleza de los valores propios y el signo de ellos, los sistemas
lineales se clasifican en diferentes tipos.

El polinomio caracterstico de A es
 
1 0
det(A I) donde I =
0 1
Ahora, det(A I) = 2 (a + d) + ad bc

Donde (a + d) es la traza de la matriz A, se denotara por T , y (ad bc) es


el determinante de A, se denotara por D. El polinomio caracterstico de A se
reescribe como

2 T + D

Las races o ceros de este polinomio, son los valores propios de la matriz A. Esto
es,

T T 2 4D T T 2 4D
1 = + ; 2 =
2 2 2 2
De esta expresion se deduce que los valores propios de A son:

- Reales y distintos si T 2 4D > 0


- Complejos conjugados si T 2 4D < 0
- Reales repetidos (iguales) si T 2 4D = 0

T2
De T 2 4D = 0, se obtiene D = . Esta parabola se conoce como la parabola
4
de raiz repetida

47
dX
Para hallar la solucion de un sistema lineal de ecuaciones diferenciales =
dt
AX, se hace uso del principio de linealidad que nos dice:

1. Si X(t) es una solucion de este sistema y k es cualquier constante, entonces


kX(t) es tambien una solucion.
2. Si X1 (t) y X2 (t) son dos soluciones de este sistema, entonces X1 (t)+X2 (t)
es tambien una solucion.

Esto es, si X1 (t) y X2 (t) son dos soluciones del sistema dado y si k1 y k2 son
constante cualesquiera, entonces

k1 X1 (t) + k2 X2

es tambien una solucion.

Si la matriz A posee un valor propio real con vector propio asociado v, en-
dX
tonces el sistema lineal = AX tiene la solucion X(t) = et v conocida como
dt
solucion de lnea recta.

Ahora, supongamos que al resolver el polinomio caracterstico encontramos dos


valores propios reales y distintos 1 y 2 con vectores asociados v1 y v2 respecti-
vamente. Como v1 y v2 son vectores asociados a diferentes valores propios, ellos
deben ser linealmente independientes. Entonces las soluciones de lnea recta son

X1 (t) = e1 t v1 y X2 (t) = e2 t v2

48
Por consiguiente, en virtud del principio de linealidad

X(t) = k1 e1 t v1 + k2 e2 t v2

Conocida como la solucion general del sistema lineal de ecuaciones diferenciales.

Ahora, para cuando los valores 1 ,2 son reales y distintos, se obtienen los si-
guientes casos:

1. 2 < 1 < 0

2. 1 > 2 > 0

3. 2 < 0 < 1

49
4. 2 < 1 = 0

5. 0 = 2 < 1

Ejemplo. Sea el sistema lineal de EDOS


 
dX 2 1
= X.
dt 0 1
La traza de la matriz es T = 3 y el determinante es D = 2. Por lo tanto, los
valores propios de la matriz de coeficientes son 1 = 1 y 1 = 2.

50
Para 1 = 1, su vector propio asociado es tal que

Av = 1 v (A 1 I2 )v = 0,

esto es,
    
1 1 v1 0
=
0 0 v2 0

de donde se obtiene v2 = v1 .

Luego,

     
v1 v1 1
v= = = v1
v2 v1 1

Para 2 = 2, su vector propio asociado es tal que

Aw = 2 w (A 2 I2 )v = 0,

esto es,

    
0 1 w1 0
=
0 1 w2 0

de donde se obtiene w2 = 0.

51
Luego,
     
w1 w1 1
w= = = w1
w2 0 0

El campo vectorial posee entonces dos soluciones de linea recta linealmente in-
dependientes que tienden al equilibrio (0,0). La solucion general es

   
t 1 2t 1
X(t) = k1 e + k2 e
1 0

k1 et + k2 e2t
   
x(t)
= ;
y(t) k1 et

expresion que genera cada curva solucion del sistema.


dy
La pendiente de la linea tangente a una curva esta dada por . En virtud de
dx
dy dy dt
la regla de la cadena, = , y por el teorema de la derivacion de la
dx dt dx
funcion inversa

dy dy 1
=
dx dt dx
dt
Como x(t) = k1 et + k2 e2t , y y(t) = k1 et , se tiene

dy k1 et 1
= = ,
dx k1 et 2k2 e2t k2 t
1 2 e
k1

52
Si k1 6= 0.
dy
Luego, tiende a 1 cuando t si k1 6= 0, es decir, son soluciones que
dx
tienden al equilibrio (0, 0) con pendientes que tienden a 1 (1 es la pendiente
de la linea recta de vectores propios asociados al valor propio 1 = 1) o tam-
bien se puede decir que tienden al origen en direccion tangencial a la linea de
vectores propios asociados con el valor propio dominante 1 = 1.
dy
Si k1 = 0, = 0, que es precisamente la pendiente para las soluciones de
dx
lnea recta con condiciones iniciales a lo largo de la lnea de vectores propios
correspondientes a 2 = 2.

Finalmente, el retrato de fase del sistema estudiado es el siguiente:

Ejemplo. Para el Sistema Lineal


 
dX 6 2
= X
dt 3 1
1) Encuentre los eigenvalores
2) Encuentre los eigenvectores
3) Determine la solucion general
4) Esboce el plano de fase
5) Que valor toma la solucion general para X0 = (1, 1)
6) Con la condicion inicial anterior, grafique la solucion particular.

Solucion

El polinomio caracterstico;
q
2
T (T ) 4D
=
2 2
donde la traza T = 7 y el determinante D = 0.

53
Luego los eigenvalores del sistema es:

1 = 7, 2 = 0

El eigenvector w = (w1 , w2 ) asociado al eigenvalor = 7 es:

Aw = w

En efecto:     
6 3 w1 7w1
=
2 1 w2 7w2
esto equivale
(
6w1 + 3w2 = 7w1
2w1 + w2 = 7w2
quedando
(
3w2 = w1
.
w1 = 3w2
Luego,      
w1 3w2 3
w= = = w2
w2 w2 1

Figura 7: Combinacion lineal de eigenvectores asociados a los eigenvalor = 7

Para 2 = 0, el vector propio w = (w1 , w2 ) se obtiene,


    
6 3 w1 0
=
2 1 w2 0

54
esto es, (
6w1 + 3w2 = 0
2w1 + w2 = 0
y as, 2w1 = w2 .

Luego,    w2   1 
w1 2 2
w= = = w2
w2 w2 1

Figura 8: Infinidad de eigenvectores asociados al eigenvalor = 0

La solucion general es:


   1 
3 7t 0t 2
X(t) = k1 e + k2 e
1 1
es decir
3k1 e7t k22
   
x(t)
=
y(t) k1 e7t + k2

Puesto que
3k1 k22
     
x0 1
X(0) = = =
y0 k1 + k2 1
3


k2 k =
3k1 2 = 1

1

7
.
k2 = 4

k1 + k2 = 1


7
Luego,
9 2


x(t) = e7t

7 7

y(t) = 3 e7t + 4



7 7

55
Figura 9: Plano fase

Figura 10: Solucion particular de X(t) con (x(0), y(0)) = (1, 1)

6.2. SISTEMAS DE ECUACIONES LINEALES CON VA-


LORES PROPIOS COMPLEJOS
6.2.1. Eigenvalores Complejos
Cuando una matriz A del sistema X = AX posee valores propios complejos y
cualquier raz compleja de la ecuacion caracterstica cuadratica 2 (a+d)+

56
(ad bc) = 0 surge como parte de un par complejo conjugado: = p iq.

El comportamiento de las trayectorias en el caso de valores complejos depende


es de la parte real p de dichos valores propios.

Si los valores propios de una matriz son complejos, sus vectores propios tendran
tambien componentes o entradas complejas.

Recordemos...

Partiendo de las series de Taylor



x x2 x3 xn

ex = 1 +
P
1! + 2! + 3! + = n! (1)
n=0

 
x3 x5 x7
P (1)n x2n+1
sin x = x 3! + 5! 7! = (2n+1)!
n=0

 
x2 x4 x6
P (1)n x2n
cos x = 1 2! + 4! 6! = (2n)!
n=0

si en (1) sustituimos x por zi


2 3
   
z z (i) z 4 z2 z4 z6 z3 z5 z7
ezi = 1+ zi
1! + 2! + 3! + 4! = 1 2! + 4! 6! + . . . +i z 3! + 5! 7! + ...

Es decir que

(2n+1)!
P (1)n z 2n P
= (2n!) +i
n=0 (1)n z 2n+1

ezi = cos z + i sin z

Eigenvalores Complejos

Si una matriz real A de tamano 2n x2n tiene eigenvalores complejos, estos apa-
recen en pares conjugados complejos y si A tiene 2n eigenvalores complejos
distintos, el siguiente teorema nos permite resolver el Sistema lineal.

Teorema.
Sea A Rnxn tiene k eigenvalores reales distintos 1 , ..., k con eigenvectores
correspondientes u1 , ..., uk y s = nk 2 pares conjugados complejos de eigenva-
lores k+1 , k+1 , ..., k+s , k+s , donde j = aj + ibj con los correspondientes
eigenvectores w, wk+1 , ..., wk+s , wk+s , donde w = uj + ivj .

57
Luego sea P = [v1 u1 v2 . . . vn un ]. Entonces P Rnxn es invertible y

D = P 1 AP = diag{1 , ..., k , Bk+1 , ..., Bk+s }

Donde los bloques reales 2x2 Bj , para j > k, son dados por

 
aj bj
bj aj
Para j = k + 1, ..., k + s

Demostracion.

Sea = a + bi y w = u + iv un par de valores propios y vectores propios de


la matriz A. Entonces = a bi y w = u iv es tambien un par de valores y
vectores propios de A.ya que u = 12 (w + w), nosotros tenemos que

Au = 12 (Aw + Aw) = 21 (w + w) = <{w} = au bv.

1
Similarmente, v = 2i (w w), y por lo tanto

1 1
Av = 2i (Aw Aw) = 2i (w w) = ={w} = bu + av.

Combinando las dos ecuaciones en una sola se obtiene la siguiente matriz



| | | |  
a b
A v u = v u

b a
| | | |

Corolario.
Bajo las hipotesis del teorema anterior, la solucion del problema con valor inicial

X = AX
X(0) = x0

Es dado por
 
cos bj t sin bj t
X(t) = P diag eaj t P 1 x0
sin bj t cos bj t
 
cos bt sin bt
R=
sin bt cos bt

58
Representa una rotacion mediante bt en radianes.

Ejemplo. Resolver.

1 -1 0 0
1 1 0 0
A=
0

0 3 -2
0 0 1 1
La matriz A tiene valores propios complejos, 1 = 1 i y 2 = 2 i.
Para 1 = 1 + i se tiene

-i -1 0 0
1 -i 0 0
A= 0 0 2-i -2

0 0 1 1-i
de donde se sacan las siguientes ecuaciones

ix = y
x=iy=1
x = iy


(2 i)z = 2w
(2 i)iw 2w = 0 ((2 i)i 2)w = 0 w = 0; z = 0
z = iw

es decir que

i 0 1
1 1
+ i 0

0 = u1 + iv1 = 0
w1 =
0
0 0 0
Analogamente se hace para 2 = 2 + i, y se tiene que

0 0 0
0 0 0
w2 = 1 + i = u2 + iv2 = 1 + i

1
1 1 0
Ahora;
1 0 0 0
  0 1 0 0
P = v1 u1 v2 u2 =
0

0 1 1
0 0 0 1

1 0 0 0
1
0 1 0 0
P =
0

0 1 -1
0 0 0 1

59
y,

1 -1 0 0
1
1 1 0 0
P AP =

0 0 2 -1
0 0 1 2
La solucion del problema con valor inicial es
t
e cos t et sin t

0 0
et sin t et cos t 0 0 1
x(t) = P P x0
0 0 e2t cos t e2t sin t
0 0 e2t sin t e2t cos t

et cos t et sin t

0 0
et sin t et cos t 0 0
= 2t 2t
x0
0 0 e (cos t + sin t) 2e sin t
2t 2t
0 0 e sin t e (cos t sin t)

6.2.2. Analisis de estabilidad de los valores propios


Supongamos en primer lugar que los valores propios son i, donde y
son numeros reales. Para esbozar el diagrama de fases en este caso necesita-
mos conocer como es la solucion del sistema, y ademas existiran tres tipos de
comportamientos dependiendo de sea nulo, positivo o negativo.

1. Si = 0 podemos encontrar centros y la orientacion de todas las orbitas


es la misma.

2. Si > 0 podemos encontrar un punto espiral inestable (fuente espiral).


3. Si < 0 podemos encontrar un punto espiral estable (Sumidero espiral).

Ejemplo.

x0 = 2x + 3y


y 0 = 3x 2y

Los valores propios son 5i,es decir que = 0 por lo tanto en su diagrama
de fase vamos a encontrar centros.

60
Ejemplo.

x0 = x + y


y0= 3x + y
Los valores propios son 1 i,es decir que > 0 por lo tanto en su diagrama de
fase vamos a encontrar una fuente espiral, tambien conocido como foco inestable.

Ejemplo.

x0 = 2x + y


y 0 = 3x + y

Los valores propios son 21 i 23 ,es decir que < 0 por lo tanto en su diagrama
de fase vamos a encontrar una sumidero espiral, tambien conocido como foco
estable.

61
6.3. FORMA CANONICA DE JORDAN
La forma canonica de Jordan de una matriz da una idea de la forma de la solu-
cion de un sistema lineal de ecuaciones diferenciales.

Hasta ahora hemos trabajado matrices diagonalizables en donde sus valores


caractersticos son distintos. Sin embargo, trabajaremos matrices no diagona-
lizables es decir que no necesariamente sus valores caractersticos son distintos.
Pero en este caso tambien se puede ver que la matriz es semejante a otra.

Se define la matriz Nk como la matriz nilpotente de tamano kxk



0 1 0 ... 0
0 0 1 ... 0

Nk = ...


0 0 0 ... 1
0 0 0 ... 0
Para un escalar dado se define la matriz de bloques de Jordan B() por:

1 0 ... 0
0 1 ... 0

B() = I + N = ...


0 ... 1
0 ... 0
Para un valor propio real. Ahora cuando es un complejo, la matriz de bloque
de Jordan es de la forma

62

D I2 0 ... 0
0 D I2 ... 0

...
B=

0 ... D I2
0 ... 0 D
Con
     
a b 1 0 0 0
D= ; I2 = y0=
b a 0 1 0 0
Por ultimo la matriz de Jordan J tiene la forma

B1 (1 ) 0 ... 0
0 B2 (2 ) ... 0
J = ...


0 ... Br (r )
Donde cada Bj (j ) es una matriz de bloques de jordan

Teorema 1.
Sea A una matriz real o compleja de nxn. Entonces existe una matriz C in-
vertible de nxn tal que, J = C 1 AC. Donde J es una matriz de Jordan cuyos
elementos en la diagonal son los valores caractersticos de A. Pero esta matriz
es unica, excepto por el orden en el que aparecen los bloques de Jordan.

Definicion: (Valor caracterstico generalizado)


Sea A una matriz de 2x2 con un solo valor caracterstico y sea v1 un vec-
tor caracterstico de A. Entonces el vector v2 definido por (A I)v2 = v1 se
denomina un vector caracterstico generalizado de A correspondiente al valor
caracterstico .

Sea el sistema x0 (t) = Ax(t) ()

Teorema 2.
Para cualquier vector constante c, x(t) = eAt c es solucion de (*). Mas aun la
solucion de (*) dada por x(t) = eAt x0 satisface x(0) = x0 .

Demostracion.

A 2 t2 A 3 t3
Sea x(t) = eAt c = [I + At + 2! + 3! + ...]c (1)

Ahora como A es una matriz constante, se tiene

d Ak tk ktk1 k Ak tk1 k1 k1

dt k! = k! A = (k1)! = A[ A(k1)!
t
] (2)

Luego de (1) y (2) y como c es vector constante, tenemos:

63
A2 t2 A3 t3
x0 (t) = d At
dt e c = A[I + At + 2! + 3! + ...]c = AeAt c = Ax(t)

Por ultimo, como eA0 = e0 = I. Se tiene x(0) = eA0 x0 = Ix0 = x0

Ejemplo. Calculo de eAt cuando A es una matriz de 2x2 que no es diagonali-


zable.
 
a 1
Sea A = entonces verificamos facilmente que
0 a
 2  3
3a2
 m
mam1
  
2 a 2a 3 a m a
A = ;A = ;...; A = ;...
0 a2 0 a3 0 am
De manera que,

(at)m mam1 tm
X X
m! m!
eAt = m=0 m=1


X (at)m

0
m=0
m!
Ahora,

X mam1 tm X am1 tm a2 t3 a2 t2
= = t+at2 + +... = t[1+at+ +...] = teat
m=1
m! m=1
(m 1)! 2! 2!

 at
teat

At e
As, e =
0 eat

Teorema 3.
Sea J la Forma Canonca de Jordan de una matriz A y sea J = C 1 AC entonces
A = CJC 1 y eAt = CeJt C 1

Demostracion.

Observemos que,

An = (CJC 1 )n = (CJC 1 )(CJC 1 )(CJC 1 )...(CJC 1 )


= CJ(C 1 C)J(C 1 C)J(C 1 C)...(C 1 C)JC 1
= CJ n C 1

Entonces tenemos que, (At)n = C(Jt)n C 1 . As


(At)2 (At)3
eAt = I + At + 2! + 3! + ...

64
C(Jt)2 C 1
= CIC 1 + C(Jt)C 1 + 2! + ...
(Jt)2 (Jt)3
= C[I + Jt + 2! + 3! + ...]C 1

= CeJt C 1

Para calcular eAt en realidad solo se necesita calcular eJt . Cuando J es diagonal,
se hace como ya es usual. Si A es una matriz de 2x2 que no es diagonalizable,
entonces
 t
tet
  
1 e
J= ; y eJt =
0 0 et

Ejemplo.

Un modelo competitivo. Considere el sistema

x01 (t) = 3x1 (t) x2 (t)


x02 (t) = 2x1 (t) + 2x2 (t)

Aqu un aumento en la poblacion de una especie causa una disminucion en la


tasa de crecimiento de la otra. Suponga que las poblaciones iniciales x1 (0) = 90
y x2 (0) = 150. Encuentre las poblaciones de ambas especies para t > 0.

Solucion.
 
3 1
Se tiene A = . Los valores caractersticos de A son 1 = 1, 2 = 4
2 2    
1 1
con vectores caractersticos correspondientes v1 = , v2 = . Entonces
2 1
tenemos que
       t 
1 2 1 1 1 0 e 0
C= , C 1 = 31 , J = C 1 AC = , eJt =
1 1 2 1 0 4 0 e4t
Luego,
eAt = CeJt C 1
  t  
1 1 2 e 0 1 1
= 3
1 1 0 e4t 2 1

et et
  
1 2
= 31
1 1 2e4t e4t
 t
e 2e4t et + e4t

= 13
2et + 2e4t 2et e4t

La solucion del sistema es,

65
 t
e 2e4t et + e4t 240et 30e4t
     
x1 (t) 90
v(t) = = eAt x0 = 13 = 13
x2 (t) 2et + 2e4t 2et e4t 150 480et + 30e4t
1
Por lo menos despues de 6 meses, t = 2 ano, entonces
1
x1 (t) = 80e 2 + 10e2 206
1
x2 (t) = 160e 2 10e2 190

Ejemplo.

Considere el siguiente sistema poblacional

x01 (t) = 2x1 (t) x2 (t)


x02 (t) = x1 (t) + 4x2 (t)

Encuentre las poblaciones de las dos especies para t > 0 si las poblaciones ini-
ciales son x1 (0) = 500, x2 (0) = 100

Solucion.
 
2 1
Sea A = y el unico valor caracterstico es = 3. Con un solo vector
1 4
 
1
caracterstico v1 = . Por la definicion anterior tenemos que (A3I)v2 = v1
1  
1
por lo tanto obtenemos, v2 =
2
Entonces,
 3t
te3t
        
1 1 2 1 3 1 e 3t 1 t
C= , C 1 = ,J = , eJt = = e
1 2 1 1 0 3 0 e3t 0 1
Luego tenemos que
   
1 1
1 t 2 1
eAt = CeJt C 1 = e3t
2 0 1 1 1 1
  
3t 1 1 2t 1t
=e
1 2 1 1
 
1 t t
= e3t
t 1+t
Luego la solucion al sistema es,
      
x1 (t) At 3t 1 t t 500 3t 500 600t
v(t) = = e x0 = e =e
x2 (t) t 1 + t 100 100 + 600t

66
Se puede ver que la poblacion x1 sera eliminada despues de 56 anos = 10 meses,
aun cuando comenzo con una poblacion 5 veces mayor que x2

6.4. TEORIA DE LA ESTABILIDAD


Definimos los subespacios estable E s , inestable E u , y centro E c , respectivamente
del sistema lineal
X 0 = AX (1)
Dado wj = uj + ivj sea un vector propio de la matriz (real) A correspondiente
aun valor propio j = aj +ibj . Tengamos en cuenta que si bj = 0 entonces vj = 0.

Definicion: Dado j = aj +ibj ,wj = uj +ivj y B = u1 , u2 , u3 , . . . , uk , uk+1 , vk+1 , . . . , um , vm


una base de Rn . Entonces

E s = uj , vj |aj < 0

E c = uj , vj |aj = 0
E u = uj , vj |aj > 0
Es decir, E s , E c y E u son subespacios de Rn abarcado por la parte real e ima-
ginaria del vector propio generalizado wj correspondiente al valor propio j con
parte real positiva, negativa y cero respectiamente.

Ejemplo. La matriz
2 1 0
A= 1 2 0
0 0 3
Sus valores propios son 1 = 2 + i,2 = 3.Los vectores
propios
correspondien-
0 1
tes a estos valores propios son:w1 = u1 + iv1 = 1 + i 0
0 0
Luego, el subespacio estable E s de (1) esta en el plano x1 , x2 y es subespacio
inestable en el eje x3 . El retrato de fase del sistema se muestra a continuacion:

67
Criterio Para Determinar La Estabilidad de Las Soluciones

Sea n N,A Mnxn (R) y X 0 = AX, un sistema de ecuaciones diferenciales


lineales de primer orden de coefeicientes constantes.

Consideremos el polinomio caracterstico

p() = det(A I)

Se verifica:

1. Si todas las races de p() = 0 tienen parte real negativa, todas las solu-
ciones del sistema son asintoticamente estables.

2. Si al menos una de las races de p() = 0 tienen parte real positiva, todas
las soluciones del sistema son inestables.
3. Si las races de p() = 0 tienen parte real menor o igual a cero y 1 = il
son todos los que tienen parte real cero, se dice que la solucion del sistema
es estable.

68
Ejemplo. Sea la matriz
1 0 1
A= 0 2 1
0 1 1
Hallamos sus valores propios, es decir, p() = det(A I) = 0. Esto es,

1 0 1
p() = det 0 2 1 = (1 )(2 + 3 + 3) = 0
0 1 1

3 3
Entonces 1 = 1 y 2 = i
2 2
Por lo tanto, la solucion del sistema es asintoticamente estable, ya que todas las
races del polinomio tienen parte real negativa.

6.4.1. Caracterizacion Del Punto Crtico


Sean 1 y 2 las races del polinomio caracterstico.La naturaleza del punto
crtico esta determinada por las races.

Casos Principales:

1. Si las races 1 y 2 son reales, distintas y del mismo signo, entonces es


un nodo.

2. Si las races 1 y 2 son reales, distintas y de signos opuestos, entonces es


un punto de silla.
3. Si las races 1 y 2 son complejas conjugadas pero no imaginarias puras,
entonces es un foco.

Casos Frontera:

69
1. Si las races 1 y 2 son reales e iguales,entonces es un nodo.
2. Si las races 1 y 2 son imaginarias puras,entonces es un centro.

Definicion: Si todos los valores propios de Anxn tienen parte real negati-
va(positiva) el origen se denomina sumidero(fuente) para el sistema lineal X 0 =
AX

Ejemplo. Considere el problema de valor inicial


 
dY 1
= BY, Y (0) =
dt 1

donde,  
0 2
B=
3 2
Ahora,
det(B I) = (0 )(2 ) + 6 = 2 2 + 6

Luego, los valores propios son: = 1 5i

Como la parte real de los valores propios son positivos, entonces el origen es una
fuente espiral.

70
Definicion: Si todos los valores propios de Anxn tienen parte real diferente de
cero entonces las soluciones del sistema son hiperbolicas por tanto el sistema
X 0 = AX es llamado sistema lineal hiperbolico.
 
1 1
Ejemplo. Sea A = . Hallamos sus valores propios, esto es,
1 1
 
1 1
det(A I) = = (1 )(1 ) (1) = 2 + 2 + 2
1 1

Entonces, 1 = 1 + i,y 2 = 1 i.

Por lo tanto, las soluciones del sistema son hiperbolicas pues los valores propios
tienen parte real distinta de cero.

Teorema.
Las siguientes afirmaciones son equivalentes.

a) Para todo X0 Rn , lm eAt X0 = 0 y para X0 6= 0, lm eAt X0 =


t t
b) Todos los valores propios de A tienen parte real negativa.
c) Hay constantes positivas a, c, m y M tal que para todo X0 Rn

|eAt X0 | M ect |X0 |, t 0

y
|eAt X0 | meat |X0 |, t 0
Demostracion.

a = b) Si uno de los valores propios = a + ib tiene parte real positiva a > 0,


entonces existe X0 Rn , X0 6= 0,tal que|eAt X0 | eat |X0 |.

Por lo tanto,|eAt X0 | como t , es decir, lm eAt X0 6= 0.


t

71
Y, si uno de los valores propios de Aa tienen parte real cero, es decir, = ib,
entonces , existe X0 Rn , X0 6= 0,tales que al menos una componente de la
solucion es de la forma ctk cosbt, o, ctk senbt, k 0.

Una vez mas lm eAt X0 6= 0.


t

As, si no todos los valores propios de A tienen parte real negativa , existe
X0 Rn tales que eAt no tiende a 0 cuando t 0, es decir, que a = b.

b = c) Si todos los valores propios de A tienen parte real negativa , existen


constantes positivas tales que a, c, m y M tal que para todo X0 Rn

|eAt X0 | M ect |X0 |, t 0

y
|eAt X0 | meat |X0 |, t 0

c = a) Si este ultimo par de desigualdades se satisfacen para todo X0 Rn , se


sigue tomando el lmite como t a cada lado de las desigualdades anteriores

lm eAt X0 = 0
t

y
lm |eAt X0 | =
t

6.5. LINEALES NO HOMOGENEOS


Un sistema lineal no homogeneo es una expresion de la forma:
0
X = P (t)X + g(t)
Donde P (t) es una matriz cuadrada y el vector g(t) es un vector columna (n 1)
continuos en un intervalo abierto I.

la solucion general esta dada:

X = c1 X1 (t) + ... + cn Xn (t) + v(t)


Donde es pertinente alcarar que c1 X1 (t) + ... + cn Xn (t) es la solucion general
0
del sistema homogeneo X = P (t)X y V (t) es una solucion particular del siste-
ma no homogeneo.

Para este modelo nos interesa resolver la parte no homogenea, por tanto utili-
zaremos el metodo de Diagonalizacion para encontrar a V(t)

72
6.5.1. Metodo de diagonalizacion
Se inicia con un sistema de la forma:
0
X = AX + g(t) (3)

Donde A es una matriz constante cuadrada diagonalizable. Al diagonalizar la


matriz de los coeficientes A, es posible transformar la ecuacion anterior en un
sistema de ecuaciones faciles de resolver.

Sea T la matriz cuyas columnas son los eigenvectores (1) , ..., (n) de A y defi-
nase una nueva variable dependiente y por medio de.

X = T y (4)

Entonces, sustituyendo X en la ecuacion planteada anteriormente, se obtiene:


0
T y = AT y + g(t)

Al multiplicar por T 1 se sigue que:


0
y = (T 1 AT )y + T 1 g(t) = Dy + h(t) (5)

Donde h(t) = T 1 g(t) y donde D es la matriz diagonal cuyos elementos en la


diagonal son eigenvalores r1 , ..., rn de A, dispuestos en el mismo orden que los
eigenvectores correspondientes (1) , ..., (n) que aparecen como columnas de T .

Esta ultima ecuacion es un sistema de n ecuaciones no acopladas para y1 (t), ..., yn (t);
en consecuencia, las ecuaciones pueden resolverse por separado.

Expresada como escalar, la ecucacion anterior tiene la forma:


0
y (t) = rj yj (t) + hj (t) (6)

con j = 1, ..., n

Donde hj (t) es determinada combinacion lineal de g1 (t), ..., gn (t). Donde esta
ultima ecuacion escrita de manera escalar es una ecuacion lineal de primer orden
y puede resolverse por los metodos que ya conocemos.

En terminos mas puntuales se tiene que:

Rt
yj (t) = erj t erj s hj (s)ds + Cj erj t (7),
t0

con j = 1, .., n

73
Donde las Cj son constantes arbitrarias. Por ultimo, la solucion X de la ecua-
cion (3) se obtiene a partir de (4).

Cuando se multiplica por la matriz de transformacion T , el segundo termino en


el segundo miembro de la ecuacion (7) produce la solucion general de la ecuacion
0
homogenea X = AX, mientras que el primer termino en ese mismo miembro
produce una solucion particular del sistema no homogeneo (3).

Ejemplo: Encontrar la solucion general del sistema no homogeneo dado a con-


tinuacion:
   t 
0 2 1 2e
X = X+ = Ax + g(t)
1 2 3t
Solucion:

Procedemos a encontrar los Valores Propios y Vectores Propios asociados a la


matriz A.

Recordemos que los valores propios los obtenemos del polinomio resultante de
det(A I) = 0.
   
2 1 1 0
det =0
1 2 0 1
Luego,
 
2 1
det =0
1 2
As, obtenemos:

(2 + )(2 + ) 1 = 0
2 + 4 + 3 = ( + 3)( + 1)
En sintesis 1 = 3 y 2 = 1

Ahora procedemos a encontrar los vectores propios asociados a los valores pro-
pios, resolviendo (A 1 I)V = 0, como sigue:
       
2 1 1 0 x1 0
+3 =
1 2 0 1 x2 0
    
1 1 x1 0
=
1 1 x2 0
De donde obtenemos el vector propio asociado:
 
1
V1 =
1

74
De manera analoga encontramos el vector propio asociado al valor propio 2 =
1 escrito como sigue:
 
1
V2 =
1
De lo anterior, y conociendo la forma de la soluciones, tenemos:
   
1 1 t
X = c1 e3t + c2 e
1 1
Recordemos que esta es la parte homogenea del sistemas, ahora encontremos la
solucion de la parte no homogenea mediante la sustitucion indicada anterior-
mente:

Antes de empezar encontremos T y T 1 que son las matrices de los respectivos


vectores propios de la matriz.

 
1 1
T =
1 1
Y sus respectiva inversa:
 
1 1 1
T =
1 1
Recordemos el primer resultado de la sustitucion, explicado anteriormente:

y 0 = Dy + T 1 g(t)

Con calculos previos encontramos D y procedemos a sustituir en la expresion


anterior:
   t 
2 0 2e 3t
y0 = y+
0 6 2et 3t
El sistema obtenido contiene ecuaciones diferenciales lineales de primer orden,
cabe recordar la forma de la solucion de estas ecuaciones:
R
y = V (x)e p(x)
Donde V (x) esta dada por:
R R
V (x) = C + ( Q(x)e p(x) dx)e p(x)dx
R

Luego, la solucion de nuestro sistema es:

y1 = 21 et 3 t 1
+ c1 e3t

3 9

y2 = et + 3(t 1) + c2 et

75
6.6. EXISTENCIA Y UNICIDAD
6.6.1. Existencia
Teorema.
Supongamos que f (x, y) es una funcion continua en el rectangulo de la forma
R = {(x, y)| a x a; b y b} en el plano x y. Si (x0 , y0 ) es un
punto en este rectangulo, entonces existe un  > 0 y una funcion Y (x) definida
en x0  < x < x0 +  que es una solucion del problema de condiciones iniciales

dy
dx = f (x, y) , y(x0 ) = y0

Demostracion

Para demostrar el teorema vamos a tener en cuenta las siguientes definiciones.

Funcion Lipshitz continua


Sea x un intervalo abierto en R y sea f : X R una funcion. Se dice que es de
Lipshitz continua si existe una constante L 0 tal que:

|f (x2 ) f (x1 )| L|x2 x1 | x1 , x2  R

Iterantes de Picard
dy
dx = f (x, y) , y(x0 ) = y0
Rx
y(x) = y0 + x0
f (s, y(s))ds

Consideremos

dy
= f (x, y) ; y0 = 0 (1)
dx

Se demostrara la existencia de la solucion de esta ecuacion bajo las condiciones


siguientes:

1. La funcion f (x, y) es continua en el dominio D

a x a ; b y b

De este se deduce que en D la funcion tiene siempre valor finito es decir que
para cualquier punto (x, y) en D existe un numero M tal que |f (x, y)| M
2. La funcion f (x, y) satisface la condicion de Lipschitz, es decir que

76
|f (x, y) f (x, z)| k|y z|

Para cualquier (x, y) y (x, z) en D y para alguna constante k que no de-


pende de x, y, z

Se considera el intervalo

 
b
0 x a0 = min a, (2)
M

b b

En donde min a, M es el numero menor de a y M

Sea y1 (x), y2 (x), y3 (x)... una sucesion de funciones definidas por la siguientes
relaciones
Z x
y1 (x) = f (x, 0)dx
0
Z x
y2 (x) = f (x, y1 (x))dx
0
Z x
y3 (x) = f (x, y2 (x))dx
0
Z x
yn (x) = f (x, yn1 (x))dx
0

Entonces y1 (x) es la solucion en primera aproximacion de la ecuacion (1) porque


sustituye y por 0 en el segundo miembro de (1) se obtiene
dy
dx = f (x, 0)

O bien, si se integra con respecto a x se obtiene y1 (x). De la misma manera


y2 (x) es la solucion de (1) en la segunda aproximacion.

Las funciones y1 (x), y2 (x), ... son continuas en el intervalo (2) porque la integral
de una funcion continua es siempre continua.

Se obtiene por otra parte que:


Rx Rx
|y1 (x)| 0
|f (x, 0)|dx M 0
dx = M x < M a0 < b

Y en la misma forma

77
Rx Rx
|y2 (x)| 0
|f (x, y1 )|dx M 0
dx = M x < M a0 < b

En general se recibe que yn (n = 1, 2, 3, ..,1, 2) satisface la siguiente desigualdad

|yn (x)| < b; (n = 1, 2, 3, ...)

Se demuestra a continuacion que esta sucesion de funciones converge uniforme-


mente a una funcion y(x) en el intervalo (2) de (1.3,1.4,1.5,1.6) se recibe que:
Rx
|yn+1 (x) yn (x)| 0
|f (x, yn ) f (x, yn1 )|dx

Aplicando la condicion de Lipschitz se tiene:


Rx
|y1 (x)| 0
|f (x, 0)|dx M x
Rx Rx Rx
|y2 y1 | 0
|f (x, y1 ) f (x, 0)|dx k 0
|y1 |dx < kM 0
xdx
Rx Rx Rx x2 3
|y3 y2 | 0
|f (x, y2 )f (x, y1 )|dx < k 0
|y2 y1 |dx < k 2 M 0 2!
dx = k 2 M x3!

En general se obtiene

xn
|yn (x) yn1 (x)| < k n1 M (3)
n!

Luego de (3) tenemos que


 
M (kx)2 (kx)3 (kx)n
|y1 |+|y2 y1 |+|y3 y2 |+...+|yn yn1 |+... < k kx + 2! + 3! + ... + n! + ...

M kx
= k (e 1)

Por esto se puede concluir que la serie

y1 + (y2 y1 )(y3 y2 ) + ... (4)

Converge uniformemente y absolutamente en el intervalo (2). De lo cual se de-


duce que el limite de la serie (4) es una funcion continua Y (x), porque cada
termino de la serie es una funcion continua y su convergencia es uniforme y
absoluta.

Por otra parte la suma de los n primeros terminos de la serie anterior es

78
y1 + (y2 y1 )(y3 y2 ) + ... + (yn yn1 ) = yn

Entonces la sucesion yn (n = 1, 2, 3, ...) tambien converge uniformemente y ab-


solutamente a una funcion continua Y (x)

Es facil demostrar que esta funcion Y (x) satisface la ecuacion inicial


Rx
La expresion yn (x) se reescribe yn (x) = 0
f (x, yn1 (x))

Y cuando n , yn y, yn1 y y la expresion anterioe toma la siguiente


forma
Rx
Y (x) = 0
f (x, y(x))dx

o bien

dY
dx = f (x, Y (x)) ; Y0 = 0

6.6.2. Unicidad
Teorema.
Si f (x, y) y f
y son funciones continuas en el rectangulo de la forma R =
{(x, y)| a x a; b y b} en el plano x y. Si (x0 , y0 ) es un punto en
este rectangulo y y1 (x) y y2 (x) son dos soluciones del problema de condiciones
iniciales

dy
= f (x, y) ; y0 = 0 (1)
dx

entonces y1 (x) = y2 (x) para todos los valores de x para los que (x, y1 (x)), (x, y2 (x))
R. Es decir, la solucion del problema es unica.

Demostracion

Teniendo en cuenta la demostracion del teorema anterior sabemos que la solu-


cion del problema tiene la forma
Rx
Y (x) = 0
f (x, Y (x))dx

Vamos a suponer que existe otra solucion Z(x) de la ecuacion (1)


Rx
Z(x) = 0
f (x, Z(x))dx

79
Sea (x) = Y (x) Z(x), entonces por la demostracion del teorema anterior

Z x
(x) = (f (x, Y ) f (x, Z))dx (2)
0

Aplicando a (2) la condicion Lipschitz se obtiene

Z x Z x Z x
|(x)| = |f (x, Y ) f (x, Z)|dx < k |Y Z|dx = k |(x)|dx (3)
0 0 0

Suponemos que |(x)| < N , entonces sustituyendo en el segundo miembro de


(3) se obtiene

Z x
|(x)| < k N dx = kN x (4)
0

Reemplazando (4) en el segundo miembro de (3)


Rx 2
|(x)| < k 0
kN Xdx = k 2 N x2!

Repitiendo el proceso n veces se recibe finalmente que


(kx)n N
|(x)| < n!
n n
Pero como (kx)
n!
N
es un termino de desarrollo de ekx cuando n , (kx)
n!
N

0. Entonces se concluye (x) = 0

Por esto, Y (x) = Z(x)

Corolario
Sea A : J L(E) y b : J E son funciones continuas en el intervalo J.
Entonces para cada (X0 , Y0 )E J, tiene solucion unica de:

X 0 = A(t)x + b(t) ; x(t0 ) = x0

Demostracion

80

[
Sea J = Jn donde cada Jn es un intervalo compacto que contiene a t0 y
n=1
Jn Jn+1 ; para n = 1, 2, 3, ...

La funcion f (x, t) = A(t)x + b(t) restringida por E Jn , y por ser restringida


es Lipschitziana por lo tanto

|f (x, t) f (y, t)| = |A(t)(x y)| ||A(t)|||x y| k|x y|

Donde kn = max{||A(t)||; tJn }

Por el teorema anterior, existe una unica solucion xn (t), definida en el intervalo
Jn , ahora para tJ tenemos que x(t) = xn (t) si tJn . Por unicidad de soluciones
x(t) esta bien definida y por lo tanto unica solucion definida en el intervalo J

81
Referencias
[1] David Poole, Algebra Lineal Una Introduccion Moderna, Trent University,
tercera edicion, CENGAGE Learning.
[2] Perko, Differential Equation and dynamical systems.
[3] Morris, Differential equation, dynamical systems and lineal algebra.

[4] Devaney, Ecuaciones diferenciales

82

Anda mungkin juga menyukai