Anda di halaman 1dari 27

Sistemas de Ecuaciones Diferenciales Lineales

J. Albizuri, J.J. Anza, C. Bastero y M. Martnez -Nebreda

INTRODUCCIN
Este tema est dedicado a la discusin de sistemas de ecuaciones diferenciales ordinarias
simultneas. Dichos sistemas aparecen en problemas que tienen relacin con varias variables
dependientes que son funcin de la misma variable independiente.
Por ejemplo, las leyes de Newton.

donde m es la masa de la partcula, (x1, x2, x3) son sus coordenadas espaciales y F1, F2, F3 las
componentes de la fuerza actuante sobre la partcula en dicha posicin, que pueden ser funcin de
la posicin, de la velocidad y del tiempo.
Hay una importante conexin entre los sistemas de ecuaciones y las ecuaciones de orden
arbitrario. De hecho una ecuacin de orden n

(1)

puede ser reducida a un sistema de n ecuaciones diferenciales de primer orden con una forma
bastante particular. Para verlo se va a efectuar los siguientes cambios de variables, llamando

...

Entonces se puede reescribir (1) como

...

que es un sistema de n ecuaciones diferenciales de primer orden.


En el caso ms general un sistema de n ecuaciones diferenciales de primer orden tiene tiene la
forma:

...

Antes de proseguir ser necesario establecer en qu caso hay solucin del sistema y si sta es
nica. Para ello, se enuncia el siguiente teorema:
Teorema
Sean continuas en una regin R del espacio (n+1) dimensional

y tal que dicha regin contiene el punto


en el que hay solucin nica de la forma:

las funciones

. Entonces existe un intervalo

...

del sistema de ecuaciones diferenciales que satisface la condicin

...

Nota.- Es importante saber que este teorema da las condiciones suficientes para que haya
solucin, sin embargo, no establece las necesarias. Es decir, las condiciones son muy restrictivas y
puede encontrarse un sistema que sin cumplirlas totalmente tenga solucin nica.
Los sistemas se clasifican como las ecuaciones ordinarias. Pueden ser lineales y no lineales. Si las
funciones

tienen la forma

el sistema se dice lineal. Si no, es no lineal. Si


es cero en todas y cada una de las
ecuaciones, el sistema se dice homogneo; en caso contrario, no homogneo.
Para los sistemas lineales el teorema de existencia y unicidad de solucin es ms simple y con una
conclusin ms amplia. Es un teorema de existencia de solucin global, como en el caso de las
ecuaciones diferenciales ordinarias.
Si las funciones

son continuas en el intervalo abierto


<t<

que contiene al punto

, entonces existe una nica solucin al sistema de la forma:

...

que satisface las condiciones de valor inicial

...

Obsrvese que la existencia y unicidad de la solucin del sistema est asegurada en todo el
intervalo en que las funciones pij(t) y qi(t) son continuas a diferencia de los sistemas no-lineales en
los que la existencia y unicidad quedaba consignada en un subintervalo incluido en el de
continuidad de las funciones.

TEORIA BASICA DE LOS SISTEMAS LINEALES DE ECUACIONES DE


PRIMER ORDEN
Sea un sistema de n ecuaciones diferenciales lineales de 1 er orden

...

Utilizando notacin matricial el sistema se puede escribir

donde

y su derivada

Esta notacin, adems de simplificar la escritura, enfatiza el paralelismo entre los sistemas y las
ecuaciones diferenciales lineales de primer orden.
Se dice que un vector x = { (t)} es solucin del sistema si sus componentes satisfacen todas las
ecuaciones del sistema.
Supngase que P y q son continuos en un intervalo < t < . En primer lugar, se estudia la
ecuacin homognea

(1)

Una vez que esta ecuacin est resuelta se resolver la no-homognea.


Sean

soluciones especficas de la ecuacin homognea.


Teorema 1
Si

son soluciones del sistema (1), entonces

es solucin tambin, donde

son constantes arbitrarias.

Este es el principio de superposicin y se comprueba sin ms que diferenciar la solucin propuesta


y sustituirla en (1)

Aparentemente se pueden encontrar infinitas soluciones, por ello se debe cuestionar acerca del
nmero mnimo de soluciones independientes que generan todas y cada una de las soluciones del
sistema.
Por similitud a los temas previos se puede afirmar que habr n. Sean , , ......, . Considrese
la matriz formada por estos vectores columna -cada columna es uno de estos vectores-

Estas soluciones sern linealmente independientes en cada punto t del intervalo < t < si y slo
si el determinante es distinto de cero en ese punto. Al determinante de X se le llama wronskiano de
las n soluciones.
Teorema 2
Si las funciones vectoriales , , ......, son soluciones linealmente independientes del sistema
(1) en cada punto de < t < entonces la solucin del sistema { (t)} puede ser expresada como
una combinacin lineal de

, ......,

Para demostrarlo vase que con slo elegir adecuadamente los valores de las constantes se
puede obtener la solucin { (t)} que cumpla unas determinadas condiciones de contorno en un
punto

del intervalo
<t<

Sean estas condiciones

siendo

Si

Sustituyendo el valor

se obtienen n ecuaciones algebraicas de la forma:

Este sistema tiene solucin para las incgnitas


,
, ........,
si el determinante de los
coeficientes es distinto de cero. Como el wronskiano es distinto de cero -las funciones son
independientes- en el intervalo < t < , el determinante es distinto de cero. Por consiguiente hay
una nica solucin del sistema y

Llamando W(t) al wronskiano. Dicha funcin verifica la ecuacin diferencial.

que se conoce con el nombre de frmula de Abel.


Como

Derivando

pero

o empleando el convenio de Einstein de suma en ndices repetidos:

Por tanto

Por consiguiente se llega a que

Integrando se obtiene que

siendo K una constante de integracin.


Una vez realizada este clculo se puede estudiar otro teorema.
Teorema 3
Si

, ......,

son soluciones de

en el intervalo < t < entonces en este intervalo el wronskiano o es cero o nunca es cero.
La demostracin surge como una consecuencia de la frmula de Abel. Si las funciones
son
continuas en ( , ) la traza de la matriz P(t) es una funcin continua y por consiguiente la funcin
exponencial no se anula para valores de x pertenecientes al intervalo ( , ). El nico valor que
puede ser cero es la constante K. Si lo es, el wronskiano es cero para cualquier valor de x; en caso
contrario, nunca se anula.

Teorema 4
Si se llama

,
y las soluciones

, ......,

, ... ,

son tales que

donde t es cualquier punto en < t < , entonces , , ......, son conocidas como soluciones
fundamentales y cualquier solucin del sistema se puede expresar como una combinacin lineal de
estas soluciones fundamentales.
La demostracin es una consecuencia de lo visto en teoremas anteriores. Estas soluciones
fundamentales son linealmente independientes, ya que en un punto del intervalo su wronskiano es
distinto de cero; en concreto, vale uno. Al ser un conjunto de n soluciones linealmente
independientes constituye un conjunto generador de soluciones.

SISTEMA LINEAL HOMOGNEO CON COEFICIENTES CONSTANTES


En este apartado se construye la solucin general de un sistema de ecuaciones lineales
homogneas con coeficientes constantes.
Sea el sistema
x' = Ax
donde A es una matriz n x n. Por analoga a las ecuaciones lineales de primer orden con
coeficientes constantes, se busca una solucin de la forma

donde el vector a y el escalar r son constantes a determinar. Sustituyendo en la ecuacin


diferencial se llega a:

como

no es cero, se obtiene que

(A-rI)a = 0
donde I es la matriz identidad. Por tanto para resolver el sistema de ecuaciones diferenciales se ha
de obtener la solucin de un sistema algebraico. Precisamente ste es el problema de
determinacin de vectores y valores propios de la matriz A. Por tanto el vector

solucin del sistema viene definido por los valores r que son los autovalores de A y los vectores a
son sus autovectores asociados.
Ejemplo

Suponiendo

se llega a que

luego

Son soluciones:

y los autovectores asociados son:

Por tanto las soluciones son

El wronskiano es

que no es cero, por tanto, la solucin general es:

puesto de otra forma:

Para visualizar estos resultados se pueden representar en el plano


distintos valores de

las soluciones para

Volviendo al sistema original, los autovalores


de:

(puede haber races mltiples) son las races

det (A - rI) = 0
A) Sistema Hermtico:
La situacin ms simple se da cuando A es una matriz hermtica (una matriz que es igual a su
transpuesta conjugada; en el caso de ser de elementos reales, una matriz hermtica es sinnima de
simtrica). Como se sabe las races son todas reales. Aunque haya alguna repetida hay siempre un
conjunto de n autovectores
de modo que sean ortogonales.

linealmente independientes, que adems se pueden elegir

Por tanto las soluciones del sistema son:

...

Estas soluciones son linealmente independientes ya que su wronskiano es:

cada una de las columnas son los vectores propios, que son independientes entre s. Por
consiguiente su determinante es distinto de cero y como tambin lo es el factor exponencial que
aparece en la frmula anterior, entonces W 0. Las soluciones son linealmente independientes, y
la solucin general es:

B) Sistema no hermtico
Sea la matriz A de valores reales. Pueden presentarse varios casos:
1) n valores propios reales y distintos. Habr n vectores propios linealmente independientes. La
solucin adopta la forma del caso hermtico.
2) valores propios complejos
3) valores propios repetidos, tanto reales como complejos. Como no todos los valores propios
mltiples tienen tantos vectores asociados como el orden de su multiplicidad, necesitan una
consideracin especial.

Ejemplo del caso hermtico

El polinomio caracterstico de la matriz A es:

y sus races son

Con

luego

Con = -4

Solucin general:

puesto de otro modo

Es interesante estudiar el comportamiento de estas funciones en el plano de fases, es decir en el


plano cartesiano

Ejemplo 2

Los valores propios son -1 (doble) y 2.


Los vectores propios asociados:
a) al valor -1, los vectores (1,-1,0) y (1,1,-2)
b) al valor 2, el vector (1,1,1)
Por tanto la solucin es

AUTOVALORES COMPLEJOS

Sea la matriz real A -no hermticax' = A x


y entre los valores propios de A hay alguno complejo. Si A es real y

es complejo

Se puede observar que, calculando la conjugada se obtiene

ya que A e I son matrices reales. Esto significa que, siendo

un valor propio complejo, su

complejo conjugado
tambin es valor propio. Lgicamente los vectores propios asociados sern
complejos y entre s complejos conjugados.
Sea un valor propio complejo y
definen tambin una solucin. As,

su vector asociado, obviamente los valores conjugados

si

entonces

Y tambin ser solucin:

Por tanto -como se buscan soluciones reales-, son soluciones la parte real e imaginaria de las
antes vistas:

Ejemplo

Los valores propios son

Los vectores propios sern

es decir

Solucin:

La representacin en el plano de fases es:

AUTOVALORES REPETIDOS

Si el polinomio carcterstico de A no tiene n raices distintas, entonces A puede no tener n


autovectores linealmente independientes. Por ejemplo, la matriz

tiene solo dos autovalores distintos


por ejemplo

=1 y

=2 y dos autovectores linealmente independientes,

y
consecuentemente, la ecuacin diferencial
la forma

tiene solo dos soluciones independientes de

y
El problema, en este caso, es encontrar una tercera solucin linealmente independiente.
Supngase, en un caso general, que la matriz A nxn tiene solo k soluciones linealmente
independientes de la forma
. Se trata de encontrar n-k soluciones adicionales linealmente
independientes.
Teniendo en cuenta que la solucin de la ecuacin diferencial escalar x' = ax es x(t) = e atc, para
cualquier constante c, anlogamente, gustara comprobar que x(t) = eAtv es solucin de la
ecuacin diferencial vectorial x = Ax, para cualquier vector constante v. Hay una va natural de
definir eAt si A es una matriz nxn.

Se puede demostrar que esta serie infinita converge para todo t, y que se puede diferenciar trmino
a trmino. En particular

Esto implica que

es solucin para cualquier vector constante v, ya que

Nota: La funcin matricial,

y la funcin escalar

satisfacen muchas propiedades similares. Por ejemplo

y
sin embargo

Hay clases de matrices para las cuales la serie infinita antes definida, se puede sumar exactamente. En general, sin embargo, no
parece posible expresar

de una forma compacta. Aunque, lo ms remarcable es que siempre se pueden encontrar n

vectores v linealmente independientes para los cuales la serie infinita

se puede sumar exactamente. Adems, una vez que

se conocen n vectores linealmente independientes solucin del sistema, se puede calcular

exactamente.

Ahora se demuestra cmo se pueden calcular n vectores v linealmente independientes, para los
cuales la serie infinita
se puede sumar exactamente. Teniendo en cuenta que

para cualquier constante , ya que

, tenemos que

.
Por lo tanto,
.

Adems, si

, para algn m entero, entonces, la serie infinita

trunca en m trminos ya que si

, se

, entonces

consecuentemente,

Esto sugiere el siguiente algoritmo para encontrar n soluciones linealmente independientes de (1).

a.- Encontrar todos los autovalores y autovectores de A. Si A tiene exactamente n autovectores


independientes, entonces la ecuacin diferencial x' = Ax tiene n soluciones linealmente
independientes de la forma
trmino).

(En este caso la serie infinita

se trunca en un

b.- Si A tiene solo k < n autovectores linealmente independientes, entonces hay slo k soluciones
linealmente independientes de la forma
.Para obtener soluciones adicionales, para cada

autovalor de A, se obtendrn todo los vectores v tales que


. Para cada vector v se tendr que

pero

es una solucin adicional de x' = Ax.

c.- Si no se tienen suficientes soluciones, se calcularn todos los vectores tales


que

, pero que

. Para cada vector v se tendr que

es una solucin adicional de x' = Ax.


d.- Se proceder como en los apartados anteriores hasta obtener n soluciones linealmente
independientes.
Nota: El siguiente lema del lgebra lineal, que se acepta sin demostracin, garantiza el buen funcionamiento del algoritmo. Es ms,
establece un lmite superior de pasos que se efectuarn en el algoritmo.

Lema:
Sea el polinomio caracterstico de A con k races distintas

de multiplicidades

respectivamente. (Eso significa que p( ) se puede factorizar como


Si A tiene solo

tiene por lo menos

general, si la ecuacin

tiene solo
tiene por lo menos

Este lema implica que existe un entero


menos

.)

autovectores linealmente independientes asociados al autovalor

entonces la ecuacin

la ecuacin

...
,

soluciones independientes. En
soluciones independientes, entonces
soluciones independientes.

tal que la ecuacin

tiene por lo

soluciones linealmente independientes x' = Ax. Para cada una de ellas se tendr que

es una solucin de x' = Ax. En suma, se puede demostrar que el conjunto de


soluciones que se obtengan sern linealmente independientes.

MATRIZ FUNDAMENTAL DE UN SISTEMA

Supngase el sistema homogneo


x' = P(t)x
y sean
un conjunto linealmente independiente de soluciones. Este conjunto
genera mediante una apropiada combinacin lineal todas y cada una de las soluciones del
sistema. Se llama matriz fundamental de las soluciones de un sistema a la matriz cuyas columnas
son los vectores
soluciones. Represe que, como son soluciones linealmente independientes, el
determinante de dicha matriz (que es el wronskiano) es distinto de cero.

Supngase ahora que se busca la solucin que verifica

entonces

para obtener

basta con darse cuenta que

C es el vector columna de los {

}. Como

, entonces se puede determinar el

vector C mediante la matriz inversa de la ( ), es decir

Luego la solucin particular buscada es

A veces es conveniente hacer uso de las soluciones, que se han llamado anteriormente con el
nombre de fundamentales

Este conjunto especial de soluciones fundamentales van a definir una matriz que se le va a
llamar (t)

Obviamente

A continuacin se demostrar que


fundamental del sistema

puede computarse directamente a partir de cualquier matriz

es decir para el caso particular en que P(t)=A matriz de coeficientes constantes. Para ello, es
preciso demostrar algunos resultados previos.
Teorema
Una matriz (t) es una matriz fundamental del sistema:

si y slo si
.
Adems si
Demostracin:

es matriz fundamental, entonces

Al ser (t) una matriz fundamental, sus columnas

verifican el sistema:

pero entonces:

y como (t) es una matriz fundamental, entonces es regular

La funcin matricial
sistema

y en particular para t=0.

es una matriz fundamental solucin del

Demostracin:

Se ha visto visto antes que

. Por lo tanto

es solucin del sistema

y es matriz fundamental. Adems

Sean
y
dos matrices fundamentales solucin del sistema
una matriz constante C tal que

. Entonces existe

Demostracin:
Por definicin las columnas

de

y las columnas

de

son conjuntos

de soluciones linealmente independientes del sistema. En particular cada columna de


puede expresar como combinacin lineal de las n columnas de
constantes

tal que la columna j-sima de

; esto es, existirn

ser

Sea C la matriz constante que tiene por columnas estos vectores constantes

:o

se

Las ecuaciones anteriores son equivalentes a la ecuacin matricial


cuenta estos tres lemas podemos ya enunciar el resultado siguiente:

Sea (t) cualquier matriz fundamental solucin del sistema


Entonces
evaluada en t = 0 conduce a

. Teniendo en

, es decir el producto de cualquier matriz fundamental por su inversa


.

Demostracin: Teniendo en cuenta lo anterior, existir una matriz constante C tal que:

Pero evaluando esta expresin en t=0, como

(c.q.d.)

SISTEMAS NO HOMOGNEOS

Sea el sistema

Supngase resuelto el sistema homogneo

y llmese (t) a la matriz fundamental de las soluciones. Se van a distinguir distintos casos:
A) Si P(t) = A, matriz constante diagonalizable.

Llamando T a la matriz de los vectores propios de A y haciendo el cambio de variable


x = Ty
resulta

Como T es no singular

pero

(matriz diagonal de los valores propios)


Por consiguiente

en componentes

(no hay suma en ndices repetidos)


Luego

Deshaciendo el cambio de variable


x = Ty

B) Variacin de los parmetros


Conocida (t), matriz fundamental de la ecuacin homognea se busca una solucin de la forma

u debe ser determinado de modo que el vector x sea solucin del sistema.
x' = P(t)x + Q(t)

Sustituyendo

pero

ya que las columnas de j son solucin de la homognea. Luego

Luego la solucin general ser