INTRODUCCIN
Este tema est dedicado a la discusin de sistemas de ecuaciones diferenciales ordinarias
simultneas. Dichos sistemas aparecen en problemas que tienen relacin con varias variables
dependientes que son funcin de la misma variable independiente.
Por ejemplo, las leyes de Newton.
donde m es la masa de la partcula, (x1, x2, x3) son sus coordenadas espaciales y F1, F2, F3 las
componentes de la fuerza actuante sobre la partcula en dicha posicin, que pueden ser funcin de
la posicin, de la velocidad y del tiempo.
Hay una importante conexin entre los sistemas de ecuaciones y las ecuaciones de orden
arbitrario. De hecho una ecuacin de orden n
(1)
puede ser reducida a un sistema de n ecuaciones diferenciales de primer orden con una forma
bastante particular. Para verlo se va a efectuar los siguientes cambios de variables, llamando
...
...
...
Antes de proseguir ser necesario establecer en qu caso hay solucin del sistema y si sta es
nica. Para ello, se enuncia el siguiente teorema:
Teorema
Sean continuas en una regin R del espacio (n+1) dimensional
las funciones
...
...
Nota.- Es importante saber que este teorema da las condiciones suficientes para que haya
solucin, sin embargo, no establece las necesarias. Es decir, las condiciones son muy restrictivas y
puede encontrarse un sistema que sin cumplirlas totalmente tenga solucin nica.
Los sistemas se clasifican como las ecuaciones ordinarias. Pueden ser lineales y no lineales. Si las
funciones
tienen la forma
...
...
Obsrvese que la existencia y unicidad de la solucin del sistema est asegurada en todo el
intervalo en que las funciones pij(t) y qi(t) son continuas a diferencia de los sistemas no-lineales en
los que la existencia y unicidad quedaba consignada en un subintervalo incluido en el de
continuidad de las funciones.
...
donde
y su derivada
Esta notacin, adems de simplificar la escritura, enfatiza el paralelismo entre los sistemas y las
ecuaciones diferenciales lineales de primer orden.
Se dice que un vector x = { (t)} es solucin del sistema si sus componentes satisfacen todas las
ecuaciones del sistema.
Supngase que P y q son continuos en un intervalo < t < . En primer lugar, se estudia la
ecuacin homognea
(1)
Aparentemente se pueden encontrar infinitas soluciones, por ello se debe cuestionar acerca del
nmero mnimo de soluciones independientes que generan todas y cada una de las soluciones del
sistema.
Por similitud a los temas previos se puede afirmar que habr n. Sean , , ......, . Considrese
la matriz formada por estos vectores columna -cada columna es uno de estos vectores-
Estas soluciones sern linealmente independientes en cada punto t del intervalo < t < si y slo
si el determinante es distinto de cero en ese punto. Al determinante de X se le llama wronskiano de
las n soluciones.
Teorema 2
Si las funciones vectoriales , , ......, son soluciones linealmente independientes del sistema
(1) en cada punto de < t < entonces la solucin del sistema { (t)} puede ser expresada como
una combinacin lineal de
, ......,
Para demostrarlo vase que con slo elegir adecuadamente los valores de las constantes se
puede obtener la solucin { (t)} que cumpla unas determinadas condiciones de contorno en un
punto
del intervalo
<t<
siendo
Si
Sustituyendo el valor
Derivando
pero
Por tanto
, ......,
son soluciones de
en el intervalo < t < entonces en este intervalo el wronskiano o es cero o nunca es cero.
La demostracin surge como una consecuencia de la frmula de Abel. Si las funciones
son
continuas en ( , ) la traza de la matriz P(t) es una funcin continua y por consiguiente la funcin
exponencial no se anula para valores de x pertenecientes al intervalo ( , ). El nico valor que
puede ser cero es la constante K. Si lo es, el wronskiano es cero para cualquier valor de x; en caso
contrario, nunca se anula.
Teorema 4
Si se llama
,
y las soluciones
, ......,
, ... ,
donde t es cualquier punto en < t < , entonces , , ......, son conocidas como soluciones
fundamentales y cualquier solucin del sistema se puede expresar como una combinacin lineal de
estas soluciones fundamentales.
La demostracin es una consecuencia de lo visto en teoremas anteriores. Estas soluciones
fundamentales son linealmente independientes, ya que en un punto del intervalo su wronskiano es
distinto de cero; en concreto, vale uno. Al ser un conjunto de n soluciones linealmente
independientes constituye un conjunto generador de soluciones.
como
(A-rI)a = 0
donde I es la matriz identidad. Por tanto para resolver el sistema de ecuaciones diferenciales se ha
de obtener la solucin de un sistema algebraico. Precisamente ste es el problema de
determinacin de vectores y valores propios de la matriz A. Por tanto el vector
solucin del sistema viene definido por los valores r que son los autovalores de A y los vectores a
son sus autovectores asociados.
Ejemplo
Suponiendo
se llega a que
luego
Son soluciones:
El wronskiano es
det (A - rI) = 0
A) Sistema Hermtico:
La situacin ms simple se da cuando A es una matriz hermtica (una matriz que es igual a su
transpuesta conjugada; en el caso de ser de elementos reales, una matriz hermtica es sinnima de
simtrica). Como se sabe las races son todas reales. Aunque haya alguna repetida hay siempre un
conjunto de n autovectores
de modo que sean ortogonales.
...
cada una de las columnas son los vectores propios, que son independientes entre s. Por
consiguiente su determinante es distinto de cero y como tambin lo es el factor exponencial que
aparece en la frmula anterior, entonces W 0. Las soluciones son linealmente independientes, y
la solucin general es:
B) Sistema no hermtico
Sea la matriz A de valores reales. Pueden presentarse varios casos:
1) n valores propios reales y distintos. Habr n vectores propios linealmente independientes. La
solucin adopta la forma del caso hermtico.
2) valores propios complejos
3) valores propios repetidos, tanto reales como complejos. Como no todos los valores propios
mltiples tienen tantos vectores asociados como el orden de su multiplicidad, necesitan una
consideracin especial.
Con
luego
Con = -4
Solucin general:
Ejemplo 2
AUTOVALORES COMPLEJOS
es complejo
complejo conjugado
tambin es valor propio. Lgicamente los vectores propios asociados sern
complejos y entre s complejos conjugados.
Sea un valor propio complejo y
definen tambin una solucin. As,
si
entonces
Por tanto -como se buscan soluciones reales-, son soluciones la parte real e imaginaria de las
antes vistas:
Ejemplo
es decir
Solucin:
AUTOVALORES REPETIDOS
=1 y
y
consecuentemente, la ecuacin diferencial
la forma
y
El problema, en este caso, es encontrar una tercera solucin linealmente independiente.
Supngase, en un caso general, que la matriz A nxn tiene solo k soluciones linealmente
independientes de la forma
. Se trata de encontrar n-k soluciones adicionales linealmente
independientes.
Teniendo en cuenta que la solucin de la ecuacin diferencial escalar x' = ax es x(t) = e atc, para
cualquier constante c, anlogamente, gustara comprobar que x(t) = eAtv es solucin de la
ecuacin diferencial vectorial x = Ax, para cualquier vector constante v. Hay una va natural de
definir eAt si A es una matriz nxn.
Se puede demostrar que esta serie infinita converge para todo t, y que se puede diferenciar trmino
a trmino. En particular
y la funcin escalar
y
sin embargo
Hay clases de matrices para las cuales la serie infinita antes definida, se puede sumar exactamente. En general, sin embargo, no
parece posible expresar
exactamente.
Ahora se demuestra cmo se pueden calcular n vectores v linealmente independientes, para los
cuales la serie infinita
se puede sumar exactamente. Teniendo en cuenta que
, tenemos que
.
Por lo tanto,
.
Adems, si
, se
, entonces
consecuentemente,
Esto sugiere el siguiente algoritmo para encontrar n soluciones linealmente independientes de (1).
se trunca en un
b.- Si A tiene solo k < n autovectores linealmente independientes, entonces hay slo k soluciones
linealmente independientes de la forma
.Para obtener soluciones adicionales, para cada
pero
, pero que
Lema:
Sea el polinomio caracterstico de A con k races distintas
de multiplicidades
general, si la ecuacin
tiene solo
tiene por lo menos
.)
entonces la ecuacin
la ecuacin
...
,
soluciones independientes. En
soluciones independientes, entonces
soluciones independientes.
tiene por lo
soluciones linealmente independientes x' = Ax. Para cada una de ellas se tendr que
entonces
para obtener
}. Como
A veces es conveniente hacer uso de las soluciones, que se han llamado anteriormente con el
nombre de fundamentales
Este conjunto especial de soluciones fundamentales van a definir una matriz que se le va a
llamar (t)
Obviamente
es decir para el caso particular en que P(t)=A matriz de coeficientes constantes. Para ello, es
preciso demostrar algunos resultados previos.
Teorema
Una matriz (t) es una matriz fundamental del sistema:
si y slo si
.
Adems si
Demostracin:
verifican el sistema:
pero entonces:
La funcin matricial
sistema
Demostracin:
. Por lo tanto
Sean
y
dos matrices fundamentales solucin del sistema
una matriz constante C tal que
. Entonces existe
Demostracin:
Por definicin las columnas
de
y las columnas
de
son conjuntos
ser
Sea C la matriz constante que tiene por columnas estos vectores constantes
:o
se
. Teniendo en
Demostracin: Teniendo en cuenta lo anterior, existir una matriz constante C tal que:
(c.q.d.)
SISTEMAS NO HOMOGNEOS
Sea el sistema
y llmese (t) a la matriz fundamental de las soluciones. Se van a distinguir distintos casos:
A) Si P(t) = A, matriz constante diagonalizable.
Como T es no singular
pero
en componentes
u debe ser determinado de modo que el vector x sea solucin del sistema.
x' = P(t)x + Q(t)
Sustituyendo
pero