Sistemas de Ecuaciones Diferenciales Lineales

ã J. Albizuri, J.J. Anza, C. Bastero y M. Martínez -Nebreda

INTRODUCCIÓN

Este tema está dedicado a la discusión de sistemas de ecuaciones diferenciales ordinarias simultáneas. Dichos sistemas aparecen en problemas que tienen relación con varias variables dependientes que son función de la misma variable independiente.

Por ejemplo, las leyes de Newton.

donde m es la masa de la partícula, (x1, x2, x3) son sus coordenadas espaciales y F1, F2, F3 las componentes de la fuerza actuante sobre la partícula en dicha posición, que pueden ser función de la posición, de la velocidad y del tiempo.

Hay una importante conexión entre los sistemas de ecuaciones y las ecuaciones de orden arbitrario. De hecho una ecuación de orden n

(1)

puede ser reducida a un sistema de n ecuaciones diferenciales de primer orden con una forma bastante particular. Para verlo se va a efectuar los siguientes cambios de variables, llamando

...

Entonces se puede reescribir (1) como

...

que es un sistema de n ecuaciones diferenciales de primer orden.

En el caso más general un sistema de n ecuaciones diferenciales de primer orden tiene tiene la forma:

...

Antes de proseguir será necesario establecer en qué caso hay solución del sistema y si ésta es única. Para ello, se enuncia el siguiente teorema:

Teorema

Sean continuas en una región R del espacio (n+1) dimensional las funciones

y tal que dicha región contiene el punto . Entonces existe un intervalo en el que hay solución única de la forma:

...

del sistema de ecuaciones diferenciales que satisface la condición

...

Nota.- Es importante saber que este teorema da las condiciones suficientes para que haya solución, sin embargo, no establece las necesarias. Es decir, las condiciones son muy restrictivas y puede encontrarse un sistema que sin cumplirlas totalmente tenga solución única.

Los sistemas se clasifican como las ecuaciones ordinarias. Pueden ser lineales y no lineales. Si las funciones tienen la forma

el sistema se dice lineal. Si no, es no lineal. Si es cero en todas y cada una de las ecuaciones, el sistema se dice homogéneo; en caso contrario, no homogéneo.

Para los sistemas lineales el teorema de existencia y unicidad de solución es más simple y con una conclusión más amplia. Es un teorema de existencia de solución global, como en el caso de las ecuaciones diferenciales ordinarias.

Si las funciones y son continuas en el intervalo abierto

a < t < b

que contiene al punto , entonces existe una única solución al sistema de la forma:

...

que satisface las condiciones de valor inicial

...

Obsérvese que la existencia y unicidad de la solución del sistema está asegurada en todo el intervalo en que las funciones pij(t) y qi(t) son continuas a diferencia de los sistemas no-lineales en los que la existencia y unicidad quedaba consignada en un subintervalo incluido en el de continuidad de las funciones.

 

TEORIA BASICA DE LOS SISTEMAS LINEALES DE ECUACIONES DE PRIMER ORDEN

Sea un sistema de n ecuaciones diferenciales lineales de 1er orden

...

Utilizando notación matricial el sistema se puede escribir

donde

y su derivada

y

Esta notación, además de simplificar la escritura, enfatiza el paralelismo entre los sistemas y las ecuaciones diferenciales lineales de primer orden.

Se dice que un vector x = {f (t)} es solución del sistema si sus componentes satisfacen todas las ecuaciones del sistema.

Supóngase que P y q son continuos en un intervalo a < t < b . En primer lugar, se estudia la ecuación homogénea

(1)

Una vez que esta ecuación esté resuelta se resolverá la no-homogénea.

Sean

soluciones específicas de la ecuación homogénea.

Teorema 1

Si y son soluciones del sistema (1), entonces

es solución también, donde y son constantes arbitrarias.

Este es el principio de superposición y se comprueba sin más que diferenciar la solución propuesta y sustituirla en (1)

 

Aparentemente se pueden encontrar infinitas soluciones, por ello se debe cuestionar acerca del número mínimo de soluciones independientes que generan todas y cada una de las soluciones del sistema.

Por similitud a los temas previos se puede afirmar que habrá n. Sean ,, ......,. Considérese la matriz formada por estos vectores columna -cada columna es uno de estos vectores-

Estas soluciones serán linealmente independientes en cada punto t del intervalo a < t < b si y sólo si el determinante es distinto de cero en ese punto. Al determinante de X se le llama wronskiano de las n soluciones.

Teorema 2

Si las funciones vectoriales ,, ......, son soluciones linealmente independientes del sistema (1) en cada punto de a < t < b entonces la solución del sistema {f (t)} puede ser expresada como una combinación lineal de ,, ......,.

Para demostrarlo véase que con sólo elegir adecuadamente los valores de las constantes se puede obtener la solución {f (t)} que cumpla unas determinadas condiciones de contorno en un punto del intervalo

a < t < b

Sean estas condiciones

siendo

Si

Sustituyendo el valor se obtienen n ecuaciones algebraicas de la forma:

 

Este sistema tiene solución para las incógnitas , , ........, si el determinante de los coeficientes es distinto de cero. Como el wronskiano es distinto de cero -las funciones son independientes- en el intervalo a < t < b , el determinante es distinto de cero. Por consiguiente hay una única solución del sistema y

Llamando W(t) al wronskiano. Dicha función verifica la ecuación diferencial.

que se conoce con el nombre de fórmula de Abel.

Como

Derivando

pero

o empleando el convenio de Einstein de suma en índices repetidos:

Por tanto

Por consiguiente se llega a que

Integrando se obtiene que

siendo K una constante de integración.

Una vez realizada este cálculo se puede estudiar otro teorema.

Teorema 3

Si ,, ......, son soluciones de

en el intervalo a < t < b entonces en este intervalo el wronskiano o es cero o nunca es cero.

La demostración surge como una consecuencia de la fórmula de Abel. Si las funciones son continuas en (a ,b ) la traza de la matriz P(t) es una función continua y por consiguiente la función exponencial no se anula para valores de x pertenecientes al intervalo (a ,b ). El único valor que puede ser cero es la constante K. Si lo es, el wronskiano es cero para cualquier valor de x; en caso contrario, nunca se anula.

Teorema 4

Si se llama

, , ... ,

y las soluciones ,, ......, son tales que

donde t es cualquier punto en a < t < b , entonces ,, ......, son conocidas como soluciones fundamentales y cualquier solución del sistema se puede expresar como una combinación lineal de estas soluciones fundamentales.

La demostración es una consecuencia de lo visto en teoremas anteriores. Estas soluciones fundamentales son linealmente independientes, ya que en un punto del intervalo su wronskiano es distinto de cero; en concreto, vale uno. Al ser un conjunto de n soluciones linealmente independientes constituye un conjunto generador de soluciones.

 

SISTEMA LINEAL HOMOGÉNEO CON COEFICIENTES CONSTANTES

En este apartado se construye la solución general de un sistema de ecuaciones lineales homogéneas con coeficientes constantes.

Sea el sistema

x' = A·x

donde A es una matriz n x n. Por analogía a las ecuaciones lineales de primer orden con coeficientes constantes, se busca una solución de la forma

donde el vector a y el escalar r son constantes a determinar. Sustituyendo en la ecuación diferencial se llega a:

como no es cero, se obtiene que

o

(A-r·Ia = 0

donde I es la matriz identidad. Por tanto para resolver el sistema de ecuaciones diferenciales se ha de obtener la solución de un sistema algebraico. Precisamente éste es el problema de determinación de vectores y valores propios de la matriz A. Por tanto el vector

solución del sistema viene definido por los valores r que son los autovalores de A y los vectores a son sus autovectores asociados.

Ejemplo

Suponiendo

se llega a que

luego

Son soluciones:

y

y los autovectores asociados son:

Por tanto las soluciones son

y

El wronskiano es

que no es cero, por tanto, la solución general es:

puesto de otra forma:

Para visualizar estos resultados se pueden representar en el plano las soluciones para distintos valores de y .

Volviendo al sistema original, los autovalores (puede haber raíces múltiples) son las raíces de:

det (A - r·I) = 0

A) Sistema Hermítico:

La situación más simple se da cuando A es una matriz hermítica (una matriz que es igual a su transpuesta conjugada; en el caso de ser de elementos reales, una matriz hermítica es sinónima de simétrica). Como se sabe las raíces son todas reales. Aunque haya alguna repetida hay siempre un conjunto de n autovectores linealmente independientes, que además se pueden elegir de modo que sean ortogonales.

Por tanto las soluciones del sistema son:

...

Estas soluciones son linealmente independientes ya que su wronskiano es:

cada una de las columnas son los vectores propios, que son independientes entre sí. Por consiguiente su determinante es distinto de cero y como también lo es el factor exponencial que aparece en la fórmula anterior, entonces W ¹ 0. Las soluciones son linealmente independientes, y la solución general es:

B) Sistema no hermítico

Sea la matriz A de valores reales. Pueden presentarse varios casos:

1) n valores propios reales y distintos. Habrá n vectores propios linealmente independientes. La solución adopta la forma del caso hermítico.

2) valores propios complejos

3) valores propios repetidos, tanto reales como complejos. Como no todos los valores propios múltiples tienen tantos vectores asociados como el orden de su multiplicidad, necesitan una consideración especial.

 

Ejemplo del caso hermítico

El polinomio característico de la matriz A es:

y sus raíces son

Con :

luego

 

Con l = -4

Solución general:

 

puesto de otro modo

Es interesante estudiar el comportamiento de estas funciones en el plano de fases, es decir en el plano cartesiano .

Ejemplo 2

Los valores propios son -1 (doble) y 2.

Los vectores propios asociados:

a) al valor -1, los vectores (1,-1,0) y (1,1,-2)

b) al valor 2, el vector (1,1,1)

Por tanto la solución es

 

 

AUTOVALORES COMPLEJOS

 

Sea la matriz real A -no hermítica-

x' = A· x

y entre los valores propios de A hay alguno complejo. Si A es real y es complejo

Se puede observar que, calculando la conjugada se obtiene

ya que A e I son matrices reales. Esto significa que, siendo un valor propio complejo, su complejo conjugado también es valor propio. Lógicamente los vectores propios asociados serán complejos y entre sí complejos conjugados.

Sea un valor propio complejo y su vector asociado, obviamente los valores conjugados y definen también una solución. Así,

si

entonces

Y también será solución:

 

Por tanto -como se buscan soluciones reales-, son soluciones la parte real e imaginaria de las antes vistas:

 

Ejemplo

Los valores propios son

Los vectores propios serán

es decir

y

Solución:

La representación en el plano de fases es:

AUTOVALORES REPETIDOS

 

Si el polinomio carácterístico de A no tiene n raices distintas, entonces A puede no tener n autovectores linealmente independientes. Por ejemplo, la matriz

tiene solo dos autovalores distintos =1 y =2 y dos autovectores linealmente independientes, por ejemplo

y

consecuentemente, la ecuación diferencial tiene solo dos soluciones independientes de la forma

y

El problema, en este caso, es encontrar una tercera solución linealmente independiente. Supóngase, en un caso general, que la matriz A nxn tiene solo k soluciones linealmente independientes de la forma . Se trata de encontrar n-k soluciones adicionales linealmente independientes.

Teniendo en cuenta que la solución de la ecuación diferencial escalar x' = a·x es x(t) = eat·c, para cualquier constante c, análogamente, gustaría comprobar que x(t) = eAt·v es solución de la ecuación diferencial vectorial x´ = A·x, para cualquier vector constante v. Hay una vía natural de definir eAt si A es una matriz nxn.

 

Se puede demostrar que esta serie infinita converge para todo t, y que se puede diferenciar término a término. En particular

Esto implica que es solución para cualquier vector constante v, ya que

Nota: La función matricial, y la función escalar satisfacen muchas propiedades similares. Por ejemplo

y

sin embargo

Hay clases de matrices para las cuales la serie infinita antes definida, se puede sumar exactamente. En general, sin embargo, no parece posible expresar de una forma compacta. Aunque, lo más remarcable es que siempre se pueden encontrar n vectores v linealmente independientes para los cuales la serie infinita se puede sumar exactamente. Además, una vez que se conocen n vectores linealmente independientes solución del sistema, se puede calcular exactamente.

Ahora se demuestra cómo se pueden calcular n vectores v linealmente independientes, para los cuales la serie infinita se puede sumar exactamente. Teniendo en cuenta que

para cualquier constante l , ya que , tenemos que

.

Por lo tanto,

.

 

Además, si , para algún m entero, entonces, la serie infinita , se trunca en m términos ya que si , entonces

consecuentemente,

y

Esto sugiere el siguiente algoritmo para encontrar n soluciones linealmente independientes de (1).

 

a.- Encontrar todos los autovalores y autovectores de A. Si A tiene exactamente n autovectores independientes, entonces la ecuación diferencial x' = A·x tiene n soluciones linealmente independientes de la forma (En este caso la serie infinita se trunca en un término).

 

b.- Si A tiene solo k < n autovectores linealmente independientes, entonces hay sólo k soluciones linealmente independientes de la forma .Para obtener soluciones adicionales, para cada autovalor l de A, se obtendrán todo los vectores v tales que pero . Para cada vector v se tendrá que

es una solución adicional de x' = A·x.

 

c.- Si no se tienen suficientes soluciones, se calcularán todos los vectores tales que , pero que . Para cada vector v se tendrá que

es una solución adicional de x' = A·x.

d.- Se procederá como en los apartados anteriores hasta obtener n soluciones linealmente independientes.

Nota: El siguiente lema del álgebra lineal, que se acepta sin demostración, garantiza el buen funcionamiento del algoritmo. Es más, establece un límite superior de pasos que se efectuarán en el algoritmo.

Lema:

Sea el polinomio característico de A con k raíces distintas de multiplicidades respectivamente. (Eso significa que p(l ) se puede factorizar como ....)

Si A tiene solo autovectores linealmente independientes asociados al autovalor , entonces la ecuación tiene por lo menos soluciones independientes. En general, si la ecuación tiene solo soluciones independientes, entonces la ecuación tiene por lo menos soluciones independientes.

 

Este lema implica que existe un entero tal que la ecuación tiene por lo menos soluciones linealmente independientes x' = A·x. Para cada una de ellas se tendrá que

es una solución de x' = A·x. En suma, se puede demostrar que el conjunto de soluciones que se obtengan serán linealmente independientes.

 

 

MATRIZ FUNDAMENTAL DE UN SISTEMA

 

Supóngase el sistema homogéneo

x' = P(t)·x

y sean un conjunto linealmente independiente de soluciones. Este conjunto genera ¾ mediante una apropiada combinación lineal¾ todas y cada una de las soluciones del sistema. Se llama matriz fundamental de las soluciones de un sistema a la matriz cuyas columnas son los vectores soluciones. Repárese que, como son soluciones linealmente independientes, el determinante de dicha matriz (que es el wronskiano) es distinto de cero.

 

 

Supóngase ahora que se busca la solución que verifica

entonces

 

para obtener basta con darse cuenta que

C es el vector columna de los {}. Como , entonces se puede determinar el vector C mediante la matriz inversa de la Y (), es decir

Luego la solución particular buscada es

A veces es conveniente hacer uso de las soluciones, que se han llamado anteriormente con el nombre de fundamentales

Este conjunto especial de soluciones fundamentales van a definir una matriz que se le va a llamar f (t)

Obviamente

 

A continuación se demostrará que puede computarse directamente a partir de cualquier matriz fundamental del sistema

es decir para el caso particular en que P(t)=A matriz de coeficientes constantes. Para ello, es preciso demostrar algunos resultados previos.

Teorema

· Una matriz Y (t) es una matriz fundamental del sistema:

si y sólo si

.

Además si es matriz fundamental, entonces .

Demostración:

Al ser Y (t) una matriz fundamental, sus columnas verifican el sistema:

pero entonces:

y como Y (t) es una matriz fundamental, entonces es regular y en particular para t=0.

· La función matricial es una matriz fundamental solución del sistema

 

Demostración:

Se ha visto visto antes que . Por lo tanto es solución del sistema y es matriz fundamental. Además y .

 

 

· Sean y dos matrices fundamentales solución del sistema . Entonces existe una matriz constante C tal que

Demostración:

Por definición las columnas de y las columnas de son conjuntos de soluciones linealmente independientes del sistema. En particular cada columna de se puede expresar como combinación lineal de las n columnas de ; esto es, existirán constantes tal que la columna j-ésima de será

Sea C la matriz constante que tiene por columnas estos vectores constantes :o

Las ecuaciones anteriores son equivalentes a la ecuación matricial . Teniendo en cuenta estos tres lemas podemos ya enunciar el resultado siguiente:

 

· Sea Y (t) cualquier matriz fundamental solución del sistema . Entonces , es decir el producto de cualquier matriz fundamental por su inversa evaluada en t = 0 conduce a .

 

Demostración: Teniendo en cuenta lo anterior, existirá una matriz constante C tal que:

Pero evaluando esta expresión en t=0, como

Þ Þ

(c.q.d.)

 

 

SISTEMAS NO HOMOGÉNEOS

 

Sea el sistema

Supóngase resuelto el sistema homogéneo

y llámese Y (t) a la matriz fundamental de las soluciones. Se van a distinguir distintos casos:

A) Si P(t) = A, matriz constante diagonalizable.

Llamando T a la matriz de los vectores propios de A y haciendo el cambio de variable

x = T·y

resulta

Como T es no singular

pero

(matriz diagonal de los valores propios)

Por consiguiente

en componentes

(no hay suma en índices repetidos)

Luego

Deshaciendo el cambio de variable

x = T·y

 

B) Variación de los parámetros

Conocida Y (t), matriz fundamental de la ecuación homogénea se busca una solución de la forma

u debe ser determinado de modo que el vector x sea solución del sistema.

x' = P(t)·x + Q(t)

Sustituyendo

pero

ya que las columnas de j son solución de la homogénea. Luego

Luego la solución general será