Sistemas de ecuaciones diferenciales lineales con coeficientes constantes

Lecci´ on 9 Sistemas de ecuaciones diferenciales lineales con coeficientes constantes 9.1. Introducci´ on En esta lecci´on estudiaremos una forma

42 downloads 193 Views 200KB Size

Recommend Stories

Story Transcript

Lecci´ on 9

Sistemas de ecuaciones diferenciales lineales con coeficientes constantes

9.1.

Introducci´ on

En esta lecci´on estudiaremos una forma de obtener anal´ıticamente las soluciones de los sistemas lineales de primer orden y de coeficientes constantes. Trataremos, por lo tanto, con sistemas de la forma x0 = Ax + b(t) (9.1) siendo A una matriz de tama˜ no n×n de n´ umeros reales y b(t) la funci´on vectorial de t´erminos independientes. La mayor´ıa de los ejemplos de la Lecci´on 8 eran sistemas de coeficientes constantes porque son los u ´nicos para los que disponemos de m´etodos anal´ıticos generales de resoluci´on. Conceptualmente, la parte importante corresponde al estudio de los sistemas homog´eneos: x0 = Ax.

(9.2)

La soluci´on de los sistemas no homog´eneos se obtiene de la de ´estos aplicando el m´etodo de variaci´on de las constantes; m´etodo que ya discutimos para las ecuaciones lineales no homog´eneas. Nos centramos, entonces, en los sistemas homog´eneos. 145

146

Sistemas de ecuaciones diferenciales lineales con coeficientes constantes

Tal y como indicamos en la Lecci´on 8 el objetivo es encontrar un sistema fundamental de soluciones del sistema (9.2), o equivalentemente, una matriz fundamental de soluciones. La idea que nos dirige es muy simple, su realizaci´on un poco m´as complicada. La idea es la siguiente: para n = 1 el sistema se convierte en una ecuaci´on: x0 = ax cuya soluci´on general conocemos de sobra: x(t) = ceat siendo c una constante arbitraria. Podr´ıamos decir que cualquier soluci´on de la ecuaci´on x0 = ax se obtiene como combinaci´on lineal de la soluci´on eat . Como adem´as, eat 6= 0 para todo t ∈ R, conclu´ımos que para n = 1, (eat ) es una matriz (de tama˜ no 1 × 1) fundamental de soluciones. Extrapolando esta idea a sistemas generales de dimensi´on n, podr´ıamos pensar que una matriz fundamental de soluciones del sistema x0 = Ax es X(t) = etA , y que, en consecuencia, la soluci´on general del sistema es x(t) = etA c siendo c un vector arbitrario. El problema es que si a es un n´ umero entonces sabemos lo que es ea , pero si A es A una matriz ¿qu´e es e ?. Veremos en la pr´oxima secci´on que se puede dar un significado muy preciso a la exponencial de una matriz y que X(t) = etA es, en efecto, una matriz fundamental de soluciones de x0 = Ax. El resto de la lecci´on la dedicaremos a calcular de forma expresa esta matriz y utilizarla para hallar soluciones anal´ıticas de los sistemas homog´eneos de ecuaciones lineales con coeficientes constantes.

9.2.

La exponencial de una matriz y soluciones de ecuaciones diferenciales

. Hay varias formas de calcular la exponencial de una matriz, ninguna de ellas obvia. Nosotros procederemos por analog´ıa con la definici´on de la exponencial de un n´ umero real

9.2 La exponencial de una matriz y soluciones de ecuaciones diferenciales

147

por medio de una serie de potencias. Recordemos que si a es un n´ umero real cualquiera entonces ∞ X 1 2 1 3 1 k a e = 1 + a + a + a + ··· = a . 2! 3! k! k=0 En realidad esta es la forma que usan muchas calculadoras de bolsillo para calcular la exponencial de un n´ umero: realizan esta suma con un n´ umero grande de sumandos. Por analog´ıa definimos: Definici´ on 9.1 .- La exponencial de la matriz A, n × n, se define como ∞

X 1 1 1 e = In + A + A2 + A3 + · · · = Ak . 2! 3! k! k=0 A

(9.3)

En esta f´ormula A2 = AA es la matriz n×n que se obtiene multiplicando A por s´ı misma, A3 = AAA la que se obtiene multiplicando A por s´ı misma 3 veces, etc. Adem´as, por convenio, supondremosque A0 = In cualquiera que sea la matriz A. Por lo tanto, todos los sumandos de la serie en la definici´on de eA son matrices de tama˜ no n × n. As´ı que eA , seg´ un esta definici´on, es una matriz n × n, siempre y cuando la serie converja. Que una serie infinita de matrices converge quiere decir que la sucesic´on de las sumas parciales N X 1 k SN = A k! k=0 es convergente. De hecho, para cada N , SN es una matriz de tama˜ no n × n por lo que 2 est´a compuesta de n elementos. Decir que la sucesic´on {SN } converge quiere decir que las sucesiones de sus n2 elementos convergen. Lo que sucede es que estos elementos son expresiones muy complicadas que involucran los elementos de la matriz A, por lo que para estudiar la convergencia de la sucesi´on de sumas parciales {SN } se emplean m´etodos que est´an muy lejos del alcance de este curso. As´ı que no nos preocuparemos de la convergencia y asumiremos que la serie (9.3) es convergente cualquiera que sea la matriz A y define una u ´nica matriz que llamaremos exponencial de A. La exponencial de una matriz es dif´ıcil de calcular, pero hay un caso en el que no: Ejemplo 9.2 .- Calc´ ulese la exponencial de la matriz µ ¶ a1 0 A= . 0 a2

148

Sistemas de ecuaciones diferenciales lineales con coeficientes constantes

Puesto que A es diagonal, sus potencias son muy f´aciles de hallar: µ ¶µ ¶ µ 2 ¶ a1 0 a1 0 a1 0 2 A =A·A= = , 0 a2 0 a2 0 a22 µ 2 ¶µ ¶ µ 3 ¶ a1 0 a1 0 a1 0 3 2 A =A ·A= = , 0 a22 0 a2 0 a32 y as´ı sucesivamente. Por consiguiente A2 A3 + + ··· = eA = I + A + µ ¶ 2! µ 3!2 ¶ µ ¶ 1 a31 0 1 a1 0 1 0 + + ··· = = + 2! 0 a22 3! 0 a32 Ã0 1 ! a2 a3 1 + a1 + 2!1 + 3!1 + · · · 0 = = a22 a32 0 1 + a + + + · · · 2 2! 3! µ a ¶ e1 0 = . 0 ea2 En este ejemplo no hay, evidentemente, nada especial sobre la dimensi´on, 2, de la matriz. Lo mismo es v´alido para matrices cuadradas de cualquier tama˜ no: La exponencial de una matriz diagonal, A, de orden n es la matriz diagonal de orden n cuyos elementos diagonales son las exponenciales de los elementos diagonales de A. En particular, si A = aIn entonces   ea 0 · · · 0  0 ea · · · 0    eaIn =  (9.4)  = ea In . ...   0 0 · · · ea Y cuando a = 0 e0In = e0 In = In .

(9.5)

Esto es, la exponencial de la matriz cero de orden n es la matriz identidad del mismo orden. Este hecho lo utilizaremos m´as adelante para probar que eA es una matriz invertible cualquiera que sea la matriz A. Esto ser´a necesario para demostrar que etA es una matriz fundamental de soluciones del sistema x0 = Ax. Por ahora concretemos c´omo es la expresi´on de etA como una serie de potencias: etA = In + tA +

1 2 2 1 3 3 t A + t A + ··· . 2! 3!

Para cada valor de t, etA es una matriz n × n. As´ı pues, debemos considerar etA como una funci´on de t ∈ R cuyos valores son matrices n × n. Esto es, en realidad, una peque˜ na generalizaci´on de las funciones vectoriales.

9.2 La exponencial de una matriz y soluciones de ecuaciones diferenciales

149

Por otra parte, si v ∈ Rn es un vector de n componentes, entonces etA v es tambi´en un vector de Rn . La siguiente proposici´on nos dice que X(t) = etA es una matriz de soluciones del sistema x0 = Ax. Adem´as nos da una expresi´on para la soluci´on del problema de condiciones iniciales: Proposici´ on 9.3 .- Ses A una matriz n × n. Entonces 1.

d tA e = AetA . dt

2. La funci´on vectorial x(t) = e(t−t0 )A x0 es la (´ unica) soluci´on del problema de condiciones iniciales ½ 0 x = Ax x(t0 ) = x0 Demostraci´ on.- Para probar la primera parte derivamos la serie de potencias: d t2 t3 d tA e = (In + tA + A2 + A3 + · · · ) = dt dt 2! 3! t 2 t2 3 = A + A + A + ··· = 2! 2 µ 1! ¶ t 2 = A In + tA + A + · · · = 2! = AetA Y para probar la segunda parte derivamos x(t) = e(t−t0 )A x0 : µ ¶ µ ¶ d d ¡ (t−t0 )A ¢ d (t−t0 )A d x(t) = e x0 = e x0 = ((t − t0 )A e(t−t0 )A x0 = Ax(t). dt dt dt dt As´ı que x(t) = e(t−t0 )A x0 es soluci´on del sistema x0 = Ax. Adem´as x(t0 ) = e(t0 −t0 )A x0 = e0·A x0 = In x0 = x0 , donde hemos usado que la exponencial de la matriz cero es la matriz identidad (9.5). Ya tenemos que X(t) = etA es una matriz de soluciones del sistema x0 = Ax. Ahora tenemos que demostrar que sus columnas son linealmente independeintes; es decir que det X(t0 ) 6= 0 para alg´ un valor de t. Veremos, que de hecho, det X(t) 6= 0 para todos los valores de t ∈ R. Para ello necesitamos las siguientes propiedades de la exponencial de una matriz:

150

Sistemas de ecuaciones diferenciales lineales con coeficientes constantes

Proposici´ on 9.4 .- Sean A y B matrices n × n. Entonces 1. A conmuta con eA ; es decir, AeA = eA A. 2. Si A y B conmutan (i.e., si AB = BA), entonces eA+B = eA eB 3. eA es no singular y su inversa es e−A . Demostraci´ on.- Para demostrar la primera parte utilizamos la definici´on de la exponencial de una matriz por serie de potencias: µ ¶ 1 2 1 3 A Ae = A In + A + A + A + · · · = 2! 3! 1 3 1 4 2 = A + A + A + A + ··· = 2! 3! µ ¶ 1 2 1 3 = In + A + A + A + · · · A = 2! 3! = eA A. La segunda parte es una propiedad muy importante de la exponencial. Nos dice que la regla que usamos frecuentemente acerca de que el producto de dos exponenciales es la exponencial de la suma, es v´alida para matrices siempre y cuando ´estas conmuten. Las demostra´ ciones anteriores han sido todas muy f´aciles. Esta requiere un poco m´as de trabajo pero no A B es tampoco dif´ıcil. Primero calculamos e e , despu´es eA+B y comprobamos que obtenemos, en ambos casos, el mismo resultado. Aplicamos repetidas veces la propiedad distributiva del producto y suma de matrices y, cuando es necesario, la hip´otesis de conmutatividad de A y B: µ ¶µ ¶ 1 2 1 3 1 2 1 3 A B e e = In + A + A + A + · · · In + B + B + B + · · · = 2! 3! 2! 3! 1 1 1 1 2 = In + (A + B) + (A + B 2 ) + AB + (A3 + B 3 ) + AB 2 + A2 B + · · · = 2! 3! 2! 2! 1 2 1 3 2 2 2 = In + (A + B) + (A + +2AB + B ) + (A + 3A B + 3AB + B 3 ) + · · · 2! 3! (9.6) Por otra parte en el desarrollo de eA+B en serie de potencias aparecen potencias de (A + B), pero (A + B)2 = (A + B)(A + B) = A2 + AB + BA + B 2 Como AB = BA tenemos que AB + BA = 2AB, de modo que (A + B)2 = A2 + 2AB + B 2 .

9.2 La exponencial de una matriz y soluciones de ecuaciones diferenciales

151

De la misma forma (A+B)3 = (A+B)2 (A+B) = (A2 +2AB+B 2 )(A+B) = A3 +A2 B+2ABA+2AB 2 +B 2 A+B 3 Y como A y B conmuta, ABA = A2 B y B 2 A = AB 2 . As´ı (A + B)3 = A3 + 3A2 B + 3AB 2 + B 3 Y as´ı sucesivamente. Por lo tanto 1 1 (A + B)2 + (A + B)3 + · · · = 2! 3! 1 2 1 = In + (A + B) + (A + 2AB + B 2 ) + (A3 + 3A2 B + 3AB 2 + B 3 ) + · · · 2! 3!

eA+B = In + (A + B) +

Esta expresi´on y la de (9.6)coinciden. Por lo tanto eA eB = eA+B tal y como quer´ıamos demostrar. En cuanto a la tercera parte, se deduce f´acilmente de la segunda. Puesto que A(−A) = (−A)A = −A2 , tenemos que eA e−A = eA−A = e0In = In , donde en la u ´ltima igualdad hemos utilizado la propiedad (9.5). Si aplicamos la tercera parte de esta Proposici´on a la matriz X(t) = etA , tenemos que para todo t ∈ R la matriz X(t) tiene inversa, y ´esta es X(t)−1 = e−tA . En efecto, X(t)X(t)−1 = etA e−tA = In y tambi´en X(t)−1 X(t) = In . Teniendo en cuenta que det In = 1 y aplicado que el determinante de un producto de matrices es el producto de los determinantes tenemos que det X(t) det X(t)−1 = 1, de donde conclu´ımos que det X(t) 6= 0 para todo t ∈ R. Como X(t) es una matriz cuyas columnas son, todas, soluciones del sistema x0 = Ax y det X(t) 6= 0 conclu´ımos que Corolario 9.5 .- La matriz X(t) = etA es una matriz fundamental de soluciones del sistema lineal homog´eneo de coeficientes constantes x0 = Ax. Y la soluci´on general de este sistema, escrita en forma vectorial, es x(t) = etA c siendo c ∈ Rn un vector arbitrario de n componentes.

152

Sistemas de ecuaciones diferenciales lineales con coeficientes constantes

Ya tenemos una matriz fundamental de soluciones: la exponencial de tA. Tambi´en tenemos la definici´on de la exponencial como un desarrollo en serie de potencias. Desde un punto de vista conceptual todo esto est´a muy bien.Ahora bien, si lo que queremos es encontrar expresiones anal´ıticas cerradas de las soluciones, el c´alculo de la exponencial a trav´es del desarrollo en serie de potencias no es muy pr´actico. Sin embargo veremos que utilizando ciertas propiedades de las matrices, este desarrollo en serie de potencias es muy u ´til para obtener expresiones anal´ıticas de las soluciones. Las propiedades de las matrices que necesitamos est´an relacionadas con los valores propios.

9.3.

Soluci´ on de sistemas diferenciales lineales de coeficientes constantes

9.3.1.

Matrices con un u ´ nico valor propio

Empecemos con un ejemplo de una matriz no diagonal. Ejemplo 9.6 .- C´alculese la exponencial etA siendo µ ¶ 1 4 A= . −1 −3 Si intent´aramos aplicar la definci´on de etA con esta matriz A no conseguir´ıamos gran cosa. Vamos a emplear un “truco” y despu´es diremos por qu´e este truco siempre va a funcionar bien para las matrices que son como la que nos dan en este ejemplo. ¿Qu´e tiene de especial esta matriz?, que s´olo tiene un valor propio. Calculemos sus valores propios: µ ¶ λ − 1 −4 det(λI2 − A) = det = λ2 + 2λ + 1) = (λ + 1)2 . 1 λ+3 As´ı que, en efecto, λ = −1 es su u ´nico valor propio con multiplicidad algebraica 2. Utilizando este valor propio vamos a escribir A de otra forma (este es el truco): A = λI2 − (λI2 − A). Como λI2 conmuta siempre con λI2 − A, tenemos que etA = eλtI2 −t(λI2 −A) = eλtI2 et(A−λI2 ) .

9.3 Soluci´on de sistemas diferenciales lineales de coeficientes constantes

153

Ahora recordemos que, (9.4), eλtI2 = eλt I2 . Usando, a dem´as la expansi´on en serie de potencias de et(A−λI2 ) , tenemos µ ¶ t3 t2 2 3 tA λt e =e I2 + t(A − λI2 ) + (A − λI2 ) + (A − λI2 ) + · · · . 2! 3! No parece que hayamos avanzado mucho, la expresi´on en el par´entesis parece a´ un m´as tA dif´ıcil que la que tendr´ıamos originalmente si hubieran expandido e en serie de potencias. Pero aqu´ı est´a la sorpresa: µ ¶ µ ¶µ ¶ µ ¶ 2 4 2 4 2 4 0 0 2 2 A−λI2 = A+I2 = y (A−λI2 ) = (A+I2 ) = = . −1 −2 −1 −2 −1 −2 0 0 De modo que (A − λI2 )3 = (A − λI2 )4 = · · · = 0. En definitiva

µ e

tA

λt

= e (I2 + t(A − λI2 )) = e

−t

1 + 2t 4t −t 1 − 2t



que es una expresi´on expl´ıcita y simple de la exponencial de tA. ¿Es realmente una casualidad que (A + I2 )2 = 0?. No, no lo es. Es una consecuencia de ´ un resultado general importante de Algebra Lineal; un teorema conocido con el nombre de Teorema de Hamilton-Cayley. Para entender lo que dice este teorema tenemos que darnos cuenta de lo siguiente: si en un polinomio, por ejemplo, p(λ) = 3λ2 − 2λ + 1, sustitu´ımos λ por una matriz cuadrada A, entonces obtenemos una matriz. En el ejemplo p(A) = 3 · A2 − 2 · A + 1 · A0 = 3 · A2 − 2 · A + In donde hemos utilizado el convenio A0 = In . Bien, pues el Teorema de Hamilton-Cayley nos dice que si en el polinomio caracater´ıstico de A, p(λ), sustitu´ımos λ por A obtenemos siempre la matriz cero; es decir, p(A) = 0. ¿Cu´al era el polinomio caracter´ıstico de la matriz del ejemplo? Era p(λ) = (λ + 1)2 . Si sustitu´ımos λ por A y aplicamos el Teorema de Hamilton-Cayley tenemos que (A + I2 )2 = 0. Pero el Teorema de Hamilton-Cayley se aplica a cualquier tipo de matrices. Entonces, si A es una matriz n × n y tiene un s´olo valor propio, digamos λ0 , su polinomio caracter´ıstico es (λ − λ0 )n . Por lo tanto (A − λ0 In )n = 0, y la expansi´on en serie de potencias de e(A−λ0 In )t tiene todos sus sumandos igual a cero a partir del n-´esimo. De hecho, puede suceder que los sumandos sean ceros antes del n-´esimo, pero con seguridad, a partir de ´este, todos los sumandos son cero. Estos comentarios son la base de la demostraci´on de la siguiente proposici´on que nos da una expresi´on expl´ıcita de las soluciones del sistema x0 = Ax cuando todos los valores porpios de A son iguales.

154

Sistemas de ecuaciones diferenciales lineales con coeficientes constantes

Proposici´ on 9.7 .- Supongamos que A es una matriz de tama˜ no n × n que tiene un u ´nico valor porpio λ. Entonces hay un n´ umero entero k ≤ n tal que µ ¶ t2 tk tA λt 2 k e =e In + t(A − λIn ) + (A − λIn ) + · · · + (A − λIn ) . 2! k! Una vez que disponemos de una expresi´on expl´ıcita de la matriz fundamental de soluciones, la expresi´on general de la soluci´on del sistema x0 = Ax se obtiene mediante la expresi´on x(t) = etA c siendo c un vector arbitrario de n componentes. En el caso particular n = 2 tenemos etA = eλt (I2 + t(A − λI2 )), la soluci´on general del sistema es x(t) = eλt (I2 + t(A − λI2 ))c, y la soluci´on general del problema de condiciones iniciales x0 = Ax, x(t0 ) = x0 x(t) = e(t−t0 )A x0 = eλ(t−t0 ) (I2 + (t − t0 )(A − λI2 ))x0 En el Ejemplo 9.6, si nos pidieran la soluci´on general del sistema x0 = Ax con µ ¶ 1 4 A= , −1 −3 ya hemos obtenido

µ tA

e

−t

=e

¶ 1 + 2t 4t . −t 1 − 2t

As´ı que la soluci´on general ser´ıa ¶ ¶µ ¶ µ µ (c1 (1 + 2t) + 4c2 t)e−t 4t c1 tA −t 1 + 2t . = x(t) = e c = e (−c1 t + c2 (1 − 2t))e−t c2 −t 1 − 2t µ ¶ 1 Y la soluci´on que en x(0) = ser´ıa 1 ¶ µ ¶µ ¶ µ 4t 1 (1 + 6t)e−t tA −t 1 + 2t x(t) = e x0 = e = (1 − 3t)e−t −t 1 − 2t 1 Resolvemos un u ´ltimo ejemplo antes de pasar a estudiar el caso general en el que la matriz pueda tener varios valores propios distintos

9.3 Soluci´on de sistemas diferenciales lineales de coeficientes constantes Ejemplo 9.8 .- Consideremos el sistema x0 = Ax,  0 −1 4 A= 4 −1 −1

155

donde  0 0 2

Calc´ ulese un sistema fundamental de soluciones y obt´engase la soluci´on general del sistema. La matriz de este sistema ya la estudiamos en el Ejemplo 8.15 de la Lecci´on 8. Vimos entonces que el polinomio caracter´ıstico de A era (λ − 2)3 , por lo que s´olo tiene una valor propio: λ = 2. La Proposici´on 9.7 nos asegura que hay un valor k ≤ 3 tal que (A − 2I3 )k = 0. Veamos cu´al es este valor:     0 0 0 −2 −1 0 0 0 y (A − 2I3 )3 = 0. 2 0 (A − 2I3 )2 =  0 A − 2I3 =  4 −2 −1 0 −1 −1 0 Por lo tanto etA

µ ¶ 2 t = e2t I3 + t(A − 2I3 ) + (A − 2I3 )2 = 2!   1 − 2t −t 0 2t  4t 1 + 2t 0 = e 2 2 −t − t −t − t /2 1

Un sistema fundamental de soluciones est´a formado por las columnas de la matriz etA . As´ı       1 − 2t −t 0 x1 (t) = e2t  4t  , x2 (t) = e2t  1 + 2t  , x3 (t) = e2t 0 −t − t2 −t − t2 /2 1 La soluci´on general del sistema ser´a    1 − 2t −t 0 c1 2t    4t 1 + 2t 0 c2  x(t) = e 2 2 −t − t −t − t /2 1 c3 o equivalentemente x(t) = c1 x1 (t) + c2 x2 (t) + c3 x3 (t). En cualquiera de los dos casos 

 c1 (1 − 2t) − c2 t . 4c1 t + c2 (1 + 2t) x(t) = e2t  2 2 c1 (−t − t ) + c2 (−t − t /2) + c3

156

Sistemas de ecuaciones diferenciales lineales con coeficientes constantes

9.3.2.

Matrices con m´ ultiples valores propios

La Proposici´on 9.7 es muy u ´til cuando la matriz del sistema tiene un solo valor propio, pero falla cuando tiene varios valores propios distintos. No obstante nos gustar´ıa disponer de un resultado similar. Algo que nos permita que los sumandos de la serie de potencias de e(A−λIn )t sean cero a partir de uno dado. La idea es la siguiente: sabemos que una matriz fundamental de soluciones del sistema x0 = Ax es etA . Pero hay muchas otras posibles. En realidad para conseguir una matriz fundamental de soluciones lo que necesitamos es un sistema fundamental de soluciones. Una forma de obtenerlo es a partir de n vectores v 1 , v 2 ,. . . , v n que sean linealmente independientes. En efecto, la matriz X(t) = etA V ¡ con V = v 1 v 2 · · ·

¢ v n tambi´en es una matriz fundamental de soluciones. Por una parte det X(t) = det etA det V 6= 0,

ya que det V 6= 0 por ser las columnas de V linealmente independientes. Adem´as X 0 (t) = AetA V = AX(t). Es decir, X(t) = etA V es una matriz de soluciones y su determinante es distinto de cero para todo t ∈ R. Esto es, es una matriz fundamental de soluciones. Ahora bien, entre todos los posibles sistemas de n vectores linealmente independientes, que son infinitos, nos iteresan aquellos que hagan que etA v sea expresable anal´ıticamente de forma sencilla. Resulta que los vectores propios asociados a los valores propios cumplen esta condici´on. En efecto, sea λ0 un valor propio de A y sea v 0 uno cualquier de sus vectores propios. Calculemos etA v 0 : etA v 0 = etλ0 In +t(A−λ0 In ) v 0 = n t(A−λ0 In ) = etλ0 Iµ e v0 =

t2 t3 2 = e In + t(A − λ0 In ) + (A − λ0 In ) + (A − λ0 In )3 + · · · 2! 3! µ ¶ 2 t λ0 t 2 = e v 0 + t(A − λ0 In )v 0 + (A − λ0 In ) v 0 + · · · 2! λ0 t

¶ v0 =

(9.7)

Ahora bien, v 0 es un vector porpio de A asociado a λ0 , se tiene que (λ0 In − A)v 0 = 0. Pero entonces (λ0 In − A)2 v 0 = (λ0 In − A)(λ0 In − A)v 0 = (λ0 In − A)0 = 0, (λ0 In − A)3 v 0 = 0 y as´ı sucesivamente. Por lo tanto etA v 0 = eλ0 t v 0 , expresi´on, que anal´ıticamente es muy simple. El siguiente ejemplo puede ayudar a clarificar estas ideas.

9.3 Soluci´on de sistemas diferenciales lineales de coeficientes constantes

157

Ejemplo 9.9 .- Encu´entrese un sistema fundamental de soluciones para el sistema x0 = Ax, donde   −1 2 1 A =  0 −1 0  −1 −3 −3 Calculamos los valores propios de A:   λ + 1 −2 −1 λ+1 0  = (λ + 1)(λ2 + 4λ + 4) = (λ + 1)(λ + 2)2 . det(λI3 − A) = det  0 1 3 λ+3 De modo que los valores propios de A son λ1 = −1 y λ2 = −2, el primero tiene multiplicidad algebraica 1 y el segundo tiene multiplicidad algebraica 2. Calculemos un vector propio para λ1 = −1:      0 −2 −1 v1 0 0  v2  = 0 . (λ1 I3 − A)v = 0 ⇔ (−1I3 − A)v = 0 ⇔ 0 0 1 3 2 v3 0 Claramente det((−1I3 − A) = 0, como debe ser, y la submatriz formada por las filas 1 y 3 y las columnas 1 y 2 es ¶ µ 0 −2 , 1 3 que tiene determinante distinto de cero. As´ı pues, rang(−2I3 − A) = 2 y la multiplicidad geom´etrica de λ1 = −1 es n − rang(−2I3 − A) = 1. Esto ya lo sab´ıamos despu´es de la Observaci´on 8.16 de la Lecci´on 8 porque este valor propio tiene multiplicidad algebraica 1. Utilizando la submatriz seleccionada, despejamos v1 y v2 en funci´on de v3 : ½ −2v2 = v3 ⇒ v1 = −v3 /2 y v2 = −v3 /2. v1 + 3v2 = −2v3 Tomando v3 = −2, tenemos que un vector propio asociado a λ1 = −1 es   1  1 v1 = −2 Tal y como hemos visto m´as arriba una soluci´on del sistema es x1 (t) = eλ1 t v 1 . En nuestro caso:   1 −t  1 . x1 = e −2

158

Sistemas de ecuaciones diferenciales lineales con coeficientes constantes

Hallamos ahora vectores propios linealmente independientes asociados a λ2 = −2 que tiene multiplicidad algebraica 2. ¿Cu´antos podemos encontrar?. Tantos como su multiplicidad geom´etrica. Calcul´emosla.   −1 −2 −1 λ2 I3 − A = −2I3 − A =  0 −1 0  1 3 1 Desde luego el determinante de esta matriz debe ser 0, y lo es porque tiene las columnas primera y tercera iguales. Adem´as, la submatriz de tama˜ no 2×2 formada por las dos primeras filas y columnas µ ¶ −1 −2 0 −1 tiene determinate distinto de cero. Esto significa que rang(−2I3 − A) = 2 y que la multiplicidad geom´etrica de λ2 = −2 es n − rang(−2I3 − A) = 3 − 2 = 1. En consecuencia el subespacio propio de A asociado al valor propio λ2 = −2 es 1 y no podemos encontrar dos vectores propios linealmente independientes asociados a este valor propio. Calculemos un vector propio. Usamos la submatriz seleccionada para despejar v1 y v2 en funci´on de v3 : ½ −v1 − 2v2 = v3 ⇒ v1 = −v3 y v2 = 0. −v2 = 0 Tomando v3 = −1, obtenemos un vector propio:   1 v2 =  0  . −1 Y con ´este, otra soluci´on del sistema  1 x2 (t) = e−2t  0  . −1 

Es claro que v 1 y v 2 son linealmente independientes. Es ´este un hecho que no tenemos ´ que comprobar en cada ejemplo porque hay un resultado general de Algebra Lineal que nos asegura que a valores propios distintos les corresponde vectores propios linealmente independientes. De esta forma, con seguridad, x1 (t) y x2 (t) son linealmente independientes. Pero necesitamos una tercera soluci´on que no podemos conseguir a base de vectores propios porque no hay m´as vectores propios linealmente independientes. Revisitamos la ecuaci´on (9.7). Conseguimos una buena expresi´on anal´ıtica de la soluci´on porque el vector propio hac´ıa que todos los sumando de la expansi´on en serie de potencias de et(A−λ0 In ) fueran cero a partir del segundo sumando (truncamiento de la serie a partir del segundo sumando). Para los

9.3 Soluci´on de sistemas diferenciales lineales de coeficientes constantes

159

dos valores propios de la matriz A de nuestro ejemplo ya no hay m´as vectores propios que produzcan este truncamiento de la serie. Pero puede haber otros vectores que produzcan el truncamiento a partir de alg´ un otro sumando. Esto s´olo puede suceder con valores propios cuya multiplicidad geom´etrica sea estrictamente menor que su multiplicidad algebraica. De ´ nuevo ´este es un resultado importante de Algebra Lineal que damos sin demostraci´on: Teorema 9.10 .- Si λ es un valor propio de A con multiplicidad algebraica q hay un entero p ≤ q tal que rang(λIn − A)p = n − q. Si aplicamos este Teorema a nuestro ejemplo y al valor propio λ1 = −1 tenemos que su multiplicidad algebraica es 1 (i.e. q = 1). Y hemos visto que rang(λ1 I3 − A) = 2. Por lo tanto p = 1. Sin embargo, para λ2 = −2 su multiplicidad algebraica es 2 y rang(λ2 I3 − A) = 2, de modo que p 6= 1, por lo que debe ser p = 2. En otras palabras, rang(λ2 I3 − A)2 = n − q = 3 − 2 = 1, y el sistema (λ2 I3 − A)2 v = 0 tiene dos soluciones linealmente independientes. Una de ellas es el vector propio, v 2 , asociado a λ2 = −2 porque como (λ2 I3 − A)v 2 = 0 tambi´en (λ2 I3 −A)2 v 2 = 0. El Teorema 9.10 nos asegura que hay otro vector linealmente independiente con v 2 que es soluci´on de (λ2 I3 − A)2 v = 0. Para hallarlo, calculamos   0 1 0 (λ2 I3 − A)2 = (−2I3 − A)2 = 0 1 0 , 0 −2 0 que, en efecto, tiene rango 1. Seleccionamos una submatriz no nula de tama˜ no 1 × 1, por ejemplo, la formada por el 1 en la posici´on (1, 2) y despejamos v2 en funci´on de v1 y v3 . En este caso, esto se reduce a la condici´on v2 = 0 porque v1 y v3 est´an, ambas, afectadas por coeficientes 0. As´ı la soluci´on general del sistema es   v1  v = 0. v3 Necesitamos un vector de esta forma pero que sea linealmente independiente con   1  0 . v2 = −1 Notamos que este vector corresponde a la soluci´on cuando se escoge v1 = 1 y v3 = −1. Para el restante vector linealmente independiente tenemos muchas posibles elecciones. Siempre es una buena idea escoger una muy simple; por ejemplo v1 = 1 y v3 = 0. No debemos

160

Sistemas de ecuaciones diferenciales lineales con coeficientes constantes

preocuparnos en absoluto de los vectores calculados para los dem´as valores propios: con seguridad, tal y como hemos mencionado m´as arriba, son linealmente independientes de ´estos. As´ı pues   1  v 3 = 0 . 0 Nos queda un u ´ltimo paso: calcular la soluci´on del sistema diferencial x0 = Ax correspondiente a este vector. Esta soluci´on es etA v 3 . Procediendo como en (9.7) µ ¶ t2 tA −2t 2 e v3 = e v 3 + t(A + 2I3 )v 3 + (A + 2I3 ) v 3 + · · · 2! Pero v 3 es soluci´on del sistema (−2I3 − A)2 v = 0. Por consiguiente (A + 2I3 )2 v 3 = 0 y lo mismo sucede con las siguientes potencias. Es decir x3 (t) = etA v 3 = = e−2t (v t(A + 2I3 )v 3 ) = 3+     1 1 2 1 1 1 0  0 = = e−2t 0 + t  0 −1 −3 −1 0  0  1+t = e−2t  0  −t Tal y como hemos visto en este ejemplo, cuando los valores propios tienen multiplicidad algebraica mayor que 1, podemos calcular soluciones adicionales buscando vectores que solucionen un sistema de la forma (λIn − A)p v = 0 para p > 1. El p necesario viene dado, seg´ un el Teorema 9.10, por la condici´on rang(λIn − A)p = n − q siendo q la multiplicidad algebraica del valor propio λ. A los vectores v que son soluci´on de un sistema de la forma (λIn − A)p v = 0 para alg´ un p > 1 se les llama vectores propios generalizados. Y al subespcio de vectores propios generalizados; esto es, el subespacio soluci´on del sistema (λIn − A)p v = 0, para p > 1, se le llama subespacio propio generalizado de A asociado al valor propio λ. Y el n´ umero n − rang(λIn − A)p , que nos da el n´ umero de soluciones linealmente independientes en el correspondiente subespacio generalizado, es la dimensi´ on del subespcio propio generalizado. A modo de resumen de todo lo visto hasta este momento exponemos un procedimiento en tres pasos para calcular q soluciones linealmente independientes correspondientes a un valor propio λ de multiplicidad algebraica q: 1 Encontrar el n´ umero entero m´as peque˜ no tal que rang(λIn − A)p = n − q.

9.3 Soluci´on de sistemas diferenciales lineales de coeficientes constantes

161

2 Hallar q vectores v 1 , v 2 ,. . . , v q , linealmente independientes que sean soluci´on del sistema (λIn − A)p v = 0. 3 Para cada vector v j , 1 ≤ j ≤ q tenemos la soluci´on xj (t) = etA v µj = ¶ 2 p−1 t t = eλt v j + t(A − λIn )v j + (A − λIn )2 v j + · · · + (A − λIn )p−1 v j . 2! (p − 1)! Los q vectores v 1 , v 2 ,. . . , v q del paso 2 es conveniente, aunque no imprescindible, escogerlos de la siguiente forma: Si para j = 1, . . . , p, rj = n − rang(λIn − A)j es la dimenci´on del subespcio de soluciones del sistema (λIn − A)j v = 0 (i.e., el n´ umero de posibles soluciones linealmente independientes) entonces se escogen r1 vectores linealmente independientes que sean soluci´on de (λIn − A)v = 0 (i.e., r1 vectores propios), a continuaci´on, r2 vectores linealmente independientes que sean soluci´on de (λIn − A)2 v = 0 y que sean linealmente independientes con los r1 ya previamente elegidos. A continuaci´on r3 vectores linealmente independientes que sean soluci´on de (λIn − A)3 v = 0 y que sean linealmente independientes con los r1 + r2 ya previamente elegidos. Y as´ı sucesivamente. Enseguida pondremos algunos ejemplos. El procedimiento en tres pasos descrito m´as arriba resuelve completamente el problema de calcular un conjunto fundamental de soluciones. S´olo es necesario llevar a cabo este procedimiento para cada valor propio. De esta forma, para cada valor propio, λj , de multiplicidad algebraica qj , encontramos qj soluciones del sistema x0 = Ax que son linealmente independientes. Si A tiene k valores propios distintos, la suma de sus multiplicidades algebraicas es n. Por lo tanto obtenemos q1 +· · ·+qk = n soluciones del sistema diferencial x0 = Ax. Admitiendo, sin demostraci´on, que a valores propios distintos corresponden soluciones linealmente independientes, obtenemos, de esta forma, un sistema fundamental de soluciones. Debemos observar que si el valor propio λ es un n´ umero real con multiplicidad algebraica q y xj (t) es una de las soluciones obtenidas por el procedimiento en tres pasos descrito m´as arriba, entonces µ ¶ t2 tp−1 λt 2 p−1 xj (t) = e v j + t(A − λIn )v j + (A − λIn ) v j + · · · + (A − λIn ) v j . 2! (p − 1)! Esta soluci´on es el producto de eλt y un polinomio de grado menor que q. Si el valor propio λ es un n´ umero complejo no real, digamos λ = α + iβ con β 6= 0 entonces tambi´en λ = α − iβ es valor propio de A (ver Anexo sobre los n´ umeros complejos). Los correspondientes vectores propios tienen la misma propiedad: si v = a + ib es un vector propio asociado a λ entonces v = a − ib es un vector propio asociado a λ. En efecto, como λ = α + iβ es valor propio de A y v = a + ib es un vector propio asociado a λ entonces

162

Sistemas de ecuaciones diferenciales lineales con coeficientes constantes

Aλ = λv. As´ı Av = A(a + ib) = Aa + iAb. Y por otra parte λv = (α + iβ)(a + ib) = αa − βb + i(αb + βa). Como Av = λv y dos n´ umeros complejos son iguales si coinciden sus partes reales e imaginarias, conclu´ımos que Aa = αa − βb y Ab = αb + βa. Pero entonces Av = Aa − iAb = αa − βb − i(αb + βa) = (α − iβ)(a − ib) = λv, tal y como dese´abamos probar. El procedimiento en tres pasos de m´as arriba aplicado a un valor propio complejo λ = α + iβ proporciona soluciones complejas conjugadas en pares. La aritm´etica con n´ umeros complejos, aunque conceptualmente igual que la de los n´ umeros reales, cuando se realiza a mano es un poco m´as costosa en tiempo. Tiene la ventaja que, como los valores propios aparecen en pares conjugados, s´olo hay que calcular los vectores propios y los vectores propios generalizados para uno de los dos valores propios conjugados. Los vectores propios y los generalizados del otro valor propio son los conjugados del primero. M´as abajo veremos un ejemplo para aclarar esta situaci´on. A partir de las soluciones complejas es f´acil conseguir soluciones reales. El procedimiento es el siguiente: 1 Encontrar el n´ umero entero m´as peque˜ no tal que rang(λIn − A)p = n − q. 2 Hallar q vectores w1 , w2 ,. . . , wq , linealmente independientes que sean soluci´on del sistema (λIn − A)p w = 0. Estos vectores ser´an, en general, complejos. 3 Para cada vector wj , 1 ≤ j ≤ q tenemos la soluci´on z j (t) = etA w µj = ¶ 2 p−1 t t = eλt wj + t(A − λIn )wj + (A − λIn )2 wj + · · · + (A − λIn )p−1 wj . 2! (p − 1)! Como λ es complejo y wj es complejo esta soluci´on es compleja. Para obtener soluciones reales tenemos que dar un paso m´as 4 Para 1 ≤ j ≤ q, ponemos x(t) = Rez j (t) (parte real de z j (t)) y y j (t) = Im z j (t) (parte imaginaria dez j (t)) . Estas soluciones ya son reales. Obteniendo as´ı 2q soluciones para los valores propios conjugados λ y λ.

9.3 Soluci´on de sistemas diferenciales lineales de coeficientes constantes

163

Empleando la f´ormula de Euler (ver Anexo sobre los n´ umeros complejos) cada una de las soluciones xj (t), y j (t) tiene la sigueinte forma: eαt [P (t) cos βt + Q(t) sen βt] siendo P y Q polinomios de grado menor que q. Concretamos todo este procedimiento en tres ejemplos Ejemplo 9.11 .- Encu´entrese un sistema fundamental de soluciones para el sistema x0 = Ax siendo   −1 −2 1 A =  0 −4 3 . 0 −6 5 El polinomio caracter´ıstico de A es det(λI3 − A) = λ3 − 3λ − 2 = (λ + 1)2 (λ − 2). Los valores propios son λ1 = 2 con multiplicidad algebraica q1 = 1 y λ2 = −1 con multiplicidad algebraica q2 = 2. Calculamos un vector propio para  3 0 0

λ1 = 2:   2 −1 v1   6 −3 v2  = 0. 6 −3 v3

Claramente det(2I3 − A) = 0 y su rango es 2 (como debe ser porque por ser q1 = 1, la multiplicidad geom´etrica tambi´en es 1). Una submatriz de tama˜ no 2 × 2 con determinante distinto de cero es ¶ µ 3 2 . 0 6 Usando esta submatriz despejamos v1 y v2 en funci´on de v3 obteniendo 1 v1 = 0 y v2 = v3 2 Tomando v3 = 2, un vector propio asociado a λ1 = 2 es   0  v 1 = 1 . 2

164

Sistemas de ecuaciones diferenciales lineales con coeficientes constantes

Y una soluci´on del sistema:

  0 x1 (t) = etA v 1 = e2t v 1 = e2t 1 . 2

Para el valor propio λ = −1 calculamos tantos vectores propios como podamos:    v1 0 2 −1 0 3 −3 v2  = 0. v3 0 6 −6

(9.8)

De nuevo det(−1I3 − A) = 0 y su rango es 2. Por lo tanto, la multiplicidad geom´etrica de λ2 = −1 es n − rang(−1I3 − A) = 3 − 2 = 1. La dimensi´on del subespacio propio es 1. No podemos encontrar dos vectores propios linealmente independientes. Debemos obtener un vector propio generalizado. Planteamos el sistema (−1I3 − A)2 v = 0:    0 0 0 v1 0 9 −9  v2  = 0 (9.9) 0 18 −18 v3 Ahora rang(−1I3 − A)2 = 1 y el espacio de soluciones del sistema (−1I3 − A)2 v = 0 es 2 = q2 . Podemos encontrar dos soluciones linealmente independientes. Una la calculamos como soluci´on del sistema (−1I3 − A)v = 0; i. e. un vector propio. Este sistema ya est´a planteado m´as arriba (9.8). Una submatriz 2 × 2 con determinante distinto de cero es, por ejemplo, µ ¶ 2 −1 , 3 −3 que corresponde a despejar v2 y v3 en funci´on de v1 . La soluci´on que se obtiene es v2 = 0 y v3 = 0. Tomando v1 = 1, un vector propio ser´a   1  v 1 = 0 0 Y una soluci´on del sistema x0 = Ax:

  1 tA −t −t   0 . x2 (t) = e v 2 = e v 2 = e 0

A continuaci´on resolvemos el sistema (9.9). Ya sabemos que el rango de la matriz de este sistema es 1. Una submatriz de tama˜ no 1 × 1 distinta de cero es, por ejemplo, la formada

9.3 Soluci´on de sistemas diferenciales lineales de coeficientes constantes

165

por el elemento en la posici´on (2, 2). As´ı despejamos v2 en funci´on de v1 y v3 en la segunda ecuaci´on 9v2 = 9v3 ⇒ v2 = v3 La soluci´on general de este sistema es   v1  v = v3  v3 debemos escoger un vector linealmente independientes con v 2 . Basta escoger v1 = 0 y v3 = 1, por ejemplo. As´ı, un vector propio generalizado asociado al valor propio λ2 = −1 es   0  v 3 = 1 1 Y la soluci´on correspondiente del sistema x0 = Ax es: x3 (t) = etA v 3 = = e−t (v t(A − λ2 I3 )v 3) =  3+  −1 0 −t    1 + t 0  = = e 0  1 −t = e−t  1  1 La soluci´on general del sistema ser´ıa 

 c2 e−t − c3 te−t x(t) = c1 x1 (t) + c2 x2 (t) + c3 x3 (t) =  c1 e2t + c3 e−t  2c1 e2t + c3 e−t Para sistemas de dimensi´on n ≤ 3 se pueden hacer las operaciones a mano. Para sistemas de dimensi´on mayor, el trabajo se convierte en tedioso y conceptualmente no aporta nada nuevo. Por ello es recomendable el uso del ordenador para calcular los valores y vectores propios. Recordemos que en la p´agina http://wims.unice.fr/wims/ se proporciona los programa Matrix Calculator, Factoris, Matrix Multiplier y Solucionador de sistemas lineales, que nos permiten calcular los valores y vectores propios (incluso los generalizados) de una matriz. Explicaremos c´omo hacer esto u ´ltimo en el siguiente ejemplo.

166

Sistemas de ecuaciones diferenciales lineales con coeficientes constantes

Ejemplo 9.12 .- H´allese un sistema fundamental de soluciones y la soluci´on general del sistema x0 = Ax, siendo   7 5 −3 2 0 1 0 0  A=  12 10 −5 4  −4 −4 2 −1 La matriz del sistema es la misma que la del Ejemplo 8.18 de la Lecci´on 8 para la que obtuvimos el siguiente resultado: tiene dos valores propios λ1 = −1 de multiplicidad algebraica q1 = 1 y λ2 = 1 de multiplicidad algebraica q2 = 3. Para el primero tenemos el vector propio   1 0  v1 =   2 . −1 con lo que una soluci´on del sistema x0 = Ax asociada a este valor propio es:   1  0  x1 (t) = etA v 1 = eλ1 t v 1 = e−t v 1 = e−t   2 . −1 Para el segundo valor propio tenemos dos vectores propios (usamos los proporcionados por el sistema WIMS):     1 0 0 1    v2 =  2 y v 3 =  1  . 0 −1 Esto indica que la multiplicidad geom´etrica del valor propio λ2 = 1 es 2. Como su multiplicidad algebraica es 3, necesitamos un vector propio generalizado. Pero podemos dar ya dos soluciones del sistema de ecuaciones diferenciales correspondientes a estos vectores:     1 0     0 λ2 t t 1  x2 (t) = eλ2 t v 2 = et  y x (t) = e v = e 3 3 2  1 . 0 −1 Nos falta una soluci´on que debe provenir de un vector propio generalizado asociado a λ2 = 1. Calculamos (λ2 In − A)2 = (I4 − A)2 y resolvemos el sistema (I4 − A)2 v = 0. Lo hacemos con ayuda de WIMS: Seleccionamos el programa Matrix calculator para hallar que rang((I4 − A)2 = 1, por lo que la dimensi´on del espacio de soluciones de (I4 − A)2 v = 0

9.3 Soluci´on de sistemas diferenciales lineales de coeficientes constantes

167

es 3 = q2 , la multiplicidad algebraica de λ2 = 1. Esto significa que podemos encontrar 3 soluciones linealmente independientes del sistema homog´eneo (I4 − A)2 v = 0. Ya hemos obtenido dos de ellas: los vectores propios. Necesitamos una tercera. Par ello hallamos la soluci´on general del sistema (I4 − A)2 v = 0 con Solucionador de sistemas lineales, y obtenemos x1 = −(2r3 − r2 + r1 )/2, x2 = r3 , x3 = r2 , x4 = r1 La soluci´on v 2 se obtiene dando los valores r1 = 0, r2 = 2 y r3 = 0, mientras que la soluci´on v 3 se obtiene dando los valores r1 = −1, r2 = 1 y r3 = 1. Necesitamos una tercera elecci´on de forma que el vector v 4 que obtengamos sea linealmente independiente con v 2 y v 3 . Ponemos   r1  r = r2  . r3 Las dos elecciones de r1 , r2 y r3 hechas m´as arriba nos proporcionan los vectores r 1 y r 2 que son linealmente independientes:     −1 0 r 1 = 2 , r 2 =  1  1 0 Hay que escoger un tercer vector r linealmente independiente con estos dos. Una forma de hacerlo es escoger la tercera columna de la matriz 

 0 −1 r1 2 1 r2  0 1 r3 para que su determinante sea distinto de cero. Una posibilidad es r1 = 1, r2 = r3 = 0. Pero con un ojo puesto en la expresi´on de x1 , x2 , x3 y x4 , una mejor elecci´on es r1 = −2, r2 = r3 = 0. As´ı x1 = 1, x2 = 0, x3 = 0 y x4 = −2. Entonces 

 1 0  v4 =   0 . −2

168

Sistemas de ecuaciones diferenciales lineales con coeficientes constantes

Y la cuarta soluci´on del sistema x0 = Ax ser´a x4 (t) = etA v 4 = = et (v )v 4 ) = 4+ t(A  − I4 1 2  0      + t 0 = = et   0  4 0  −2  1 + 2t  0   = et   4t  −2 N´otese que en efecto, todas las soluciones son de la forma eλi t P (t) con P (t) un polinomio de grado menor que qi . La soluci´on general del sistema x(t) = c1 x1 (t) c3 x = 2 x2 (t) +  3 (t) + c4 x  + c 4 (t)   1 1 0 1 + 2t 0        + c2 et 0 + c3 et  1  + c4 et  0  = = c1 e−t  2 2 1  4t  0 −2 .  −t −1  −1 t c1 e + (c2 + c4 (1 + 2t))e   c3 e t  =  2c1 e−t + (2c2 + c3 + 4c4 )et  −c1 e−t − (c3 + 2c4 )et Necesitamos, finalmente un ejemplo con n´ umeros complejos. Ejemplo 9.13 .- Calc´ ulese un sistema fundamental de soluciones del sistema x0 = Ax siendo   6 6 −3 2 −4 −4 2 0  A= 8 7 −4 4  1 0 −1 −2 Usando Matrix calculator obtenemos la siguiente tabla: Value Multiplicity Vector −1 − i 2 (1, 0, 2, −(i + 1)/2) −1 + i 2 (1, 0, 2, (i − 1)/2)

9.3 Soluci´on de sistemas diferenciales lineales de coeficientes constantes

169

Haciendo el desarrollo m´as amplio como en el ejercicio anterior se obtiene el mismo resultado. Vemos que los dos valores propios λ1 = −1 + i y λ2 = λ1 = −1 − i son conjugados y tienen la misma multiplicidad algebraica q1 = q2 = 2. Adem´as como s´olo obtenemos un vector propio para cada uno de ellos (obs´ervese que son tambi´en conjugados), su multiplicidad geom´etrica es 1. Necesitamos un vector propio generalizado. Para ello calculamos (todos los c´alculos los hacemos con ayuda de WIMS)  2 − 14i 3 − 12i −2 + 6i −4i  8i −2 + 6i −4i 0   (λ1 I4 − A)2 = ((−1 + i)I4 − A)2 =   8 − 16i 6 − 14i −6 + 6i −8i  −2 − 2i −1 1 + 2i −2 + 2i 

cuyo rango es 2 de modo que el espacio de soluciones del sistema ((−1 + i)I4 − A)2 v = 0 es 2, igual a la multiplicidad algebraica de λ1 = −1 + i. Hallamos la soluci´on general de este sistema: x1 = (i(r2 + 8r1 ) + 7r2 + 4r1 )/8, x2 = −(r2 + 2ir1 + 2r1 )/2, x3 = r2 , x4 = r1 Para simplificar los c´alculos tomamos como w1 el vector 

 2  0   w1 =   4  −1 + i que tambi´en es valor propio asociado a λ1 = −1+i. Este vector se obtiene haciendo r1 = (i−1) y r2 = 4. Poniendo r1 = 2 y r2 = 0 obtenemos otro vector linealmente independiente con w1 . As´ı     2 1 + 2i  0     y w2 = −2 − 2i w1 =   4   0  1+i 2 Estos dos vectores nos proporcionan dos soluciones complejas: 

 2  0   z 1 (t) = etA w1 = eλ1 t w1 = e(−1+i)t   4  1+i

170

Sistemas de ecuaciones diferenciales lineales con coeficientes constantes

y z 2 (t) = etA w2 = = eλ1 t (w2  + t(A − λ2 I = 4 )w 2 )  1 + 2i 1+i −2 − 2i     + t  0  = = e(−1+i)t   0  2 + 2i 2   −1 (1 + t) + (2 + t)i   −2 − 2i  = e(−1+i)t    2t + 2ti 2−t Las partes reales y complejas de estas dos soluciones nos proporcionan las 4 soluciones que forman un sistema fundamental de soluciones del sistema x0 = Ax. Para ello utilizamos la f´ormula de Euler para escribir e(−1+i)t = e−t (cos t + i sen t) y multiplicamos 

     2 2 0  0   0  0      (cos t + i sen t)   4  = (cos t + i sen t) +  4  + i 0 =   1 + i     −1  1 2 0 2 0 0 0  0 0         = cos t   4  − sen t 0 + i sen t  4  + cos t 0 = −1 1  1   −1 2 cos t 2 sen t     0 0  + i  =  4 cos t   4 sen t  . sen t − cos t cos t − sen t De aqu´ı obtenemos dos soluciones 

 2 cos t   0  x1 (t) = e−t   4 cos t  sen t − cos t



 2 sen t   0  y x2 (t) = e−t   4 sen t  cos t − sen t

9.3 Soluci´on de sistemas diferenciales lineales de coeficientes constantes

171

Para obtener las otras dos calculamos las partes reales e imaginarias de z 2 (t):       (1 + t) + (2 + t)i 1+t 2+t       −2 − 2i  = (cos t + i sen t)  −2  + i  −2  = (cos t + i sen t)     2t   2t  2t + 2ti 2 −t  2−  0  t     2+t 1+t 2+t 1+t  −2    −2   −2   −2          = cos t   2t  − sen t  2t  + i sen t  2t  + cos t  2t  = 0 0  2−t 2−t    (1 + t) cos t − (2 + t) sen t (1 + t) sen t + (2 + t) cos t     −2 cos t + 2 sen t −2 sen t − 2 cos t  + i  =     2t cos t − 2t sen t 2t sen t − 2t cos t (2 − t) sen t (2 − t) cos t Entonces 

 (1 + t) cos t − (2 + t) sen t   −2 cos t + 2 sen t  x3 (t) = e−t    2t cos t − 2t sen t (2 − t) cos t



 (1 + t) sen t + (2 + t) cos t   −2 sen t − 2 cos t  y x4 (t) = e−t    2t sen t − 2t cos t (2 − t) sen t

Notemos de nuevo que no se utiliza la informaci´on acerca del segundo valor propio λ2 = −1 − i sino que se saca provecho del hecho de que ´este sea el conjugado de λ1 = −1 + i. Y observemos finalmente que todas las soluciones son de la forma eαt [P (t) cos βt + Q(t) sen βt] siendo λ = α + iβ el valor propio y P (t) y Q(t) polinomios de grado menor que q, la multiplicidad algebraica de λ.

172

Sistemas de ecuaciones diferenciales lineales con coeficientes constantes

Get in touch

Social

© Copyright 2013 - 2024 MYDOKUMENT.COM - All rights reserved.