Sistemas de ecuaciones lineales

GUIA 9 Sistemas de ecuaciones lineales Un mundo en el que habitara una sola especie no ser´ıa interesante, como tampoco es muy interesante un circuit

2 downloads 168 Views 186KB Size

Story Transcript

GUIA 9

Sistemas de ecuaciones lineales Un mundo en el que habitara una sola especie no ser´ıa interesante, como tampoco es muy interesante un circuito RLC aislado o un oscilador mec´anico desconectado de su entorno. La existencia de varias especies que interact´ uan hace interesante al mundo natural, los milagros de la electr´onica posibilitan la integraci´on de muchos circuitos el´ectricos, las leyes de la mec´anica permiten modelar el comportamiento de objetos complejos tales como cuerdas, puentes, inclusive edificios, mediante sistemas de masas puntuales acopladas a trav´es de resortes. En este cap´ıtulo se estudian ecuaciones diferenciales que modelan la din´amica de un sistema en el que sus componentes interact´ uan entre s´ı, regidos por leyes fis´ıcas, econ´omicas sociales o biol´ogicas. Como ejemplo introductorio consideremos un sistema que consta de dos bloques, que se mueven a lo largo de un eje horizontal, conectados entre s´ı y a un par de paredes verticales mediante sendos resortes, tal y como lo muestra la figura Fig. 1. Supongamos adem´as que ambos bloques tienen la misma masa m, que el resorte que los une tiene constante kc , y que los resortes que los conectan a las paredes tienen ambos la misma constante k. Kc

K

K

x2

x1

Figura 1: sistema acoplado de dos bloques Si las variables x1 = x1 (t) y x2 = x2 (t) representan el desplazamiento en el tiempo t, del primero y el segundo de los bloques respectivamente, cuando estos desplazamientos se miden a partir de la correspondientes posiciones de equilibrio, entonces, aplicando la segunda ley de Newton a cada uno de los bloques se obtienen las ecuaciones d2 x1 m 2 = −k x1 − kc (x1 − x2 ) dt d2 x2 m 2 = −k x2 − kc (x2 − x1 ) dt Si se introducen las variables v1 =

dx1 , dt

v2 = 1

dx2 , dt

(1)

y se tiene en cuenta que dv1 d2 x1 = , dt dt2

dv2 d2 x2 = , dt dt2

el sistema (1) se convierte en dx1 dt dv1 dt dx2 dt dv2 dt

= v1 =−

k + kc kc x1 + x2 m m

(2)

= v2 =−

k + kc kc x2 + x1 m m

que en notaci´on matricial puede escribirse como    0 1 0 x1 k+k k c c    d  v 1  − m 0 m = 0 0 dt x2   0 kc k+kc v2 0 − m m

  0 x1   0  v1  . 1 x2  v2 0

(3)

El sistema de ecuaciones (2) (o su forma matricial (3)), constituye un ejemplo de un sistema lineal de ecuaciones diferenciales de primer orden. Si no existe acople entre los bloques, es decir, si kc = 0, el sistema (1) se reduce a un sistema desacoplado, d2 x2 d2 x1 m 2 = −k x1 , m 2 = −k x2 , dt dt en donde las masas se mueven de forma independiente. Frecuentemente la descripci´on din´amica de un sistema f´ısico (como puede ser un conjunto de part´ıculas o una red de circuitos), cuyo estado en cada instante viene caracterizado por los valores x1 (t), . . . , xn (t), que tomen las n variables x1 , . . . xn , en el tiempo t, puede darse en t´erminos de un sistema de ecuaciones diferenciales que expresen las leyes de variaci´on del estado (x1 , . . . , xn ) respecto a la variable temporal t : x01 = f1 (t, x1 , . . . , xn ), .. . x0n

(4)

= fn (t, x1 , . . . , xn )

El anterior sistema puede reescribirse como una ecuaci´ on vectorial para la variable vectorial x(t) = (x1 (t), . . ., xn (t)) : x0 = f (t, x), (5) donde f (t, x) = (f1 (t, x), . . . , fn (t, x)) . Desafortunadamente no contamos con m´etodos generales que permitan resolver un sistema de ecuaciones diferenciales arbitrario como el dado en (5). Una de las pocas clases de sistemas (y la m´as importante) para la cual es posible obtener las soluciones en t´erminos de

2

funciones elementales es la de los sistemas lineales con coeficientes constantes. El sistema (5) es lineal con coeficientes constantes si para cada i = 1, . . . , n fi (t, x1 , . . . , xn ) = ai1 x1 + · · · + ain xn + bi (t). Un sistema lineal puede presentarse como el modelo matem´atico de un sistema con caracter´ısticas lineales, tal como sucede con ciertas redes de circuitos, pero lo m´as frecuente es que se introduzca como una aproximaci´ on lineal de un sistema no lineal. El estudio que hacemos de los sistemas lineales es completamente an´alogo al de las ecuaciones lineales de segundo orden (o de orden n), en una variable.

1.

Conceptos b´ asicos.

Un sistema de n ecuaciones diferenciales lineales de primer orden en las n variables x1 = x1 (t), . . . , xn = xn (t), es un sistema de n ecuaciones de la forma x01 = a11 (t) x1 + · · · + a1n (t) xn + b1 (t) .. . x0n

(6)

= an1 (t) x1 + · · · + ann (t) xn + bn (t)

en donde los coeficientes aij (t), bi (t), i, j = 1, . . . , n, son funciones dadas, definidas en un intervalo J. En notaci´on matricial el sistema (6) se puede escribir como x0 = A(t) x + b(t)

(7)

donde b(t) = (b1 (t), . . . , bn (t))T y 

 a11 (t) · · · a1n (t)   .. .. A(t) =  . . . an1 (t) · · · ann (t) Vale la pena se˜ nalar en este punto que una ecuaci´on lineal de segundo orden puede siempre verse como un sistema de ecuaciones de primer orden. En efecto, introduciendo la variable v = x0 y teniendo encuenta entonces que v 0 = x00 , la ecuaci´on x00 + a(t) x0 + b(t) x = f (t), se transforma en el sistema x0 = v, v 0 = −a(t) v − b(t) x + f (t), M´as generalmente la ecuaci´on diferencial lineal de orden n, x(n) + an−1 (t) x(n−1) + · · · + a1 (t) x0 + a0 (t) x = f (t)

3

es equivalente al sistema lineal de primer orden en las variables x1 = x, x2 = x0 , . . . , xn = x(n−1) dado por x01 = x2 , .. . x0n−1 = xn , x0n = −a0 (t) x1 − a1 (t) x2 − · · · − an−1 (t) xn + f (t) Ejercicios Halle un sistema lineal de ecuaciones de primer orden equivalente a la ecuci´on dada en cada caso: 1. x00 +2x0 +5x = 0

2. x00 −2x0 −3x = 0

3. x00 − x = 0

4. x00 + ω 2 x = 0

A continuaci´on discutiremos algunas de las principales caracter´ısticas de la estructura de las soluciones de un sistema lineal, estructura que facilita su c´alculo en ciertos casos. En lo sucesivo supondremos que los coeficientes aij (t) y bi (t) son funciones continuas definidas sobre un cierto intervalo J. Definici´ on. Una soluci´on del sistema (7) en un intervalo J es una funci´ on vectorial x(t) = (x1 (t), . . . , xn (t))T , definida y derivable en J y tal que para todo t de este intervalo se satisface x0 (t) = A(t) x(t) + b(t) Ejemplo 1. Las funciones  x1 (t) = son soluciones del sistema

e−t −e−t



 y

x2 (t) =

e3t 3e3t



 0    x1 0 1 x1 = . x02 3 2 x2

¿Qu´e clase de trayectorias describen las funciones x1 (t) y x2 (t) en el plano x1 , x2 ? Ejercicios Los sistemas que se dan a continuaci´on son equivalentes a una ecuaci´on lineal de segundo orden. Emplee esa equivalencia para hallar las soluciones del sistema.  0     0    x1 0 1 x1 x1 0 1 x1 1. = 3. = 0 0 2 x2 1 0 x2 x2 −ω 0 x2  0    x1 0 1 x1 2. = x02 −2 −5 x2 El siguiente teorema es an´alogo a los teoremas de existencia y unicidad de soluciones para ecuaciones lineales de primer y segundo orden.

4

Teorema 1 (Teorema fundamental). Dados t0 en el intervalo J y x0 = (x01 , . . ., x0n ) un punto cualquiera de Rn , existe una u ´nica funci´ on x(t) = (x1 (t), . . ., xn (t))T , definida en J, que satisface el problema de valores iniciales ( x0 = A(t)x + b(t), x(t0 ) = x0 Omitimos la demostraci´on de este resultado. El lector interesado puede consultar por ejemplo E. Coddington and N. Levinson: Theory of Ordinary Differential Equations. McGrawHill, 1955. Una consecuencia inmediata del teorema anterior es que, dado un punto t0 cualquiera de J la funci´on constante x(t) ≡ 0 es la u ´nica soluci´on del sistema homog´eneo x0 = A(t) x,

(8)

que adem´as satisface la condici´on x(t0 ) = 0. Teorema 2. Si las funciones x1 (t), ..., xr (t) son soluciones del sistema homog´eneo (8), entonces tambi´en es soluci´on cada una de las combinaciones lineales de x1 , . . . , xr , x(t) = c1 x1 (t) + ... + cr xr (t) Demostraci´on. Es una consecuencia inmediata de la linealidad del sistema. Definici´ on. Un conjunto fundamental de soluciones del sistema homog´eneo de dimensi´on n (8), en el intervalo J, es un conjunto de n soluciones de (8) que sean linealmentes independientes en J. Definici´ on. Si xj (t) = (x1j (t), . . . , xnj (t))T , j = 1, . . . , n, son n soluciones del sistema homog´eneo de dimensi´on n (8), el Determinante de Wronski de estas funciones, W (t) = W (x1 , . . . , xn )(t), se define como   x11 (t) · · · x1n (t)   .. .. W (x1 , . . . , xn )(t) = det  . . . xn1 (t) · · · xnn (t) Ejemplo 2. Consid´erese el sistema del ejemplo 1. Como se puede ver f´acilmente las soluciones x1 (t) y x2 (t) son linealmente independientes en J = (−∞, ∞) y por lo tanto constituyen un conjunto fundamental de soluciones del sistema en ese intervalo. Adem´as   e−t e3t W (x1 , x2 )(t) = det = 4e2t −e−t 3e3t Ejemplo 3. Las funciones  x1 (t) =

cos ωt −ω sen ωt



 ,

x2 (t) =

sen ωt ω cos ωt

forman un conjunto fundamental de soluciones del sistema  0     x x 0 1 = 0 2 y −w 0 y 5



Teorema 3 (Criterio para conjunto fundamental). Si x1 (t), . . ., xn (t) son n soluciones del sistema homog´eneo de dimensi´ on n (8), entonces las tres siguientes condiciones son equivalentes: (i) x1 (t), . . ., xn (t) forman un conjunto fundamental de soluciones del sistema. (ii) W (t) 6= 0 para todo t de J. (iii) W (t0 ) 6= 0 para alg´ un t0 de J. Teorema 4 (Propiedad de base). Sea {x1 (t), . . ., xn (t)} un conjunto fundamental de soluciones del sistema homog´eneo (8), en un intervalo J. Entonces cada una de las soluciones de (8) en J puede expresarse como una combinaci´ on lineal de x1 (t), . . . , xn (t). En otras palabras para cada soluci´ on x = x(t) del sistema existen constantes c1 , . . . , cn tales que x(t) = c1 x1 (t) + · · · + cn xn (t),

(9)

para todo t de J. Se acostumbra decir en ese caso que (9) representa la soluci´ on general de (8). Las demostraciones de estos dos teoremas son completamente an´alogas a las de los correspondientes teoremas de la gu´ıa 5 (Ecuaciones lineales de segundo orden). Dos propiedades b´asicas de un sistema no homog´eneo (7), que son consecuencias inmediatas de la linealidad del sistema homog´eneo asociado (8) son: Teorema 5 (Primer principio de superposici´ on para sistemas no homog´ eneos). Si xk = xk (t) es una soluci´ on del sistema x0 = A(t) x + bk (t),

k = 1, . . . , n

entonces x(t) = c1 x1 (t) + · · · + cr xr (t) es soluci´ on del sistema no homog´eneo x0 = A(t) x + c1 b1 (t) + · · · + cr br (t). Teorema 6 (Segundo principio de superposici´ on para sistemas no homog´ eneos). Si xp (t) es una soluci´on particular del sistema no homog´eneo (7), entonces cada una de las soluciones x = x(t) de ese sistema puede escribirse en la forma x(t) = xp (t) + xH (t), para alguna soluci´on xH = xH (t) del sistema homog´eneo asociado (8). Observaci´ on. Si x(t) y y(t) son dos soluciones de (7), la diferencia x(t) − y(t) es soluci´on de la ecuaci´on homog´enea asociada (8)

6

2.

Sistemas homog´ eneos con coeficientes constantes

En esta secci´on presentaremos un m´etodo que permite hallar las soluciones de un sistema homog´eneo con coeficientes constantes. x0 = A x . La matriz A asociada al sistema es una matriz n × n cuyos componentes son n´ umeros reales aij :   a11 · · · a1n  ..  . A =  ... .  an1 · · · ann

La idea, debida a L. Euler, es buscar soluciones del tipo x(t) = eλt w, donde λ es una constante y w = (w1 , ..., wn )T es un vector de Rn , ambos por determinar. Como dtd (eλt w) = λ eλt w y A (eλt w) = eλt A w, entonces x(t) = eλt w es soluci´on de 0 x = A x si y s´olo si A w = λ w. Si x(t) es adem´as una soluci´on no nula entonces λ debe ser un valor propio de la matriz A y w debe ser un vector propio asociado a λ. En consecuencia la b´ usqueda de soluciones de la forma x(t) = eλt w se reduce a la b´ usqueda de valores y vectores propios de la matriz A. Recu´erdese que λ es un valor propio de la matriz A si existe un vector w 6= 0 para el cual A w = λ w. En consecuencia los valores propios de la matriz A son las ra´ıces de la ecuaci´on caracter´ıstica pA (λ) = det(A − λI) = 0, donde I es la matriz identidad n × n y los vectores propios asociados a un valor propio λ son las soluciones w de la ecuaci´on (A − λI)w = 0 Ejemplo 4. Buscamos las soluciones del sistema dx = y, dt La matriz del sistema es la matriz

dy = 3x − 2y. dt 

A=

0 1 3 2

 ,

(ver ejemplo 1) y la ecuaci´on caracter´ıstica es la ecuaci´on 0−λ 1 = −λ (2 − λ) − 3 det(A − λI) = 3 2−λ = λ2 − 2λ − 3 = (λ − 3)(λ + 1) = 0. Los valores propios son pues λ1 = 3 y λ2 = −1 y resolviendo las ecuaciones (A − 3I) w = 0 y (A + I) w = 0 se obtienen los vectores propios asociados. En particular     1 −1 w1 = y w2 = 3 1 7

son vectores propios que respectivamente corresponden a λ1 y a λ2 . Correspondiendo a esta selecci´on de vectores propios se tienen dos soluciones de la forma eλt w :     1 −1 λ1 t 3t λ2 t −t e w1 = e e w2 = e . 3 1 Estas dos soluciones forman un conjunto fundamental, pues 3t e −e−t = 4e2t 6= 0. W (t) = 3t 3e e−t Por lo tanto la soluci´on general del sistema puede escribirse en la forma       x(t) 1 −1 3t −t x(t) = = c1 e + c2 e , y(t) 3 1 donde c1 y c2 representan constantes arbitrarias. La situaci´on del ejemplo anterior se generaliza a matrices n × n que tengan n valores propios reales distintos de acuerdo con el siguiente teorema. Teorema 7. Sup´ongase que la matriz A (de dimensi´ on n), tiene n valores propios reales y distintos, λ1 , . . . , λn , y sean w1 , . . . , wn vectores propios (no nulos) asociados a dichos valores propios. Entonces las funciones eλ1 t w1 , . . ., eλn t wn forman un conjunto fundamental de soluciones del sistema x0 = A x y cada una de las soluciones de este sistema puede escribirse en la forma x(t) = c1 eλ1 t w1 + . . . + cn eλn t wn ,

c1 , . . ., cn ∈ R

Ejemplo 5. Se buscan las soluciones del sistema dx = x − y, dt

dy = x + y. dt

En este caso la matriz del sistema es la matriz A = ( 11 −1 on caracter´ıstica 1 ) cuya ecuaci´ est´a dada por 1 − λ −1 = (1 − λ)2 + 1 = λ2 − 2λ + 2 = 0 det(A − λ I) = 1 1−λ Los valores propios son λ1 = 1 + i y λ2 = 1 − i, un par de nmeros ´ complejos conjugados. Para hallar los vectores propios asociados debemos resolver ecuaciones de la forma (A − λI) w = 0 donde el vector w = (w1 , w2 )T tiene en general componentes complejas. Para λ1 = 1 + i la ecuaci´on por resolver es      −i −1 w1 0 = 1 −i w2 0 8

que se reduce a la ecuaci´on w1 − iw2 = 0. Los vectores propios son entonces vectores de la forma         iw2 i 0 1 w= = w2 = w2 + iw2 , w2 1 1 0 donde w2 un n´ umero (complejo) arbitario. En particular tomando w2 = 1 se obtiene el vector propio       i 0 1 w= = +i = α + iβ 1 1 0 cuyas partes real e imaginaria, α y β, son vectores reales linealmente independientes. Asociada a este vector propio tenemos una soluci´on (compleja) linealmente independiente, x(t) = eλ1 t w = e(1+i)t (α + iβ) = et (cos t + i sen t) (α + iβ)   = (et cos t) α − (et sen t) β + i (et sen t) α + (et cos t) β = u(t) + iv(t)

(10)

Procediendo en la misma forma puede obtenerse una segunda soluci´on compleja asociada al segundo de los valores propios, λ2 = λ1 . Se observa que, trabajando como en el ejemplo anterior, se obtienen soluciones complejas de la forma x(t) = eλt w en el caso en el que la matriz A posea valores propios complejos. Puede notarse de otro lado que si λ = a + ib es un valor propio complejo de una matriz real A y w es un vector propio (no nulo), asociado a ese valor propio, entonces A w = A w = λ w = λ w. En consecuencia λ es tambi´en un valor propio de la matriz A, y w es uno de los vectores propios asociados a este valor propio. Esto quiere decir que los vectores propios asociados a λ no son otra cosa que “conjugados” de los vectores propios asociados a λ; es de esperarse entonces que el valor propio λ no aporte informaci´on realmente “nueva”. Se tiene en efecto el siguiente resultado, an´alogo a los ya conocidos de la Gu´ıa 5: Teorema 8. Si la matriz A(t) es real y si z(t) = u(t) + iv(t) es una soluci´ on compleja del sistema lineal homog´eneo x0 = A(t) x, donde u(t) y v(t) son respectivamente las partes real e imaginaria de z(t), entonces u(t) y v(t) son soluciones reales del mismo sistema. Demostraci´on. z0 (t) = A(t) z(t) ⇒ u0 (t) + iv0 (t) = A(t) u(t) + i A(t) v(t) ⇒ u0 (t) = A(t) u(t) y v0 (t) = A(t) v(t)

Ahora podremos finalizar el ejemplo 5. En efecto retomando (10) se observa que las funciones   − sen t t t t u(t) = (e cos t) α − (e sen t) β = e cos t 9

t

t

t

v(t) = (e sen t) α + (e cos t) β = e



cos t sen t



son soluciones del sistema. M´as a´ un, teniendo en cuenta que −et sen t et cos t = −e2t 6= 0 W (t) = et cos t et sen t puede concluirse que u(t) y v(t) forman un conjunto fundamental de soluciones, de forma que la soluci´on general del sistema puede escribirse como       x(t) − sen t cos t t t x(t) = = c1 e + c2 e y(t) cos t sen t La situaci´on del ejemplo anterior se generaliza en el teorema que sigue. Teorema 9. Si λ = a + ib y λ = a − ib son dos valores propios complejos conjugados (b 6= 0), de la matriz A, w = α + iβ es un vector propio asociado a λ, y los vectores α, β son respectivamente las partes real e imaginaria de w, entonces las funciones u(t) = eat (cos bt α − sen bt β),

v(t) = eat (sen bt α + cos bt β)

son soluciones linealmente independientes del sistema x0 = A x Observaci´ on. Si A es una matriz de dimensi´on n × n que posee n vectores propios (reales o complejos) linealmente independientes w1 , . . ., wn , asociados a valores propios, λ1 , . . ., λn , (que pueden ser reales o complejos y no son necesariamente distintos), entonces las funciones x1 (t) = eλ1 t w1 , . . ., xn (t) = eλn t wn forman un conjunto fundamental de soluciones (reales o complejas) del sistema x0 = A x. En particular si para los valores propios reales los vectores propios asociados pueden siempre escogerse como vectores reales, sin embargo si algunos de los valores propios de la matriz real A no son reales, digamos λj = aj + ibj (aj , bj reales, bj > 0), entonces el vector propio correspondiente wj es necesariamente un vector complejo (i.e. con parte imaginaria diferente de cero), que se puede expresar en la forma wj = αj + iβj donde αj y βj son vectores reales. En este caso las partes real e imaginaria uj (t) y vj (t), de la soluci´on compleja eλj t w = uj (t) + ivj (t) proporcionan dos soluciones reales linealmente independientes del sistema x0 = A x. El n´ umero λj es tambi´en un valor propio de A, pero las soluciones del sistema asociadas a este valor propio corresponden a combinaciones lineales de uj (t) y vj (t). Desafortunadamente no siempre una matriz de dimensi´on n×n tiene asociados n vectores propios linealmente independientes. Esto ocurre cuando el polinomio caracter´ıstico tiene ra´ıces “repetidas”, digamos de multiplicidad k > 1 pero la dimensi´on del espacio de vectores propios asociados a esa ra´ız es estrictamente menor que k. En esos casos el conocimiento de los vectores propios asociados a los distintos valores propios no basta para conseguir un conjunto fundamentalde soluciones y se hace necesario considerar vectores propios generalizados. 10

Definici´ on. Se dice que un vector w es un vector propio generalizado asociado al valor propio λ si v es soluci´on de la ecuaci´ on (A − λI)k w = 0 donde k es la multiplicidad de λ.

2.1.

M´ etodo de los vectores propios generalizados

La idea es generalizar el m´etodo de soluci´on de la ecuaci´on diferencial lineal 1–dimensional, dx = ax dt Se recordar´a que multiplicando por e−at esta ecuaci´on se reduce a dtd (e−at x(t)) = 0. De all´ı seconcluye que e−at x(t) es igaul a una constante constante c y en consecuencia x(t) = eat v. Consideremos ahora el sistema homog´eneo, x0 = Ax

(11)

Sup´ongase que dada una matriz n × n constante A se encuentre definida la matriz etA , t real, de modo que la funci´on t 7→ etA sea diferenciable y se satisfaga (etA )0 = etA A. En ese caso si x = x(t) es una soluci´on del sistema (11) en cierto intervalo J, aplicando las reglas usuales de derivaci´on se sigue que para todo t en J (e−tA x)0 (t) = e−tA x0 (t) − e−tA A x(t) = 0. Lo anterior por supuesto implica que e−tA x(t) es igual a un vector constante w : e−tA x(t) = w Despejando x(t) (y asumiendo que la exponencial etA satisface las propiedades “usuales” de la funci´on exponencial) se concluye que las soluciones de (11) son de la forma x(t) = etA w,

(12)

donde w es un vector constante. 2.1.1.

La matriz exponencial

Definici´ on. Si A es una matriz compleja constante de dimensi´ on n × n y t es un n´ umero real, etA es la matriz definida como la suma de la siguiente serie infinita:   ∞ X tN N 1 m tA (tA) = l´ım I + tA + · · · + A (13) e = N →∞ m! N! m=0 11

Ejemplo 6. a) Si A es la matriz    A = λI =  

λ 0 .. .

0 ··· λ ··· .. .

0 0 .. .

0 0 ··· λ

   , 

entonces (tA)m = (tλ)m I y tA

e

tλI

=e



1 1 = l´ım I + tλI + (tλ)2 I + · · · + (tλ)N I N →∞ 2! N!   (tλ)2 (tλ)N = l´ım 1 + tλ + + ··· + I N →∞ 2! N! = etλ I

b) Consid´erse la matriz A =

λ1 0 0 λ2



, de modo que (tA)m =



(λ1 t)m 0 0 (λ2 t)m





. En este caso

la matriz exponencial etA est´a dada por       1 (λ1 t)N 0 1 0 λ1 t 0 tA e = l´ım + + ··· + 0 1 0 λ2 t 0 (λ2 t)N N →∞ N!  λt  e 1 0 = λ1 t 0 e c) Si A es la matriz  0 1 0 A= 0 0 1  0 0 0 

se tiene que 

 0 0 1 A2 =  0 0 0  , 0 0 0



 0 0 0 A3 =  0 0 0  = 0, 0 0 0

A4 = A5 = · · · = 0.

Se sigue entonces que etA

 ∞ m X t 1 2 2  1 t m = A = I + tA + t A = 0 1 m! 2! m=0 0 0

t2 2



t  1

Observaci´ on. La definici´on de etA para t y A dados tiene sentido en la medida en que la serie en (13) “converja”. Empleando t´ecnicas a las que se usan en c´alculo para demostrar P an´axlogas n que para todo n´ umero real x la serie ∞ converge hacia un cierto n´ umeroPreal, se puede n=0 n! 1 m probar que para toda matriz A y todo n´ umero real t la serie de “matrices” ∞ m=0 m! (tA) converge hacia una cierta matriz n × n. En otras palabras se puede probar que el l´ımite 12

l´ım (I + tA + · · · +

N →∞

tN N A ) N!

existe, quienquiera que sean la matriz A y el n´ umero t. En este

caso estamos hablando del l´ımite de una sucesi´on de matrices, que debe entenderse en el mismo sentido en el que se entidende el l´ımite de una sucesi´on de vectores. A fin de cuentas una matriz n × n puede verse como un vector de n2 componentes. Se puede adem´as verificar que la funci´on etA definida mediante (13) satisface las propiedades “usuales” de la funci´on exponencial, como se especifica a continuaci´on. Teorema 10. Para cada matriz A de dimensi´ on n la funci´ on t 7→ etA , definida para todo t real, es diferenciable y satisface las propiedades iii) etA es invertible y (etA )−1 = e−tA ,

i) e0A = I, ii) e(s+t)A = esA etA = etA esA ,

iv)

d (etA ) dt

= AetA .

Sin embargo etA+tB = etA etB s´olamente si AB = BA. Demostraci´on. Ver por ejemplo el texto de M.W. Hirsch and S. Smale, Differential Equations, Dynamical Systems, and Linear Algebra. Academic Press, New York, 1974. La definici´on de la matriz etA y sus propiedades validan ahora nuestro trabajo previo, que condujo a las soluciones (12) de (11): Teorema 11 (Soluciones de dx = A x). Dados x0 ∈ Rn y A una matriz real n × n, la dt soluci´ on del problema de valores iniciales dx = Ax, dt

x(t0 ) = x0

est´ a dada por x(t) = e(t−t0 )A x0 ,

−∞ < t < ∞.

Ejemplo 7. La soluci´on del problema de valores iniciales     0 1 0 1 dx  0 0 1  x, = x(0) =  2  dt 0 0 0 3 est´a dada por 

  1 1 t tA    2 x(t) = e = 0 1 3 0 0

t2 2

  2  1 1 + 2t + 3t2  t  2  =  2 + 3t 3 1 3

El c´alculo de etA se hizo en el ejemplo 6c).

13



(14)

2.1.2.

Conjuntos fundamentales de soluciones

La utilizaci´on directa de las f´ormulas (12) o (14) para obtener una expresi´on para el conjunto de todas las soluciones de (11) presenta una dificultad: se requiere calcular la matriz exponencial etA , lo que puede ser m´as bien complicado si uno se basa simplemente en la definici´on de matriz exponencial como la suma de una serie infinita. Una alternativa es (en lugar de calcular expl´ıcitamente etA ), buscar n soluciones linealmente independientes etA w, correspondientes a n vectores w convenientes. Una observaci´on clave es que para cierto tipo de vectores w el c´alculo del vector etA w, se reduce a una suma finita. N´otese primero que etA w = et(A−λI)+tλI w = et(A−λI) etλI w = eλt et(A−λI) w, donde se ha tenido en cuenta que (A − λI)λI = λI(A − λI). De esta forma ∞ X tm e w=e (A − λI)m w. m! m=0 tA

λt

(15)

As´ı, si por ejemplo w es un vector propio asociado a λ, entonces (A − λI)w = 0 de manera que (A − λI)m w = 0 para m ≥ 1. En este caso la serie en (15) se reduce al t´ermino Iw = w y por lo tanto etA w = eλt w. Si w es un vector propio “generalizado” de A asociado al valor propio λ y k es un n´ umero entero k ≥ 1 para el cual se satisface la condici´on (A − λI)k w = 0, entonces, dado que (A − λI)k+1 w = (A − λI)k+2 w = · · · = 0 la serie (15) se reduce a   tk−1 tA λt k−1 x(t) = e w = e w + t(A − λI) w + · · · + (A − λI) w . (16) (k − 1)! Podemos entonces obtener un conjunto fundamental de soluciones formado por soluciones de la forma (16), apoy´andonos en el siguiente teorema de ´algebra lineal: Teorema 12 (Teorema de la descomposici´ on primaria). Sea A una matriz n × n real o compleja. Sup´ongase que el polinomio caracter´ıstico de A, pA (λ) = det(A − λI) tiene r ra´ıces reales o complejas distintas λ1 , · · · , λr con multiplicidades k1 , · · · , kr de forma que pA (λ) = (−1)n (λ − λ1 )k1 . . . (λ − λr )kr ,

k1 + · · · + kr = n.

Entonces (i) Para cada valor propio λj ,

j = 1, . . ., r, el sistema lineal (A − λj I)kj w = 0

tiene kj soluciones linealmente independientes (1)

(kj )

wj , . . ., wj

.

(Si λj es “no real”, los vectores wjl son “vectores complejos”). 14

(1)

(k )

(1)

(k )

(1)

(kr )

(ii) Los n vectores w1 , . . ., w1 1 , w2 , . . ., w2 2 , . . . , wr , . . ., wr pendientes.

son linealmente inde-

Demostraci´on. Se da en los textos de ´algebra lineal avanzada; consultar por ejemplo: M.W. Hirsch and S. Smale, Differential Equations, Dynamical Systems, and Linear Algebra. Academic Press, New York, 1974. El conjunto de todos los valores propios λ1 , . . ., λr de la matriz A y sus respectivos vectores (l) propios generalizados, wj j = 1, . . . , r; l = 1, . . . , kj ) tales como los descritos en el teorema de la descomposici´on primaria, permiten construir un conjunto fundamental de soluciones de la forma kj −1 tA

xj,l (t) = e

(l) wj

λj t

=e

X tm (l) (A − λj I)m wj , m! m=0

j = 1, . . ., r, l = 1, . . . , kj

(17)

Separando en sus partes reales e imaginarias las kj soluciones complejas (17), que correspondan a un valor propio no real λj = aj + ibj , bj > 0, se producen 2kj soluciones reales. El valor propio complejo conjugado λj = aj − ibj conduce a las mismas soluciones reales, por lo cual basta considerar los valores propios complejos con parte imaginaria positiva, bj > 0. Ejemplo 8. Buscamos las soluciones del sistema   −1 1 −2 dx  0 −1 4  x. = dt 0 0 1 El polinomio caracter´ıstico es −1 − λ 1 −2 0 −1 − λ 4 pA (λ) = 0 0 1−λ

= (λ + 1)2 (1 − λ).

Los valores propios son λ1 = −1, de multiplicidad 2 y λ2 = 1, de multiplicidad 1. Los vectores propios “generalizados” asociados a λ1 = −1 se obtienen como sigue:     0 1 −2 0 0 0 4  , (A + I)2 =  0 0 8  . A+I = 0 0 0 0 2 0 0 4 La ecuaci´on (A + I)2 w = 0, para w = (w1 , w2 , w3 )T , se reduce a w3 = 0. En otras palabras los vectores propios generalizados son vectores de la forma w = (w1 , w2 , 0)T con w1 y w2 n´ umeros arbitrarios. En particular los vectores     1 0    0 , w2 = 1  w1 = 0 0 son dos vectores propios generalizados linelamente independientes. Correspondientemente se obtienen las soluciones      1 t −2t 1 1 −t t(A+I) −t −t  −t     0 1 4t 0 0 , x1 (t) = e e w1 = e [I + t(A + I)]w1 = e =e 0 0 1 + 2t 0 0 15



    1 t −2t 0 t −t t(A+I) −t −t  −t     0 1 4t 1 1  x2 (t) = e e w2 = e [I + t(A + I)]w2 = e =e 0 0 0 1 + 2t 0 Los vectores propios asociados al valor propio simple λ2 = 1 son las soluciones de (A−I) w = 0:      −2 1 −2 w1 0  0 −2     4 w2 0 , = 0 0 0 w3 0 que se reduce a las ecuaciones w1 = 0 y w2 − 2w3 = 0, de forma que los vectores propios son los vectores de la forma (0, 2w3 , w3 )T con w3 un n´ umero arbitrario. En particular, tomando por ejemplo w3 = 1, se obtiene el vector propio linealmente independiente w3   0  2 . w3 = 1 La soluci´on asociada est´a dada por 

 0 x3 (t) = et w3 = et  2  . 1 Finalmente la soluci´on general del sistema puede escribirse en la forma          −t c1 1 t 0 e te−t 0 x(t) = c1 e−t  0  + c2 e−t  1  + c3 et  2  =  0 e−t 0   c2  . c3 0 0 1 0 2 et Ejemplo 9. Buscamos las soluciones del sistema  0 −1 0 0 dx  1 0 0 0 =  0 0 0 −1 dt 1 0 1 0

   x. 

El polinomio caracter´ıstico es el polinomio pA (λ) = |A − λ I| = (λ2 + 1)2 = (λ − i)2 (λ + i)2 . Los valores propios son los n´ umeros λ1 = i, y λ2 = λ1 = −i, ambos de multiplicidad 2. Bastar´a con obtener las soluciones correspondientes a λ1 . Los vectores propios generalizados asociados se hallan resolviendo el sistema (A − i I)2 w = 0. Se tiene     −i −1 0 0 −2 2i 0 0  1 −i 0  −2i −2 0  0 0  2  . , A − iI =  (A − i I) =  0  −1 0 −i −1  0 −2 2i  1 0 1 −i −2i −1 −2i −2 16

El sistema (A − iI)2 w = 0 se reduce a las ecuaciones, w1 + 2 w3 − 2i w4 = 0,

w2 − 2i w3 − 2 w4 = 0,

En consecuencia los vectores propios generalizados son vectores de la forma         w1 −2 w3 + 2i w4 −2 2i  w2   2i w3 + 2 w4      =  = w3  2i  + w4  2  . w=  w3     1   0  w3 w4 w4 0 1 Dos vectores propios generalizados linealmente independientes pueden obtenerse tomando w3 = 1, w4 = 0 y w3 = 0, w4 = 1 :     −2 2i  2i   2  ,   w1 =  w = 2  1   0 . 0 1 Las soluciones del sistema correspondientes a este par de vectores son correspondientemente z1 (t) = etA w1 = eit et(A−iI) w1 = eit (I + t(A − iI))w1    −2 −2 cos t  2i   −2 sen t   = (cos t + i sen t)   1 − i t  =  cos t + t sen t −t −t cos t z2 (t) = etA w2 = eit et(A−iI) w2 = eit (I + t(A − iI))w2    2i −2 sen t  2   2 cos t   = (cos t + i sen t)   −t  =  −t cos t 1 + it cos t − t sen t









 −2 sen t    2 cos t  + i    sen t − t cos t  −t sen t

 2 cos t    2 sen t  + i     −t sen t t cos t + sen t

Las partes real e imaginaria de cada una de estas soluciones complejas son soluciones reales; en consecuencia las siguientes funciones forman un conjunto fundamental de soluciones (reales):         −2 cos t −2 sen t −2 sen t 2 cos t         −2 sen t 2 cos t 2 cos t 2 sen t  ,  ,  ,  .  cos t + t sen t   sen t − t cos t      −t cos t −t sen t −t cos t −t sen t cos t − t sen t t cos t + sen t

2.2.

C´ alculo de la matriz exponencial

Mostraremos en esta secci´on como puede calcularse la matriz exponencial en el caso en el que se conozca un conjunto fundamental de soluciones del sistema homog´eneo x0 = A x. En efecto sup´ongase que se tiene un conjunto fundamental de soluciones formado por las funciones x1 (t) = etA w1 , . . . , xn (t) = etA wn 17

La matriz



 x11 (t) · · · xn1 (t)   .. .. Π(t) = (x1 (t), . . ., xn (t)) =  , . . x1n (t) · · · xnn (t)

cuya j–´esima columna es el vector xj (t), es una matriz invertible dado que x1 (t), . . ., xn (t) son soluciones linealmente independientes de manera que W (t) 6= 0. Como adem´as Π(t) = (etA w1 , . . ., etA wn ) = etA Π(0),

y Π(0) = (w1 , . . ., wn ),

se sigue que etA = Π(t) Π(0)−1 Ejemplo 10. Para la matriz A del Ejemplo 8, se tiene  −t    e te−t 0 1 0 0 Π(t) =  0 e−t 2et  , Π(0)−1 =  0 1 −2  0 0 et 0 0 1 de manera que  e−t te−t −2te−t =  0 e−t 2(et − e−t )  0 0 et 

etA = Π(t) Π(0)−1

Ejercicios 1. Reduzca el sistema de dos ecuaciones diferenciales de segundo orden dado a un sistema de cuatro ecuaciones de primer orden en las variables x1 = y, x2 = y 0 , x3 = z, x4 = z 0 : d2 y dz + 2α + y = A cos ωt, 2 dt dt

d2 z dy + 2β + z = B cos ωt 2 dt dt

2. En cada caso escriba el sistema de ecuaciones con condiciones iniciales dado como un problema de valor inicial en forma normal x0 = A x, x(t0 ) = x0 . dx dy dz = x − 2y + z, = 3x + y − 8z, = −x + y − z, dt dt dt x(0) = 0, y(0) = 0, z(0) = 10. du dv dw b) = −w, = −u + w, = u − w, dt dt dt u(1) = α, v(1) = 0, w(1) = α1 , (α > 0).

a)

3. Sea xp (t) la soluci´on del sistema dx = A(t)x+b(t) que satisface la condici´on x(t0 ) = 0. dt Muestre que la soluci´on del problema de valores iniciales dx = A(t) x + b(t), x(t0 ) = x0 , dt es la funci´on x(t) = xp (t) + xH (t), donde xH (t) es la soluci´on del problema de valores iniciales dx = A(t)x, x(t0 ) = x0 dt 18

4. Suponga que Aw = λw. Verifique que x(t) = eλ(t−t0 ) w es la soluci´on del sistema x0 = A x que satisface la condici´on x(t0 ) = w.  t    t e + e2t e + e3t 5. Suponiendo que las funciones x1 (t) =  e2t  , x2 (t) =  e3t  y x3 (t) = 0 e3t  t  e − e3t  −e3t  son soluciones de un sistema de dimensi´on 3, x0 = A x, a) decida si −e3t estas funciones forman o no un conjunto fundamental de soluciones del sistema y b) determine, de ser posible, la soluci´on que satisface la condici´on x(0) = (1, 1, 1)T 6. En cada uno de los siguientes casos halle la soluci´on general del sistema y la soluci´on particular que satisface la condici´on inicial dada.     6 −3 1 0 a) x = x, x(0) = . 2 1 2     1 −3 1 0 b) x = x, x(0) = . −2 2 1     1 −3 2 1 c) x0 =  0 −1 0  x, x(0) =  0  . 0 −1 −2 −1     3 1 −2 1 0    −1 2 1 2 . d) x = x, x(0) = 4 1 −3 3     1 −1 1 e) x0 = x, x(0) = . 5 −3 1     3 −2 1 0 f) x = x, x(0) = . 4 −1 2     −3 0 2 0 g) x0 =  1 −1 0  x, x(0) =  −1  . −2 −1 0 −1     0 2 0 0 1     −2 0 0 0   0 . h) x0 =  x, x(0) =  0 0 0 −3   1  0 0 3 0 0     a 1 0 i ) x0 = x, a constante, x(0) = . 0 a 1     2 0 1 0 1     0 2 1 0  x, x(0) =  0  . j ) x0 =   0 0   2 0 1  0 0 −1 2 0 19



 λ 1 0 7. Dada la matriz A =  0 λ 1  , donde λ representa un n´ umero real. 0 0 λ a) Determine los valores propios de A con sus respectivas multiplicidades, y encuentre bases para los espacios propios asociados, {v ∈ R3 : (A − λ I) v = 0}.   0 1 0 b) Teniendo en cuenta que A−λI = N =  0 0 1  , verifique que (A − λI)2 6= 0 0 0 0 3 y que (A − λI) = 0. c) Calcule la matriz etA = eλtI+tN = eλt etN . 8. Generalice el resultado del anterior ejercicio  λ 1   0 λ A= . . ..  .. 0 ···  9. Si A0 es la matriz

0 −1 1 0

para la matriz n × n  ··· 0 . . . ..  .  . .. . 1  0 λ

 ,

2k+1 k a) Verifique que A20 = −I, y deduzca que A2k = (−1)k A0 para 0 = (−1) I, A0 k = 0, 1, 2, . . .

b) Muestre que tA0

e

∞ ∞ X t2k 2k X t2k+1 A0 + A2k+1 = (cos t)I + (sen t)A0 = 0 2k! (2k + 1)! k=0 k=0

10. Dada la matriz

 A=

a −b b a

 = aI + bA0

donde a y b representan n´ umeros reales con b ≥ 0, muestre que   cos bt −sen bt tA at e =e sen bt cos bt 2 Observaci´on: Si a y b no son ambos nulos b2 > 0), entonces existe un √ (es decir si a +√ u ´nico θ, 0 ≤ θ < 2π para el cual a = a2 + b2 cos θ y b = a2 + b2 sen θ, de donde     √ cos θ − sen θ a −b = a2 + b 2 b a sen θ cos θ

La matriz A puede entonces interpretarse on del plano de un ´angulo √ como una rotaci´ θ, seguida de una homotecia de raz´on a2 + b2 . 20

11. Halle etA si A es la matriz de coeficientes en los ejercicios a) (6d ), b) (6g) y c) (6j ) Respuestas 1. x01 = x2 , x02 = −2αx4 − x1 + A cos ωt, x03 = x4 , x04 = −2βx2 − x3 + B cos ωt.     1 −2 1 0 1 −8  , x (0) =  0  . 2. a) x0 =  3 −1 1 −1 10     0 0 −1 α b) u0 =  −1 0 1  , u (1) =  0  (α > 0) . 1 1 0 −1 α 5. 6.

b) Si x (0) = (1, 1, 1)T entonces x (t) = e3t (1, 1, 1)T .     4 −3 3t 4t a) x (t) = e +e . 4 −2  6   1  −5 b) x (t) = e−t 54 + e4t . 1 5 5  2 −2t 1 t  e + 3e 3   0 c) x (t) = −2t −e       7 4 8 1 −t  1 2t  t   −2 0 8  d ) x (t) = 3 e +e + 3e 13 −4 8     1 1 e) x (t) = e−t cos t + e−t sen t . 1 3   cos 2t − sen 2t t f ) x (t) = e . 2 cos 2t √    − 2 √ √ 2  sen 2t√− 2 cos √ 2t √ g) x(t) = e−2t  −2  + e−t   − 2 sen 2t + cos 2t √ 1 −3 cos 2t       0 0 1    0   0   − sen 2t  1  +  −3t . h) x(t) = cos 2t   0   e   0  3 3 0 −2  2 t i ) x (t) = eat . 1   1+t  t   j ) x (t) = e2t   1 . −t 21

  . 

 1 t 21 t = eλt  0 1 t  . 0 0 1     −2 3 3 −3 = e3t + e4t . −2 3 2 −2   −2t −2t −2t 2e −2e e √ √ √ −t √ √ √ 2e cos√ 2t −√ e−t sen√ 2t  =  √2e−t cos √2t e−t sen √2t − 2e−t sen 2t e−t cos 2t −e−t cos 2t − 2sen 2t   1 0 t 0  0 1 t 0   = e2t   0 0 1 0 . 0 0 −t 1 

7.

b) etA

11.

a) etA

b) etA

c) etA

3.

Sistemas no homog´ eneos con coeficientes constantes Se estudiar´a la ecuaci´on no homog´enea, dx = Ax + b dt

(18)

donde A = (aij ) es una matriz n × n, real y constante y 

 b1 (t)   b(t) =  ...  bn (t) es una funci´on vectorial continua en un intervalo J.

3.1.

M´ etodo de los coeficientes indeterminados

Por el segundo principio de superposici´on para (18) (Teorema 6), si se conoce una soluci´on particular xp (t) de (18), entonces una soluci´on general de (18) es x(t) = xp (t) + xH (t), dx dt

= Ax, que se puede obtener,

  t  0 1 0 e dx  0 0 1 x +  0 , = dt 0 0 0 e2t

(19)

donde xH (t) es una soluci´on general del sistema homog´eneo te´oricamente al menos, por el m´etodo de § 10.2. Ejemplo 11. Para 

22



   a1 b1 se puede buscar una soluci´on xp (t) = et  a2  + e2t  b2  . Derivando y reemplazando a3 b3 en (19) se obtiene        t  a1 b1 a2 et + b2 e2t e t 2t  t 2t      a2 b2 a3 e + b 3 e 0  e + 2e = + a3 b3 0 e2t de donde (igualando los respectivos coeficientes), se tiene que a1 = 1, a2 = a3 = 0, b1 = 1 , b2 = 41 , b3 = 12 . 8   1 t 21 t2 En el ejemplo 3 iii) de § 10.2, B se calcul´o etA =  0 1 t . As´ı , una soluci´on general 0 0 1 ser´a  t 1 2t     e + 8e 0 t 12 t2 c1 x(t) = xp (t) + xH (t) =  14 e2t  +  0 1 t   c2  , 1 2t e 0 0 1 c3 2 donde c1 , c2 , c3 son constantes arbitrarias.

3.2.

F´ ormula de variaci´ on de par´ ametros

Si se conoce la exponencial etA , es posible hallar todas las soluciones de un sistema no homog´eneo (18) en una forma completamente an´aloga a como resolvimos la ecuaci´on lineal 1–dimensional dx = ax + b en la gu´ıa 2 (Como hallar soluciones de ecuaciones de primer dt orden). Busquemos la soluci´on x(t) de (18) que satisface x(t0 ) = x0

(t0

en J,

x0

en Rn

dados).

Recordemos que e−tA es invertible y que dtd (e−tA ) = −Ae−tA . Entonces, multiplicando por e−tA la ecuaci´on (18) dx − Ax(t) = b(t), dt se convierte en dx e−tA − e−tA Ax = e−tA b(t). dt Es decir, d −tA (e x(t)) = e−tA b(t), para t en J. dt Integrando entre t0 y t, Z t Z t d −sA −tA −t0 A e x(t) − e x0 = (e x(s))ds = e−sA b(s)ds. ds t0 t0 Se concluye que para t en J, la soluci´on est´a dada por: (f´ormula de variaci´on de par´ametros)   Z t Z t tA −t0 A −sA (t−t0 )A x(t) = e e x0 + e b(s)ds = e x0 + e(t−s)A b(s)ds t0

t0

23

Observaci´ on. xH (t) = e(t−t0 )A x0 Z

es la soluci´on de

x0 = Ax x(t0 ) = x0

t

e(t−s)A b(s)ds es la soluci´on particular de

xp (t) = t0

Ejemplo 12. Sean α y β constantes.  0 dx  0 = dt 0 x(0) = 0.

x0 = Ax + b(t), x(t0 ) = x0

Buscamos la soluci´on del problema de valor inicial    1 0 α cos t 0 1 x +  0  0 0 βt

Sabemos, (Ejemplo 3 iii), § 10.2) que 2  1 t t2 =  0 1 t . 0 0 1



etA

Por la f´ormula de variaci´on de par´ametros, la soluci´on particular es    α sen t + α cos s + β2 s3 R R tA t −sA tA t  tA  2  xp (t) = e 0 e b(s)ds = e 0 ds = e −βs − β3 t3 β βs  t 2  1 4 α sen t + 24 β 1  βt3 =  6 1 2 βt 2

β 4 t 8

 

Ejercicios 1. Halle la soluci´on general de los problemas no homog´eneos siguientes:     6 −3 t dx a) dt = x+ . 2 1 cos t    −t  2 0 1 0 e      0 2 1 0 x +  0  b) dx = dt  0 0 2 0   1  0 0 −1 2 0 Respuestas 1 33 21 5 − 12 t − 170 cos t + 170 sen t 144 + e3t 1 73 31 7 + t − cos t + sen t 72 6 170 170    1   1 2   1−e−2t  1  te−2t  e2t −e−t  0  2    3  0 − 2  −1 + 2 



 1.

a) x (t) =

b) x (t) =

0 Nota: Hemos tomado t0 = 0.

− 12

24



  1 3et C1 . 1 2et C2   1 1 0 t  1  +e2t  0 1 t  0 0 1 0  −1 0 0 −t

 0 C1  C2 0   0   C3 1 C4

   

Get in touch

Social

© Copyright 2013 - 2024 MYDOKUMENT.COM - All rights reserved.