2. Sistemas y ecuaciones lineales

2. Sistemas y ecuaciones lineales Si ya se podían resolver muy pocas ecuaciones de primer orden, menos aún se pueden resolver sistemas de tales ecuaci

1 downloads 153 Views 265KB Size

Recommend Stories


2.- Sistemas de ecuaciones Lineales
2.- Sistemas de ecuaciones Lineales 2.1.- Definición, Clasificación de los sistemas lineales y tipos de solución. Definición Una ecuación lineal con l

SISTEMAS DE ECUACIONES LINEALES
1 SISTEMAS DE ECUACIONES LINEALES Una ecuación es un enunciado o proposición que plantea la igualdad de dos expresiones, donde al menos una de ellas

Story Transcript

2. Sistemas y ecuaciones lineales Si ya se podían resolver muy pocas ecuaciones de primer orden, menos aún se pueden resolver sistemas de tales ecuaciones o ecuaciones de orden n > 1 . Salvo escasas excepciones, sólo en el caso lineal se puede caracterizar la estructura de las soluciones y casi sólo si los coeficientes son constantes se pueden hallar explícitamente tales soluciones mediante métodos elementales. En la sección 2.1 enunciaremos las propiedades básicas (muy similares a las de ecuaciones de primer orden) de los sistemas de n ecuaciones (lineales o no) y de las ecuaciones de orden n , que veremos que se pueden considerar como un caso particular de sistemas. No daremos las demostraciones (bastaría casi sustituir en las del caso n = 1 los valores absolutos por normas). En la solución general de un sistema o ecuación de orden n aparecerán n constantes arbitrarias (así lo sugieren los ejemplos más sencillos de sistema: 0 = 0 , y 0 = 0 , y de ecuación: 00 = 0 ). El problema de valores iniciales consistirá en hallar la solución que cumpla n condiciones en un instante t = to (si los datos se dan en t distintos, el ’problema de contorno’ tiene otras propiedades que se suelen estudiar en los cursos de EDPs). Será fácil ver cuando este problema tiene solución única local. También daremos un resultado de prolongabilidad y la definición de estabilidad. No generalizaremos, sin embargo, dos secciones del capítulo anterior: el dibujo aproximado y los métodos numéricos. En el primer caso, porque no se puede: las soluciones de un sistema son curvas en un espacio de dimensión mayor que dos (en el capítulo 4, para sistemas autónomos de segundo orden, sí nos preocuparemos del dibujo de las proyecciones de las soluciones sobre el plano t = 0 ). Los métodos numéricos son tan parecidos al caso n = 1 que no merece la pena tratarlos de nuevo. La 2.2 trata ya en el caso lineal y, para ir fijando ideas, en el más sencillo n = 2 :  0  = (t) + b(t)y + ƒ (t) [S] y 0 = c(t) + d(t)y + g(t) Tendremos una fórmula de variación de las constantes que nos dará las soluciones de [S] si somos capaces de hallar lo que se llama una matriz fundamental W(t) (formada por soluciones del sistema homogéneo). Esta matriz sabremos calcularla (utilizando resultados de álgebra) en el caso de que las funciones  , b , c y d sean constantes (entonces W(t) será la exponencial de una matriz). De lo anterior deduciremos resultados para las ecuaciones de segundo orden: [e] 00 + (t)0 + b(t) = ƒ (t) Resolver [e] será especialmente sencillo para coeficientes constantes. Si son variables, veremos los pocos casos (ecuaciones de Euler t 2 00 + t0 + b = h(t) , si b(t) ≡ 0 y si conocemos una solución de la homogénea) en que aún se puede hallar su solución a través de integraciones (en el resto de los casos habrá que utilizar series, siguiendo el capítulo 3). En la sección 2.3, y con pocas demostraciones, veremos los resultados para un n general. Aunque la teoría sea prácticamente la misma, los cálculos prácticos se complican y muchas veces se vuelven imposibles. Si los coeficientes son constantes seguirá siendo fácil dar la solución de ecuaciones homogéneas, en el caso excepcional de que podamos hallar las raíces (autovalores) de un polinomio (característico) de grado n . Para resolver un buen número de ecuaciones no homogéneas tendremos el método de coeficientes indeterminados. Para los sistemas, incluso conociendo los autovalores, aparecen dificultades algebraicas, salvo que la matriz del sistema sea diagonalizable (daremos varias ideas de cómo proceder aunque no sea el caso).

27

En 2.4 analizaremos la estabilidad de sistemas y ecuaciones lineales de cualquier orden, que se podrá precisar fácilmente en el caso de coeficientes constantes: bastará casi siempre con saber si la parte real de los autovalores es negativa o no. Y podremos decidir esto, utilizando el llamado ’criterio de Routh-Hurwitz’, incluso aunque no se pueda resolver el sistema o la ecuación, por aparecernos polinomios de raíces no calculables. La sección 2.5 introduce una técnica totalmente diferente para hallar soluciones particulares de un buen número de sistemas y ecuaciones lineales con coeficientes constantes: la transformada de Laplace, que convierte ecuaciones diferenciales en otras sin derivadas. Esta técnica no permite resolver nada que no pudiésemos resolver con las secciones previas, pero a menudo nos da la solución de una forma más rápida y además nos permite abordar problemas para los que nuestros conocimientos algebraicos no nos basten. La transformada es especialmente útil cuando los términos no homogéneos tienen diferentes expresiones en diferentes intervalos o cuando contienen la ‘función’ δ(t − ) . La última sección (2.6) muestra como obtener información sobre el número de soluciones periódicas de sistemas y ecuaciones lineales de coeficientes periódicos, sin necesidad de resolverlos. Cuando la única solución periódica del homogéneo sea la trivial, el no homogéneo tendrá una sola solución periódica, y más complicado será decidir (no tendrá ninguna o tendrá infinitas) lo que ocurre si hay infinitas soluciones periódicas de la ecuación o sistema homogéneos.

28

2.1 Propiedades generales Sea el sistema de n ecuaciones de primer orden: [S]

 0  1 = ƒ1 (t, 1 , . . . , n ) ·····················  0 n = ƒn (t, 1 , . . . , n )

Sus soluciones son conjuntos de n funciones 1 (t), . . . , n (t) , definidas y derivables en un intervalo común  , que convierten cada ecuación de [S] en una identidad. Llamaremos [P] al problema de valores iniciales formado por [S] y las n condiciones: 1 (to ) = 1o , . . . , n (to ) = no En notación vectorial:  0 x = f(t, x) x(to ) = xo

, con x =

1 : n

!

, f=

ƒ1 : ƒn

!

, xo =

1o : no

!

. Las soluciones x(t) =

1 (t) : n (t)

!

las podemos mirar entonces como funciones vectoriales de  en Rn . Ç

Llamaremos kxk = 21 + · · ·+ 2n (norma euclídea) y bola de centro a y radio r al  conjunto B(, r) = x ∈ Rn : kx−k < r (círculo en el plano, esfera en el espacio, ...). Los TEyU y prolongabilidad son muy parecidos a los de n = 1 : ƒ y

Teor 1.

∂ƒ ∂k

, , k = 1, . . . , n continuas en [to − h, to + h] × B(xo , r) ⇒

[P] tiene solución única definida al menos en un entorno de to .

(Y si sólo las ƒ son continuas existe solución, aunque podría no ser única). ∂ƒ

Si ƒ , ∂ continuas en [to , ∞) × Rn o bien existe t1 tal que kx(t)k → ∞ k cuando t → t1 o bien la solución x(t) de [P] está definida ∀t ≥ to .

Teor 2.

(Y si son continuas en un D ⊂ Rn+1 las soluciones llegan hasta la frontera de D ). También hay dependencia continua de parámetros y datos iniciales y la definición de estabilidad es como la de primer orden, sustituyendo los valores absolutos por normas: Una solución x(t) definida en [to , ∞) es estable si ∀ε > 0 ∃δ > 0 tal que toda solución x∗(t) con kx(to )− x∗(to )k < δ existe, está definida en [to , ∞) y verifica kx(t) − x∗(t)k < ε para todo t ≥ to . Si además kx(t) − x∗(t)k → 0 cuando t → ∞ , se dice que x(t) es asintóticamente estable. (pero para un sistema puede ocurrir que kx(t)−x∗(t)k → 0 si t → ∞ y sin embargo que no consigamos hacer que kx(t)−x∗(t)k sea menor que cualquier ε prefijado) 

Ej 1.

0 = 3t1/ 3 + ln y y 0 = y− t 3

Posee solución con (to ) = o , y(to ) = yo si yo > 0. Única si o 6= 0.

No sabemos, ni sabremos, hallar su solución general, ni ver qué soluciones están definidas ∀t , ni precisar su estabilidad (aunque se podrían hallar los valores aproximados para unos datos iniciales concretos por métodos numéricos). Es trivial comprobar que una solución del sistema es x(t) =



t3 1

‹

(única con (1) = y(1) = 1 , aunque tal vez haya más con (0) = 0 , y(0) = 1 ).

29

Consideremos ahora la ecuación de orden n : [E] (n) = g t, , 0 , . . . , (n−1)



.

Sus soluciones son funciones (t) derivables n veces en un intervalo  que llevadas a [E] la convierten en una identidad. Llamamos [PE] al problema de valores iniciales consistente en hallar la solución de [E] que satisface las n condiciones: (to ) = o , 0 (to ) = 0o , . . . , (n−1) (to ) = (n−1) o

.

Toda ecuación de orden n se puede convertir en un sistema (sistema equivalente): Haciendo:  = 1 , 0 = 2 , . . . , (n−1) = n →  0    ! !  1 = 2  o 1  02 = 3 : [SE] . Llamando x = : = , x o = :  ,  ··············· (n−1) n (n−1)  o  0 = g(t,  , . . . ,  ) 1 n n

es claro que  es solución de [E] si y sólo si x lo es de [SE]. Si además x cumple x(to ) = xo ,  es solución de [PE]. Gracias a esto, de cualquier resultado que obtengamos para sistemas podremos deducir consecuencias inmediatas para ecuaciones (aunque iremos viendo que éstas tendrán formas de resolverse más directas, con lo que casi nunca acudiremos al sistema equivalente para hallar soluciones). Por ejemplo, los teoremas 1 y 2 se pueden aplicar a ecuaciones. Veamos la forma particular que adopta el TEyU: ∂g

∂(n−1) g

0 (n−1) ) Teor 3. g , ∂ , . . . , ∂(n−1) continuas en un entorno de (to , o , o , . . . , o ⇒ [PE] tiene solución única definida al menos en un entorno de to .

Por último, se dice que (t) es solución estable o asintóticamente estable de [PE] si lo es la solución x(t) del sistema equivalente (y por lo tanto se han de parecer tanto (t) y ∗ (t) como las n − 1 primeras derivadas de las dos soluciones). Ej 2.

t 2 00 − 2t0 + 2 = 0

. Posee solución única con (to ) =  , 0 (to ) = b si to 6= 0 .

En la próxima sección veremos que su solución general es:  = c1 t + c2 t 2 . La única solución que satisface (1) =  , 0 (1) = b es  = (2 − b)t + (b − )t 2 (que, como debía, es función continua de los datos iniciales). Las infinitas soluciones  = c2 t 2 satisfacen (0) = 0 , 0 (0) = 0 , pero no hay ninguna satisfaciendo (0) = 1 , 0 (0) = 0 . La solución con (1) = 0 (1) = 1 (o sea,  = t ) es I pues para el sistema equivalente  0

 ‹   ‹ ‹  =y

t t (2− b)t + (b− )t 2 es inestable x(t) = , pues −

→∞, 1 1 (2− b)+ 2(b− )t y 0 = −2t −2 + 2t −1 y para infinitos  y b tan cercanos como queramos a 1 . (Escribir las soluciones del sistema equivalente a partir de las de la ecuación es muy sencillo: basta formar un vector cuyo primer elemento sea la solución de la ecuación, y los sucesivos de debajo sus derivadas; y si resolvemos una ecuación a partir del equivalente (poco útil como se ha dicho) lo que obtendremos es un vector en el que cada elemento es derivada del de arriba, y el primero es la solución de la ecuación).

30

2.2 Sistemas de 2 ecuaciones lineales y ecuaciones lineales de orden 2 Sea

 0  = (t)+ b(t)y+ ƒ (t)

. O en forma vectorial:

y 0 = c(t)+ d(t)y+ g(t)

[S] x0 = A(t)x+ f(t)

 ‹ 





b

‹

 ‹ ƒ

, con x = y , A = c d , f = g .

Suponemos  , b , c , d , ƒ , g funciones de R en R continuas (o sea, la matriz A(t) y la función vectorial f(t) lo son) en un intervalo  (finito o infinito, abierto o cerrado) y sea to ∈  . El teorema de existencia y unicidad asegura que entonces una única solución de [S] cumple cualquier par de datos iniciales (to ) = o , y(to ) = yo . Como ocurría en las lineales de primer orden, se puede probar que la solución única está definida ∀t ∈  . Consideremos primero el sistema homogéneo: [Sh] x0 = A(t)x . 

 (t)  (t)

‹





Una matriz W(t) = y 1 (t) y 2 (t) cuyas columnas x1 = y 1 1 1 2

‹





y x2 = y 2 2

‹

son soluciones de [Sh] y tal que el determinante |W|(to )| 6= 0 se llama matriz fundamental de [Sh]. El siguiente teorema asegura que [Sh] está resuelto conocida una W(t) (pero no nos dice cómo calcularla): El conjunto V de soluciones de [Sh] es un espacio vectorial de dimensión 2 . Una base de V es el conjunto {x1 , x2 } , soluciones que constituyen Teor 1. una matriz fundamental W(t) . Por tanto, la solución general de [Sh] es: x = c1 x1 + c2 x2 = W(t)c , con c =



c1 c2

‹

arbitrario.

Es muy fácil comprobar que cualquier combinación lineal de soluciones de [Sh] es también solución. Además probamos que son base de V las soluciones e1 (t) y e2 (t) de [Sh] de  ‹  ‹ 1 0 valores iniciales respectivos 0 y 1 : Son linealmente independientes: c1 e1 (t)+ c2 e2 (t) ≡ 0 ⇒ c1 e1 (to )+ c2 e2 (to ) = 0 ⇒ c1 = c2 = 0 . 

(t)

‹

Toda solución x(t) = y(t) se puede escribir como combinación lineal de ellas: z(t) = (to )e1 (t)+y(to )e2 (t) es solución con z(to ) = x(to ) ⇒

unicidad

x(t) ≡ z(t) ∀t ∈  .

Sean ahora x1 y x2 soluciones cualesquiera satisfaciendo |W|(to )| 6= 0 . Dichas soluciones son linealmente independientes: c1 x1 (t)+ c2 x2 (t) = W(t)c ≡ 0 ⇒ W(to )c = 0 ⇒ c1 = c2 = 0 . Un sistema tiene infinitas matrices fundamentales W(t) . A partir de cualquier de ellas podríamos calcular la solución de [Sh] con el dato inicial x(to ) = xo simplemente resolviendo el sistema de dos ecuaciones con dos incógnitas W(to )c = xo , que tiene solución única por ser el determinante |W|(to )| 6= 0 . Pero lo podemos hacer también directamente a partir de la llamada ‘matriz fundamental canónica’:

31

Se llama Wc (t) , matriz fundamental canónica en to , a la que satisface Wc (to ) = I . Dada cualquier W(t) , a partir de ella se puede hallar la canónica, pues Wc (t) = W(t)W−1 (to ) . La solución x de [Sh] que cumple x(to ) = xo es: x = Wc (t)xo = W(t)W−1 (to )xo . Es claro que W(t)W−1 (to ) es la matriz unidad I en t = to y además el producto de W(t) por la derecha por cualquier matriz constante no singular sigue siendo fundamental (sus columnas, como es fácil comprobar, son combinaciones lineales de soluciones, y por tanto son soluciones, y su determinante sigue siendo no nulo). Que la última expresión satisface x(to ) = xo es evidente. [Para casi todos los sistemas lineales, incluso para estos 2x2, va a ser imposible hallar ninguna W(t) (y, por tanto, tampoco las soluciones; cuando A sea constante, pronto veremos cómo calcular una, que precisamente va a ser la canónica). Esto es ya mucho más complicado que las lineales de primer orden que vimos en el capítulo 1. Allí la ‘matriz fundamental’ era simplemente un escalar, expresable siempre en términos de primitivas (era la exponencial de R la  ), y si  era constante esa ’matriz’ era et ]. Consideremos ahora el sistema no homogéneo: [S]

x0 = A(t)x+ f(t) .

i] Si xp es cualquier solución de [S] y W(t) es una matriz fundamental de [Sh], la solución general de [S] viene dada por x = W(t)c+ xp . R −1 Teor 2. ii] Una solución particular de [S] es xp = W(t) W (t) f(t) dt . iii] Si Wc (t) es la canónica en to la solución de [S] con x(to ) = xo es x = Wc (t)xo + Wc (t)

Rt to

W−1 (s) f(s) ds c

[Como en las de primer orden, a las fórmulas de ii] y iii] se les llama de variación de las constantes]. i] Sea x solución de [S]. Entonces [x− xp ] 0 = Ax+ f− Axp − f = A[x− xp ] Por tanto x− xp = W(t)c para algún c , pues satisface [Sh]. Así pues, toda solución se puede escribir así. ii] Veamos que W−1 existe, es decir, que la W(t) es no singular ∀t ∈  : Si fuera |W|(t) = 0 para algún s ∈  existirían b1 , b2 no ambos nulos tales que b1 x1 (s)+ b2 x2 (s) = 0 . Entonces x(t) = b1 x1 (t)+ b2 x2 (t) sería solución con x(s) = 0 . Por unicidad sería x(t) ≡ 0 y por tanto sería |W|(t) = 0 para todo t ∈  , en particular para to . Y como matrices y vectores se derivan como las funciones de una variable: R x0p = W0 W−1 (t) f(t) dt + WW−1 f = Axp + f , pues W0 = AW por ser solución cada columna. iii] Por i] y ii] es solución de [S]. Y además cumple el dato: x(to ) = Wc (to )xo =  xo = xo . Así pues, hallada cualquier W(t) está resuelto el sistema homogéneo y el no homogéneo (y también el problema de valores iniciales). Pero sólo tendremos un método para calcular la W(t) en el caso que tratamos a continuación: si la matriz A es constante. Para ese cálculo necesitaremos algunas definiciones y resultados algebraicos previos cuya demostración se puede encontrar en los libros de álgebra.

32

Sistemas lineales de coeficientes constantes: [C]

x0 = Ax+ f(t)



x0 = Ax

y [Ch]



b d

, con A = c

‹

matriz constante. 1 2 B +· · · 2

La exponencial de una matriz B se define: eB = I+ B+

,

serie convergente (sus elementos son series numéricas convergentes) para toda B . Se tiene que eB es no singular, que su inversa es e−B y que eB+C = eB eC si BC = CB . La exponencial de una matriz no se calcula directamente, sino a partir de su forma J de Jordan (la forma más sencilla en que se puede escribir la matriz haciendo cambios de base). Aunque en general sea complicado hallar la J asociada a una A , en el caso n = 2 que estamos tratando es fácil dar tanto J como la matriz P del cambio de base:   Sea A una matriz 2x2 y sean λ1 , λ2 sus autovalores raíces de |A− λ| = 0 . Entonces hay una matriz no singular P tal que A = PJP−1 donde: i] Si λ1 6= λ2 y v1 , v2 son vectores propios asociados [o sea, (A− λ )vi = 0 ], Š €  ‹ J = λ01 λ02 y P = v1 v2 , matriz cuyas columnas son v1 y v2 . ii] Si λ1 = λ2 = λ y sólo existe un vector propio v linealmente independiente € Š  ‹ asociado, J = λ1 λ0 y P = w v , w cualquier vector con (A− λ)w = v . iii] Si λ1 = λ2 = λ y existen dos vectores propios linealmente independientes asociados a λ , entonces A es ya diagonal. [Los autovalores de una A real pueden ser reales o complejos conjugados; en este último caso la J y la P serán complejas, pero PJP−1 será real]. Teor 3. Wc (t) = eA(t−to ) es la matriz fundamental canónica en to de [Ch]. En efecto,

d At e dt

=



d X (At)k dt k!

=

k=0

∞ X d (At)k

dt

k!

=A

k=0

∞ X (At)k−1 k=1

(k−1)!

= AeAt , admitiendo que se

puede derivar la serie término a término (se puede justificar) y tomando to = 0 por comodidad en la escritura. Es, pues, eA(t−to ) matriz fundamental pues cada una de sus columnas cumple también [Ch]. Como eA(to −to ) =  , es la canónica. Hemos reducido el problema de resolver [C] al de hallar la exponencial de At (del producto del escalar t por la matriz A ). Usando la J asociada a la A es fácilmente calculable, pues eAt está relacionada con eJt de la misma forma que la A con la J : eAt = P eJt P−1 ∞ X Ak t k

k! k=0

=

∞ X PJk P−1 t k

k!

=P

k=0

∞ k k X J t

k!

, ya que

P−1 = PeJt P−1 , pues Ak = PJP−1 · · · PJP−1 = PJk P−1 .

k=0

Y eJt es fácil de hallar en las dos posibles situaciones que ofrece Jordan para n = 2 : 

λ

0 λ2

i] Si J = 01

‹

, es eJt =



i] Utilizando la definición: eJt = ii] Como J =



λ 0

0 λ

‹

+



0 1

0 0

‹

eλ1 t 0



1 0

0 1



0 eλ2 t ‹

+





λ

0

‹



1

0 1

. ii] Si J = 1 λ , es eJt = t

λ1 t 0

0 λ2 t

‹

1 + 2!

= D+ N , eJt = eDt eNt =

33



eλt 0



λ21 t 2 0 0 eλt

0



λ22 t 2

”

1 0

0 1

+· · · =

‹

+



0 t



0 0

eλ1 t 0

‹—

=

‹

0

e 

1 t

eλt . 

λ2 t

0 1

.

‹

eλt .

De lo anterior y del teorema 2 deducimos la fórmula de variación de las constantes para la solución de [C] que satisface el dato inicial x(to ) = xo : x = P eJ(t−to ) P−1 xo + P

Rt to

eJ(t−s) P−1 f(s) ds

donde todas las matrices son calculables (hallada la eJt , basta cambiar t por t−to o por t−s para obtener las otras). Insistimos en que los λ y las matrices P , P−1 y eJt pueden ser complejos, pero si A es real han de ser reales eAt y la solución x . Para hacer los cálculos de esta fórmula es aconsejable efectuar las operaciones de derecha a izquierda, de forma que sólo haya que multiplicar matrices por vectores (y no matrices por matrices lo que es mucho más largo y mayor fuente de errores). Si lo que se busca es la solución general nos podríamos ahorrar algunos cálculos, pues no necesitamos la canónica. Por ejemplo, W(t) = P eJt es matriz fundamental de [Ch] (es producto por la derecha de la matriz canónica por la P no singular) y de ella deducimos que la solución general del sistema homogéneo [Ch] es simplemente x = P eJt c , con c arbitrario. Pero esta expresión puede ser inadecuada si los λ son complejos, pues queda x expresada en términos de funciones y constantes complejas (en ese caso mejor seguimos lo otros caminos que describiremos).  0  = 2 + y y 0 = 3 + 4y + et con (0) = 0 , y(0) = 1

Ej 1. Resolvamos



2

, es decir, x0 = 3

‹  ‹  ‹ 0 0 1 . x + , x(0) = 1 4 et

[Sabemos que dicha solución es única y que está definida para todo t ∈ R ].   ‹ 5 0 e5t 0 Jt → λ1 = 5 y λ2 = 1 . Por tanto, J = 0 1 , e = . 0 et ‹ ‹   ‹  ‹ 1 1 1 1 1 v = 0 → v1 = 3 . (A− )v = 3 3 v = 0 → v2 = −1 ⇒ −1  ‹  ‹ ‹  1 1 1 1 1 1 −1 −1 P = 3 −1 ⇒ P−1 = −4 = . 4 3 −1 −3 1 

|A− λ| = λ2 − 6λ+ 5 = 0 

−3

(A− 5)v = 3

(Escribir la inversa de una matriz 2x2 es casi inmediato: 



P= c

‹  ‹ b d −b −1 = 1 ⇒ P |P| −c d 

se cambian  y d de sitio, b y c de signo y se divide por el determinante). Por tanto: =



e5t 1 P 4 0

x(t) = 0 et



=



1 1 P eJt 3 4 ‹

1 + 14 P −1 

e5t

1 −1

Z t

et

0

− 1 4 3e5t + et



Zt ‹ ‹  0 1 1 + eJ(t−s) 3 P 4 1 0

e5(t−s) 0

+

1 −1



1 1 4 3

0



1 −1

‹ 1

et−s 4

‹

‹  es 1 1 ds = s 4 3 −e

[e5t

− −tet

et ]



=

‹ 0 ds es

1 −1 

‹

‚R t Œ  e5t−4s ds e5t 1 0 Rt +4 P −et − et ds 0

5e5t

5et

4tet

− − 1 16 15e5t + et + 4tet



Si queremos la solución general, los cálculos son algo más cortos. La solución general de la homogénea xh se escribe rápidamente una vez hallados los autovalores y vectores propios:    ‹  ‹  e5t et 5t 1 + c et 1 xh = W(t)c = PeJt c = = c 1 e λ1 t v 1 + c 2 e λ2 t v 2 2 5t t c = c1 e 3 −1 3e

−e

Para la solución particular de la no homogénea sí necesitamos hallar alguna inversa: W−1 (t) =



−5t

1 e 4 3e−t

    −4t ‹ R et − 4tet e−5t e 1 1 , xp = W(t) W−1 (t) f(t) dt = 16 W(t) = 16 . t t −t −4t 3e + 4te −e

Englobando los términos con et de la xp en la constante c2 , obtenemos esta solución general del sistema:  ‹ 1



1

‹

x = xh + xp = c1 e5t 3 + c2 et −1 +

34

1 4



−1

t et 1

‹

§ 0  =−y+2 y0 =  + y

Ej 2. Resolvemos

(0) = 0 y(0) = 1

con



‹  ‹  ‹ 2 0 1 −1 x + , x(0) = . 1 0 1

→ x0 = 1

|A− λ| = (λ− 1)2 + 1 = 0 → λ = 1±  → eJt =



et+t 0

0

 

et−t

=

et [cos t +  sen t] 0

et [cos t

0 −  sen t]



.

[Recordemos que e±b = e [cos b ±  sen b] y que, por tanto, eb + e−b = 2 cos b , eb − e−b = 2 sen b ].  ‹ ‹ − −1 = 1 − 1 ⇒ P 2  1 1   ” 2 0 — −2 1 comprobamos: P P−1 = 2 . 0 2 

±

(A− [1± ])v = 0 → v± = 1

x(t) =

1 2

”



−

= et

−

P eJt 



Rt 0

1 1

Zt  ‹ ‹ 0 1 J(t−s) − P e + 2  1 0

e(1+)(t−s) ds

=

‹





⇒ P= 1

1 1

  (1+)(t−s) t e 1+ 0

  Z t  ‹ ‹ −e(1+)(t−s) et 2 1 t e P + P ds = ds −t (1−)(t−s) 2 0 e e 0

=

 (1−)  1− e(1+)t 1+1

— y análoga la otra

      ‹ ‹ (1+)t + [− 1]e(1−)t [1+ ] 1− e(1+)t − sen t − sen t 1 −2 + [− 1]e 1   = et P + + 2 2 2 − [1+ ]e(1+)t − [1− ]e(1−)t cos t cos t [1− ] 1− e(1−)t    t    e cos t − 1 −1 + et [cos t + sen t] −et sen t = + = et sen t + 1 1 + et [− cos t + sen t] et cos t

Está claro que trabajar con autovalores complejos complica mucho los cálculos. Por suerte conoceremos otros caminos para resolver estos sistemas: pronto veremos como convertirlos en ecuaciones de segundo orden (mucho más manejables) y en 2.5 dispondremos de la transformada de Laplace. Para este ejemplo concreto (con f(t) constante) podíamos haber atajado buscando una solución del sistema no homogéneo que fuese también constante (no siempre existirá, pues será necesario que el determinante |A| 6= 0 , o lo que es lo mismo, que λ = 0 no sea autovalor). Basta resolver el sistema § ‹  − y+ 2 = 0 −1 para obtenerla:  = −1 , y = 1 → xp = 1 . + y = 0 Nos falta ya sólo sumar a xp la solución general del homogéneo ( c1 eλ1 t v+ + c2 eλ2 t v− como vimos en ejemplo anterior), e imponer los datos: x=



 c1  et+t − c2  et−t − 1 d.. c1  − c2  = 1 1 1 → → c1 = 2 , c2 = − 2 → c1 + c2 = 0 c1 et+t + c2 et−t + 1 ‚1 Œ   t et [et + e−t ] − 1 e cos t − 1 2 x = 1 t t = t e sen t + 1 e [e − e−t ] + 1 2

Si queremos la solución general en términos de funciones reales podemos hallar P−1 y calcular hasta el final la matriz canónica: eAt =

1 2



 − 1 1

‹

et+t 0

0 et−t



 t ‹ e cos t − 1 =  1 et sen t

−et sen t et cos t





c

‹

→ x = eAt c1 + 2



‹ −1 . 1

[Con esta matriz fundamental real podríamos hallar una xp (y no sólo en este caso de f constante) realizando integraciones de funciones reales. Pero esto tampoco ahorra tiempo porque, por ejemplo, es más rápido hallar una primitiva de e(1+)t que de et cos t (hay que utilizar dos veces partes para volver a encontrar la integral inicial)].

Dejemos ya los sistemas de dos ecuaciones lineales y pasemos a estudiar las ecuaciones lineales de orden dos que, como dijimos en la sección 2.1, se pueden considerar como un caso particular de ellos. Será cuestión de ir viendo la forma que adoptan los resultados anteriores para el ‘sistema equivalente’ a una ecuación, aunque este no sea el camino más corto para estudiar las ecuaciones (sus teoremas se podrían probar sin necesidad de matrices).

35

Ecuaciones lineales de segundo orden: Consideremos [e]

00 + (t)0 + b(t) = ƒ (t) , con  , b y ƒ continuas en  .

Sabemos que hay solución única definida en todo el intervalo  para cada par de datos iniciales (to ) = o , 0 (to ) = 0o si to ∈  . Haciendo 0 = y se tiene el sistema § 0  ‹  ‹  =y   , cuyas soluciones serán funciones vectoriales y = 0 . 0 y = −b(t)− (t)y+ ƒ (t)

Este sistema está resuelto conociendo una matriz fundamental W(t) . Para ello basta hallar dos soluciones 1 y 2 de la ecuación homogénea asociada a [e] (pues la fila inferior de la matriz estará formada por las derivadas 01 y 02 ) tales que sea no nulo en algún s ∈  el llamado  1

determinante wronskiano de 1 y 2 : |W|(t) = 0 1

2 . 02

La solución general de [e] será entonces la primera componente del vector:  0   ‹ R 2 (t) −2 (t) 0 1 W(t)c + W(t) W−1 (t) ƒ (t) dt , y como W−1 (t) = |W|(t) , 0 − (t)  (t) 1

1

unas pocas operaciones nos permiten concluir de los teoremas para sistemas que: i] Si 1 y 2 son dos soluciones de la homogénea tales que |W|(s) 6= 0 para algún s ∈  y p es cualquier solución particular de [e], la solución Teor 4. general de [e] es:  = c1 1 + c2 2 + p . R 1 ƒ R 2 ƒ ii] Una solución particular de [e] es: p = 2 |w| dt − 1 |w| dt . [Fórmula de variación de las constantes]. La expresión de las dos soluciones en términos de funciones elementales se podrá dar sólo en los pocos casos que vamos a describir (en el capítulo 3 resolveremos las ecuaciones del tipo [e] por medio de series). Resolvamos la ecuación con coeficientes constantes: [c] 00 + 0 + b = ƒ (t) . Llamemos [ch] a la ecuación homogénea ( ƒ ≡ 0 ). La matriz del sistema asociado: 

0

1 −

A = −b

‹

, tiene por ecuación característica P(λ) ≡ λ2 + λ+ b = 0 .

Como los elementos del vector real PeJt P−1 c , solución general del sistema homogéneo, están formados por combinaciones lineales arbitrarias de los elementos de la matriz eJt , la solución general de [ch] es, según sean las raíces de P(λ) : Si λ1 6= λ2 reales,  = c1 eλ1 t + c2 eλ2 t Si λ doble (real),  = (c1 + c2 t) eλt Si λ = p± q ,  = (c1 cos qt + c2 sen qt) ept pues eJt es:



eλ1 t 0

0 eλ2 t



,



1 t

0 1

‹

eλt ó



ept [cos qt +  sen qt] 0

0 −  sen qt]



ept [cos qt

[Se puede llegar a la solución por un camino directo sin pasar por el sistema equivalente: probando en [ch] soluciones del tipo  = eλt se deduce que λ debe satisfacer la ecuación característica de arriba; si λ1 6= λ2 ∈ R es inmediato que el |W| de eλ1 t y eλ2 t es no nulo; si λ doble, se comprueba que teλt también es solución y que es 6= 0 el |W| de ambas; y si λ ∈ C se utiliza que la parte real y la imaginaria de una solución compleja también lo son].

Para hallar la solución particular de la no homogénea [c] disponemos siempre de la fórmula de variación de las constantes, pero en muchas ocasiones será preferible utilizar el método de los coeficientes indeterminados que precisaremos en la próxima sección e iremos introduciendo en los ejemplos.

36

00 − 20 +  = 6tet con (1) = 0 (1) = 0

Ej 3. Resolvemos

.

λ2 − 2λ+ 1 = 0 → λ = 1 doble, luego la solución de la homogénea es h = (c1 + c2 t) et . R t t R t t et tet 2t →  = 6tet e te dt − 6et te te dt = t 3 et →  = (c + c t)et + t 3 et . |W|(t) = t 1 2 p t = e e2t e2t e (t + 1)e

(1) = [c + c + 1]e = 0

2 De los datos iniciales: 0 (1) = [c1 + 2c 1 2 + 4]e = 0

ª

→  = (2− 3t + t 3 ) et , solución buscada.

[Se puede hallar p con el método de coeficientes indeterminados que veremos; la idea es buscar una p ‘similar’ a ƒ (t) ; parece que una buena candidata a p es un polinomio multiplicado por et pues sus derivadas son del mismo tipo; como et y tet ya figuran en h , el polinomio debe contener términos t 2 et ; la próxima sección dirá que la buena candidata es p = t 2 et [At + B] , para A y B adecuados; para fijarlos llevamos p = et [At 3 + (B+ 6A)t 2 + (4B+ 6A)t+ 2B] y sus derivadas 0p = et [At 3 + (B+ 3A)t 2 + 2Bt] y 00 p a la ecuación, obteniendo [6At + 2B]et = 6tet y por tanto deben ser B = 0 , A = 1 ; así hallamos de nuevo la p = t 3 et ; en este ejemplo parece más largo este camino que la variación de constantes, pero en muchos otros ahorra el cálculo de largas primitivas]. Aunque sea muy mal camino, repasemos las matrices resolviendo el sistema equivalente: §

 0 = y 0 , o sea, x0 = −1 y 0 = −+ 2y+ 6tet

1 2

‹

+



0 6tet

‹

, x(1) =

 ‹ 0 . 0

λ = 1 doble → eJt =



1 1

0 1

‹

et

(nunca la matriz de un sistema proveniente de una ecuación puede ser diagonal). El único (salvo producto por un escalar) vector v asociado al λ = 1 doble es v = Escogemos w tal que → x=



0 1

1 1

‹R



−1 −1

 t t−s 1 e t−s 1

1 1

‹

w = v , por ejemplo w =

0 1

‹

−1 1

1 0

‹

0 6ses

‹

ds =



 ‹ 0 1

→P=

t 3 − 3t + 2 t + 3t 2 − 3t − 1 3





0 1

et

1 1

‹

, P−1 =



 ‹ 1 . 1

−1 1

1 0

‹

(su  es la de antes y su y es la 0 ).

Ej 4. Hallemos la solución general de las dos ecuaciones: a) 00 +  = et y b) 00 +  = tn t . En ambos casos es: λ2 + 1 = 0 → λ = ± → solución general:  = c1 cos t + c2 sen t + p . Para hallar la p con variación de las constates: |W|(t) =



cos t − sen t

sen t cos t

‹

= 1 , de dónde:

a) p = sen t et cos t dt−cos t et sen t dt = · · · = s 12 et [c+s]−c 12 et [s−c] = 12 [s2 +c2 ]et = 12 et . R

R

[Mucho más corto será probar p = Aet → 2Aet = et → A = 12 , p = 12 et ]. R R R 2 =s R d t t b) p = sen t sen t dt − cos t sen dt = – sc + sc – c dt = 1−2 = · · · = − cos t ln 1+sen . cos t c cos t [En esta ecuación ni el método de coeficientes determinados ni Laplace serían aplicables].

Aunque es perder el tiempo pasar de ecuaciones a sistemas, en cambio, sí es práctico convertir un sistema dado en una ecuación de mayor orden, sobre todo si los autovalores son complejos: Ej 5. Pasando a una ecuación, volvamos a resolver el ejemplo 2

§ 0  = − y+ 2 , y 0 = + y

(0) = 0 . y(0) = 1

Despejemos la  de la segunda ecuación (más corta que la otra):  = y 0 − y . Sustituyendo en la primera: y 00 − y 0 = y 0 − y − y + 2 , y 00 − 2y 0 + 2y = 2 . La solución general de la homogénea la obtenemos de la ecuación característica (la misma que la de la matriz) y la solución particular en este caso salta a la vista p = 1 (con la fórmula de variación de las constantes sería largo y el método de coeficientes indeterminados lo que sugerirá es probar una constante). Así pues: λ2 − 2λ + 2 = 0 → λ = 1 ±  → y = (c1 cos t + c2 sen t) et + 1 Imponiendo los datos iniciales: y(0) = 1 , y 0 (0) = (0)+y(0) = 1 , obtenemos la y de antes: y = et sen t + 1 . Y simplemente sustituyendo esta y obtenemos la  :  = y 0 − y = et cos t − 1 .

37

Consideremos otros tres casos de ecuaciones lineales de segundo orden [e], ahora con coeficientes variables, que son resolubles por métodos elementales. i) Ecuaciones de Euler: [u]

t 2 00 + t0 + b = h(t) , t > 0 .

Haciendo el cambio de variable independiente t = es :

d dt

= 1t d , ds

d2  dt 2

= t12

 d2  ds2

 − d , ds

[u] se convierte en la siguiente ecuación lineal con coeficientes constantes: d2  + (− 1) d + b = h(es ) ds ds2

, de ecuación característica

Q(λ) ≡ λ2 + (− 1)λ+ b = 0 . Como conocemos las soluciones de la ecuación homogénea para esta segunda ecuación, deshaciendo el cambio ( s = ln t ), tenemos que la solución general de una ecuación de Euler homogénea es: Si λ1 6= λ2 reales,  = c1 t λ1 + c2 t λ2 Si λ doble (real),  = (c1 + c2 ln t)t λ Si λ = p± q ,  = [c1 cos(q ln t)+ c2 sen(q ln t)]t p (observemos que la ’ecuación característica’ de una ecuación de Euler sería la que obtendríamos probando en la homogénea soluciones de la forma t λ ). Para hallar la solución particular de la no homogénea dispondremos siempre de la fórmula de variación de las constantes con ƒ (t) = h(t)/ t 2 (y para la ecuación de coeficientes constantes en s del método de coeficientes indeterminados de 2.3, si h(es ) es del tipo adecuado). Ej 6. Hallemos la solución general de

t 2 00 + t0 −  = t

.

La ’ecuación característica’ es λ2 + (1− 1)λ− 1 = 0 → λ = ±1 → la homogénea tiene por solución general h = c1 t + c2 t −1 (válida en este caso ∀t 6= 0 ). R −1 R −1 −1 t t −1 −1 y ƒ (t) = t −1 →  = t −1 tt dt − t t t dt = t ln t − t → |W|(t) = p −2 = −2t 2 4 −2t −1 −2t −1 1 −t

la solución general de la no homogénea es  = c1 t+c2 t −1 + 2t ln t (englobado el

t 4

en c1 t ).

[La p se podría calcular utilizando coeficientes indeterminados en la ecuación 00− = es a la que conduce el cambio t = es ; veremos que la p que deberíamos probar en la ecuación en s es p = Ases , o lo que es lo mismo, podríamos probar p = At ln t en la de Euler inicial); si lo hiciésemos, comprobaríamos que debe ser A = 12 como antes].

ii) Si en la ecuación [e] es b(t) ≡ 0 :

00 + (t)0 = ƒ (t) ,

el cambio 0 = y convierte dicha ecuación en una lineal de primer orden en y , resoluble con la fórmula del capítulo 1. Integrando y obtendremos la  . (Observemos que el cambio anterior reduce también una ecuación no lineal en la que no aparece la  en una de primer orden, tal vez resoluble: 00 = g(t, 0 ) → y 0 = g(t, y) ; este es uno de los pocos casos de ecuaciones no lineales que se pueden resolver elementalmente). Ej 7. Calculemos la solución general de t00 − 20 = t cos t . R R R 2y t 0 = y → y 0 = t + cos t → y = Ct 2 + t 2 cos dt →  = K + Ct 3 + t 2 t2

 cos t dt dt t2

(primitivas que no son calculables elementalmente). Es también de Euler (  = −2 , b = 0 , h(t) = t 2 cos t ) y se puede resolver como el ejemplo 6: λ2 − 3λ = 0 → λ = 0, 3 → h = c1 + c2 t 3 , solución de la homogénea. |W|(t) = 3t 2 → R R t t  = c1 + c2 t 3 + t 3 cos dt − cos dt , que debe poderse hacer coincidir con la de antes. 3t 3t 2

38

iii) Si conocemos una solución 1 de la homogénea 00 +(t)0 +b(t) = 0 , el R cambio  = 1  dt lleva la ecuación [e] a lineal de primer orden en  . [No son, por tanto, necesarias las dos soluciones que exigía el teorema 4; basta sólo hallar una; el problema es que en pocas ocasiones podremos encontrar esa solución: a veces a simple vista, a veces tanteando, a veces nos aparecerá cuando estemos resolviéndola por series].

R R En efecto, llevando  , 0 = 01  dt + 1  , 00 = 00  dt + 201 + 1 0 a [e]: 1 R  −1 1 0 + (201 + 1 )+ (00 + 01 + b1 )  dt = ƒ (t) → 0 = − 201 −1 1 +  + ƒ (t)1 1

pues 1 satisface la homogénea. El conocimiento de la 1 permite hallar también (sin necesidad de hacer el cambio) una segunda solución 2 de la homogénea, pues integrando la ecuación en  con ƒ (t) = 0 : R

=e

R −  dt

−2 1

2 = 1



R

e−  dt dt 21

[El  de la fórmula, desde luego, es el que queda cuando se escribe la ecuación en la forma de arriba 00 + 0 + · · · ; utilizaremos bastantes veces esta fórmula en el capítulo 3, en el que trabajaremos, sobre todo, con homogéneas]. Ej 8. Resolvamos

t 3 00 − t0 +  = 1

.

Las únicas soluciones de la homogénea que pueden saltar a la vista son las rectas  = t+b (pues entonces el término de la 00 no aparece y basta mirar los otros dos). En este caso 1 = t es solución de la homogénea. Para resolver la ecuación dada podemos ahora seguir dos caminos diferentes: R R 1) Efectuar explícitamente el cambio  = t  , 0 = + t , 00 = 2+ t0 , para convertir la ecuación inicial en la lineal de primer orden no homogénea: t 4 0 + (2t 3 − t 2 ) = 1 → 0 = (t −2 − 2t −1 )+ t −4 . R Resolver esta lineal:  = c2 t −2 e−1/ t + t −2 e−1/ t t −2 e1/ t dt = c2 t −2 e−1/ t − t −2 . R R  Y deshacer el cambio:  = t c1 + c2 t −2 e−1/ t dt − t −2 dt = c1 t + c2 te−1/ t + 1 . [No olvidemos la constante de integración; la solución general debe contener 2 constantes arbitrarias]. 2) Hallar una segunda solución de la homogénea por la fórmula deducida antes: 2 = t

R

e−

R

−t −2 dt

t2

dt = te−1/ t

y calcular una p de la no homogénea con la fórmula de variación de constantes: R R |W|(t) = e−1/ t → p = te−1/ t t −2 e1/ t dt − t t −2 dt = t + 1 →  = c1 t + c2 te−1/ t + 1 (El trabajo con la no homogénea ha sido absolutamente inútil y podíamos perfectamente habérnoslo ahorrado, porque la p = 1 se veía también a simple vista).

39

2.3 Ecuaciones y sistemas lineales de orden n Veamos, casi sin demostraciones, los resultados esenciales, análogos a los del caso n = 2 . Aquí empezamos tratando, en vez de los más complicados sistemas, las:

Ecuaciones lineales de orden n . (n) + 1 (t)(n−1) + · · ·+ n−1 (t)0 + n (t) = ƒ (t)

Sea [e]

 , ƒ continuas en  .

Tiene solución única, definida en todo el intervalo  , satisfaciendo: (to ) = o , . . . , (n−1) (to ) = (n−1) , si to ∈  . o Si 1 , . . . , n son n soluciones de la homogénea, su wronskiano 1 ··· n : : |W|(t) = (n−1) (n−1)  · · · n 1

Teor 1.

es no nulo en algún s ∈  y p es solución

de [e], la solución general de [e] es:  = c1 1 + · · ·+ cn n + p . [Con la teoría de sistemas que veremos luego se podría hallar una p a partir de las 1 , . . . , n (para n = 2 obtuvimos la fórmula de variación de las constantes), pero como casi nunca se podrán hallar esas n soluciones, no nos ocuparemos de ello].

Nos vamos a centrar ya en las ecuaciones con coeficientes constantes: Sea [c]

L[] ≡ (n) + 1 (n−1) + · · ·+ n−1 0 + n  = ƒ (t) , y llamemos [ch] a la homogénea L[] = 0 .

Para resolver [ch] basta hallar las raíces de un polinomio P(λ) de orden n (llamadas autovalores de la ecuación). Como se sabe, eso en general es imposible para n ≥ 3 con lo que sólo se podrá dar la solución exacta en casos excepcionales. Como para n = 2 , el polinomio característico P(λ) es el que aparece al probar soluciones del tipo eλt en [ch]: P(λ) ≡ λn + 1 λn−1 + · · ·+ n−1 λ+ n = 0

(ecuación característica)

P(λ) tendrá m raíces reales λ1 , ..., λm , de multiplicidades r1 , .., rm , y 2k complejas p1±q1 , ..., pk±qk de multiplicidades s1 , .., sm [será r1+· · ·+rm+2(s1+· · ·+sk ) = n ]. Desde luego, todas podrían ser reales, o todas complejas; y perfectamente puede ser rk = 1 ó sk = 1 (autovalores simples). Necesitamos n soluciones, tantas como raíces de P(λ) . Este teorema dice cómo conseguirlas: Las r funciones eλt , teλt , . . . , t r−1 eλt son soluciones linealmente independientes de L[] = 0 , si λ es raíz real de P(λ)=0 de multipliciTeor 2. dad r . Lo mismo sucede con las 2s funciones ept cos qt , ept sen qt , tept cos qt , tept sen qt , . . . , t s−1 ept cos qt , t s−1 ept sen qt , si p ± q son raíces complejas de multiplicidad s . [No es difícil ver que teλt , . . . , t r−1 eλt son también soluciones de [ch] utilizando que λ es raíz de las primeras derivadas de P(λ) y que si z es solución compleja de [ch] lo son también sus partes real e imaginaria; y hallando su wronskiano en t = 0 se comprueba que son independientes]. [Si r = 1 , sólo hay la solución eλt , claro; y si s = 1 , sólo ept cos qt y ept sen qt ].

40

Ej 1.

V − 400 + 30 = 0

tiene por ecuación característica P(λ) = λ5 − 4λ2 + 3λ = 0 .

Las raíces son calculables. Es claro que P(λ) = λ(λ4 − 4λ + 3) . Probando con los divisores de 3 obtenemos el autovalor λ = 1 , es decir λ4 −4λ+3 = (λ−1)(λ3 +λ2 +λ−3) . λ = 1 vuelve a ser raíz del polinomio: λ3 + λ2 + λ− 3 = (λ− 1)(λ2 + 2λ+ 3) . Y lapecuación de segundo grado es fácilmente resoluble: λ = −1±  2 .

1 1 1 1 1

0 1 1 1 2

0 1 1 2 3

−4 1 −3 3 |0

3 −3 |0

p En resumen los 5 autovalores son: λ = 0 , λ = 1 doble y λ = −1±  2 , y el teorema 2 nos da las 5 soluciones reales independientes: p p e0t = 1 , et , tet , e−t cos 2 t y e−t sen 2 t . La solución general será una combinación lineal arbitraria de estas 5 soluciones: p p   = c1 + (c2 + c3 t)et + c4 cos 2 t + c5 sen 2 t e−t .

[Basta cambiar, por ejemplo, el 4 de la ecuación por un 5 para que no podamos resolverla; las fórmulas para las raíces de polinomios de grados 3 y 4 son muy poco prácticas].

Para la no homogénea [c] no dispondremos como dijimos de una fórmula como la de variación de constantes del caso n = 2 para el cálculo de la p a partir de las soluciones de la homogénea (como largo último recurso podremos resolver el sistema equivalente mediante matrices). Pero si la ƒ (t) está formada por sumas y productos de polinomios, exponenciales, senos y cosenos podemos acudir al método de los coeficientes indeterminados (del tanteo organizado) del próximo teorema. La idea, como comentamos en la sección anterior, es probar en [c] una p similar a ƒ (t) con constantes arbitrarias que se determinan resolviendo simplemente sistemas algebraicos lineales: i] Si ƒ (t) = eλt pk (t) , con pk polinomio de grado k , y λ no es autovalor de [ch] existe solución particular de [c] de la forma p = eλt Pk (t) , donde Pk es otro polinomio de grado k cuyos coeficientes se precisan llevando p a [c]. Si λ es autovalor de multiplicidad r , p = t r eλt Pk (t) . Teor 3. ii] Si ƒ (t) = ept [pj (t) cos qt + qk (t) sen qt] , pj y qk de grados j y k , y p±q no es autovalor hay p = ept [Pm (t) cos qt+Qm (t) sen qt] , con Pm y Qm de grado m =máx{j, k} . Si p± q es autovalor de multiplicidad s existe p = t s ept [Pm (t) cos qt + Qm (t) sen qt] . iii] Si ƒ (t) = ƒ1 (t)+ · · ·+ ƒm (t) y L[ ] = ƒ (t) ⇒ L[1 + · · ·+ m ] = ƒ (t) . [En particular, si λ = 0 , o sea, si ƒ (t) es un polinomio, bastará probar según i] un polinomio adecuado, y desde luego entendemos una constante como un polinomio de grado 0 ]. Ej 2. Hallemos una p de 000 + 200 + 40 + c = t para todos los valores de la constante c . Hay solución particular de la forma p = At+ B , si λ = 0 no es autovalor (es decir, si c 6= 0 ) = − c42 → p = ct − → 4A+ c(At + B) = t → A = 1c , B = − 4A c

4 c2

, si c 6= 0 .

Si c = 0 , hay que ‘engordar’ la p con una t ( λ = 0 es simple): 2

p = At 2 + Bt → p = t8 −

t 8

, si c = 0 .

En este caso podemos además dar la solución general: p p   = c1 + c2 cos 3t + c3 sen 3t e−t +

t2 8



t 8

.

No podemos hacer lo mismo ∀c , por no saber resolver λ3+2λ2+4λ+c = 0 . Sólo podemos para valores elegidos de c ; por ejemplo, si c = 3 es P(λ) = (λ+ 1)(λ2 + λ+ 3) → p p € Š  = c1 e−t + c2 cos 211 t + c3 sen 211 t e−t/ 2 + 3t − 49 . U otro ejemplo, si c = 8 (valor que nos sugerirá, en el futuro, el estudio de la estabilidad):  1 P(λ) = (λ+ 2)(λ2 + 4) →  = c1 e−2t + c2 cos 2t + c3 sen 2t + 8t − 16 .

41

Ej 3. Resolvamos

V + 300 − 4 = et + t sen t

, con (0) = 0 (0) = 00 (0) = 000 (0) = 0 .

Los autovalores son calculables por tratarse de una ecuación bicuadrada: λ4 + 3λ2 − 4 = 0 → λ2 =

p −3± 9+16 2

= 1, −4 → λ = ±1, ±2 .

La solución general de la no homogénea será entonces:  = c1 et + c2 e−t + c3 cos 2t + c4 sen 2t + p . Los dos sumandos de nuestra ƒ (t) están incluidos en los casos i] y ii] del teorema. Como 1 es autovalor de multiplicidad 1, hay que ‘engordar’ la Aet con una t , y, aunque t sen t sólo es un polinomio de grado 1 junto al seno, en la p también deben aparecer los cosenos. Lo anterior, unido al apartado iii], nos lleva a probar en la ecuación: p = Atet + (Bt + C) cos t + (Dt + E) sen t . Derivándola con paciencia 4 veces y sustituyéndola en la ecuación obtenemos: 10Aet + (2D− 6C− 6Bt) cos t − (2B+ 6E+ 6Dt) sen t = et + t sen t → A=

1 10

 2D− 6C = 0   6B = 0 1 t t 1 y → p = 10 e − 18 cos t − 6t sen t . → B = E = 0 , D = − 61 , C = − 18 2B+ 6E = 0   −6D = 1

Sustituyendo esa p en la solución general e imponiendo en ella (ahora, no en la solución de la homogéna) los datos iniciales y resolviendo el sistema 4x4 resultante (todo esto también es bastante largo) se tiene  1 c1 + c2 + c3 − 18 =0     c − c + 2c + 1 = 0 1 2 4 10  c1 + c2 − 4c3 −    c1 − c2 − 8c4 +

7 90 3 10

=0

1 , c2 = → c1 = − 25

1 10

1 , c3 = − 225 , c4 =

1 50

.

=0

Resumiendo, la solución particular buscada es: =

1 −t e 10



1 t e 25



1 225

Ej 4. Calculemos ahora una p de

cos 2t +

1 50

sen 2t +

00 +  = ƒ (t)

t t e 10



1 18

cos t −

t 6

sen t .

para diferentes ƒ (t) .

Su solución general es  = c1 cos t + c2 sen t + p . arbitrario de grado 3, Si ƒ (t) = t 3 , hay p = At 3 + Bt 2 + Ct + D (polinomio → pues λ = 0 no es autovalor)

6At + 2B+ At 3 + Bt 2 + Ct + D = t 3 → A = 1, B = 0, C = −6A = −6, D = −2B = 0 , p = t 3 − 6t . = et (At + B+ 2A) → Si ƒ (t) = tet , existe p = et (At + B) , 0p = et (At + B+ A) , 00 p et [(At + B + 2A)+ (At + B)] = tet → A = 21 , B = −A = − 21 → p = et ( 2t − 12 ) . Si ƒ (t) = et cos t , hay p = et (A cos t + B sen t) [hay λ = ± , no 1±  , y debe estar sen t ] → (A+ 2B) cos t + (B− 2A) sen t = cos t →

§

A+ 2B = 1 B− 2A = 0

→ p = et ( 15 cos t + 15 sen t) .

Si ƒ (t) = sen t , como ± es autovalor simple (es decir, como [ch] ya tiene soluciones de esa forma): p = t(A cos t + B sen t) → 2B cos t − 2A sen t = sen t → p = − 2t cos t . Si ƒ (t) = cos2 t , aparentemente no podemos utilizar coeficientes indeterminados, pero como cos2 t = 12 (1+ cos 2t) → existe p = A+ B cos 2t + C sen 2t → p = 12 − 16 cos 2t . Si ƒ (t) = (cos t)−1 , tenemos que acudir a la fórmula de variación de las constantes: R cos t R t |W|(t) = 1 → p = sen t cos dt − cos t sen dt = t sen t + cos t ln(cos t) . t cos t

Pasemos ahora ya a tratar el caso general de los sistemas:

42

Sistemas de n ecuaciones lineales de primer orden. [S]

x0 = A(t)x+ f(t)

, [Sh]

x0 = A(t)x

, con A =

11 · · · 1n : : n1 · · · nn

!

, x=

1 : n

!

, f=

ƒ1 : ƒn

!

.

Suponemos A y f continuas en  con lo que hay entonces solución única definida en todo  cumpliendo x(to ) = xo si to ∈  . Una matriz fundamental es W(t) =

11 (t) · · · 1n (t) : : n1 (t) · · · nn (t)

!

, cuyas columnas son soluciones de [Sh], si |W(to )| 6= 0 .

  La Wc (t) fundamental canónica = W(t)W−1 (to ) será la que cumple Wc (to ) =  .

De nuevo conocida cualquier W(t) el sistema homogéneo, el no homogéneo y el problema de valores iniciales están resueltos: Teor 4. La solución general de [Sh] es x = W(t)c . La de [S] es x = W(t)c+ xp , si xp es

R

cualquier solución de [S]. Una xp viene dada por: xp = W(t) W−1 (t) f(t) dt. La

Rt

solución de [S] que cumple x(to ) = xo es x = Wc (t)xo + Wc (t)

to

W−1 (s) f(s) ds . c

Pero hallar W(t) en general es imposible, incluso para coeficientes constantes, a pesar de que la matriz fundamental canónica la sigue dando una exponencial: [C]

x0 = Ax+ f(t) , [Ch]

x0 = Ax

, A matriz constante.

Teor 5. Wc (t) = eA(t−to ) es la matriz fundamental canónica en to de [Ch]. Ahora es complicado dar eAt incluso en el caso excepcional de que podamos hallar los autovalores de A , raíces de un polinomio de grado n (no es fácil hallar J y P ). Sólo es sencillo si los autovalores son calculables y la J resulta ser diagonal: Si hay n vectores propios v1 , ..., vn linealmente independientes (asociados a λ1 , ..., λn ) entonces: eλ1 t  0 P  ..  . 

Teor 6.

eAt = PeJt P−1 =

0

eλ2 t .. .

··· ··· .. .

0 0 .. .

0

···

eλn t

0

   −1 , P 

€ Š con P = v1 ... vn .

Esto sucede, desde luego, si los λ son simples, pero también puede pasar aunque haya λ múltiples. Si hay menos de n vectores propios independientes la J no será diagonal (aparecen unos en la diagonal inferior acompañando a algún λ múltiple, y, como para n = 2 , hay términos de la forma t n en eJt ). Si A es no diagonalizable, resolveremos [C] por otros métodos que iremos viendo (convertir el sistema en ecuación, Laplace,...). Como siempre, eAt será real, aunque haya λ complejos. Como en la sección anterior, para resolver el homogéneo podemos evitar el cálculo de la P−1 , ya que la solución general de [Ch] es simplemente: x = PeJt c = c1 eλ1 t v1 + · · · + cn eλn t vn . Lleguemos esta expresión por un camino más directo, que nos dará idea de cómo utilizar matrices incluso aunque J sea no diagonal. Comprobemos primero que: λ autovalor de A , y v vector propio asociado ⇒ x = eλt v es solución de [Ch]. Esto es cierto, ya que x0 = λeλt v = Aeλt v = Ax y se cumple que λv = Av . Así pues, si conseguimos hallar n vectores propios linealmente independientes, tendremos n soluciones de esa forma, que constituirán una matriz fundamental € Š W(t) = eλ1 t v1 · · · eλn t vn , pues |W|(t) 6= 0 por ser los vk independientes. Basta entonces escribir x = W(t)c para obtener el resultado de arriba. 43

Ej 5. Hallemos la solución general de

λ = −1 → v =

2 −2 1

!

, λ=2 → v=

2 1 −2

!

0 =  + 2y y 0 = 2 + 2y + 2z z 0 = 2y + 3z 1 2 2

, λ=5 → v=

!

1 2 0

, o sea, de x0 =

2 2 2

0 2 3

!

x→

λ3 − 6λ2 + 3λ+ 10 = 0 → 2 −2 1

. Por tanto, P =

2 1 −2

1 2 2

!

.

Para la solución general no necesitamos P−1 [sí para la xp , si fuese no homogénea]: 

x=

PeJt c

=

e−t P 0 0

0 e2t 0

 0 0 c e5t

2 −2 1

= c1 e−t

!

2 1 −2

+ c2 e2t

!

1 2 2

+ c3 e5t

!

.

Para fijar una solución, por ejemplo la que cumple (0) = 6 , y(0) = 0 , z(0) = −3 , podemos imponer los datos en la solución general y resolver el sistema de 3 ecuaciones resultante, o calcular P−1 = 19

−2 1 2

2 2 1

1 −2 2

!

6 0 −3

y hacer el producto PeJt P−1

!

= PeJt

1 2 0

!





2e−t + 4e2t

=−2e−t + 2e2t  e−t − 4e2t

También podemos convertir el sistema en una ecuación, como hacíamos para n = 2 . Por desgracia, si n = 3, 4, ... , los cálculos dejan de ser tan sistemáticos. No se puede dar ideas generales de qué ecuaciones conviene derivar, por dónde empezar a sustituir, no es raro que tras unos cálculos haya que volver a empezar... Pero, a pesar de estas dificultades, muchas veces sigue siendo mejor que utilizar matrices ( λ complejos, sistemas no homogéneos, J no diagonal, ...). En este caso, por ejemplo, podemos proceder así: −30 −2 . 4 −t 2t  = c1 e + c2 e + c3 e5t

0

De la 1 ecuación y =  2− , que llevado a la 2 y despejando z = 

00

Sustituyendo ambas en la 3 : 000 − 600 + 30 + 10 = 0 → (el polinomio característico de la ecuación es el mismo que el de la matriz)

.

Hallemos directamente la particular. Debe ser: (0) = 6 , 0 (0) = (0)+ 2y(0) = 6 , 00 (0) = 0 (0)+ 4(0)+ 4y(0)+ 4z(0) = 18 0

→  = 2e−t + 4e2t → y =  2− = 2e2t − 2e−t → z =  Ej 6.

0 = 2y − 3z y 0 = 2 + 3y − 6z z 0 = 2et − z

y=

0 +3et 2

con

(0) = 3 y(0) = 1 z(0) = 1

00

−30 −2 4

= e−t − 4e2t .

La z , ‘desacoplada’, se puede hallar primero: z = c1 e−t + et −→ z = et z(0)=1

Queda sistema 2x2 que convertimos en ecuación:

→ 00 − 30 − 4 = −6et ; λ = −1, 4 ; p = Aet , A = 1 →  = c2 e−t + c3 e4t + et (0) = 3, 0 (0) = −1 →  = 2e−t + et → y = 2et − e−t .

Mucho más largo: λ = −1 doble tiene 2 vectores propios linealmente independientes:   ! ! ! ! e−t 0 0 0 0 5 2 1 3 2 1 1 Jt −1 −t 0  v1,2 = , −1 ; λ = 4, v3 = 2 . P = 0 −1 2 . P = 5 2 −1 −6 . e = 0 e 0 1 2 −3 0 1 0 0 0 0 e4t     Zt ! ! ! ! 13e−t + 2e4t 5et − 3e−t − 2e4t 1 2 5 10 1 1 1  −t 1 J(t−s) −12 t Jt s 4t  t −t 4t  2 −1 −1 + 5P e + 5 10e − 6e − 4e = e + e−t e ds = 5 e + 4e x = 5 Pe 1 0 2 6 5e−t 5et − 5e−t 0

3 0 1

Ej 7.

!

0 =  − 2y + 2z y0 =  − y z 0 = y − 2z

con

(0) = 1 y(0) = 1 z(0) = 1

λ = 0: v1 =

2 2 1

!

λ = −1 . doble:

2 1 0

−2 0 1

2 0 −1

!

v = 0 → v2 =

0 1 1

!

único vector propio. A no es diagonalizable. Para hallar la solución general necesitamos 3 soluciones linealmente independientes. Como x = eλt v con λ autovalor y v vector propio es solución, ya tenemos 2. ¿Y la tercera? Lo que hemos visto de ecuaciones y Jordan para n = 2 hace creíble probar en x0 = Ax soluciones de la forma: (A+ ) = 0

x = (w+ t)e−t → (− w− t)e−t = (Aw+ tA)e−t → (A+ )w =  →  vector propio ( v2 ) y w tal que (A+ )w = v2 , por ejemplo w = Imponiendo los datos:

c +c =1 1 3

1 1 0

!

→ x = c1 v1 + c2 e−t v2 + c3 e−t (w+ tv2 ) es la solución general.   2− e−t

2c1 + c2 + c3 = 1 → c1 = 1 , c2 = 0 , c3 = −1 → x =2− e−t − te−t  . 1− te−t c1 + c3 = 1

O bien, con una de las muchas formas de convertir el sistema en ecuaciones: y = z 0 + 2z →  = z 00 + 3z 0 + 2z → z 000 + 2z 00 + z 0 = 0 → z = c1 + c2 e−t + c3 te−t con z(0) = 1 , z 0 (0) = −1 , z 00 (0) = (0)− y(0)− 2z 0 (0) = 2 → z = 1− te−t → y = z 0 + 2z = 2− e−t − te−t →  = y 0 + y = 2− e−t .

44

2.4 Estabilidad de sistemas y ecuaciones lineales. R

Para y 0 = (t)y + ƒ (t) la estabilidad la ecuación la daba la e  , es decir, la ’matriz fundamental’. En general sucede lo mismo, pero pocas veces tendremos una W(t) .

Estudiemos primero la estabilidad de las soluciones del sistema lineal general [S] x0 = A(t)x+ f(t) , con A y f continuas en  = [to , ∞) con lo que todas las soluciones de [S] están definidas ∀t ≥ to . Definimos en 2.1 la norma de un vector, pero no la de una matriz. En los libros de análisis matemático se ve que hay varias posibles. Nosotros elegimos, por ejemplo: kW(t)k , norma de W(t) , será la suma de los valores absolutos de sus elementos. [Podríamos definir y utilizar otras normas, como el supremo de los valores absolutos (el determinante |W(t)| no es una norma); y se prueba que todas son ’equivalentes’, es decir, que si una es grande o muy pequeña, las otras también lo son].

Si W(t) es una matriz fundamental cualquiera y x(t) , x∗(t) son dos soluciones de [S] usando la fórmula de variación de las constantes, y el hecho de que en los libros de análisis se ve que la norma de un producto de matrices es menor que una constante por el producto de las normas de ambas, deducimos: kx(t)− x∗(t)k = kW(t)W−1 (t)[ x(to )− x∗(to )]k ≤ KkW(t)kkx(to )− x∗(to )k . Como x(t) es estable (AE), si esta norma es pequeña (tiende a 0 ) para t ≥ to (cuando t → ∞ ), si kx(to )− x∗(to )k es suficientemente pequeña, concluimos: Todas las soluciones de [S] serán estables, asintóticamente estables Teor 1. o inestables dependiendo de que, respectivamente, la kW(t)k esté acotada, tienda a 0 cuando t → ∞ o no esté acotada. Esto significa que a partir de to todos los elementos de W(t) están acotados, que todos tienden a 0 o que al menos uno de sus elementos no está acotado. Como ocurría para n = 1 se puede hablar de la estabilidad del sistema [S] pues todas sus soluciones tienen la misma estabilidad [que no depende de la f(t) ]. Ej 1.

t 3 00 − t0 +  = 1 (ej. 8 de 2.2). Una W(t) es



t 1

te−1/ t (1+ t −1 )e−1/ t



,

pues h = c1 t + c2 e−1/ t era la solución de la homogénea. Como kW(t)k es no acotada (2 de los elementos de W(t) no lo están), la ecuación es inestable. Ej 2.

t 2 00 + 4t0 + 2 = t 4

λ(λ− 1)+ 4λ+ 2 = 0, h = c1 t −1 + c2 t −2 → W(t) =



t −1 −t −2

 t −2 . −3 −2t

 t4 Como kW(t)k → 0 , todas las soluciones para t > 0 son AE la p = 30 no influye nada . t→∞

Para coeficientes constantes [C] x0 = Ax+ f(t) hay un resultado más directo: Si todos los autovalores λ de A tienen Reλ < 0 , el sistema [C] es asintóticamente estable. Si todos los autovalores de A tienen Reλ ≤ 0 y para cada λ de multiplicidad m con Reλ = 0 existen m vectores Teor 2. propios linealmente independientes, [C] es estable. Si existe algún λ con Reλ > 0 o si existe λ de multiplicidad m con Reλ = 0 y menos de m vectores propios linealmente independientes, [C] es inestable. [Los elementos de W(t) = eAt son exponenciales eλt tal vez multiplicadas (si J no diagonal) por polinomios en t ; si Reλ < 0 cada elemento, y por tanto kW(t)k , tiende a 0 si t → ∞ ; si hay λ con Reλ = 0 y la parte de la J que los incluye es diagonal hay términos que son constantes, senos o cosenos y permanecen acotados sin tender hacia 0 ; si hay algún λ con Reλ > 0 o si los términos que vienen de un λ con Reλ = 0 están multiplicados por polinomios, habrá algún término de la exponencial no acotado y la norma de W(t) tampoco lo estará]. 45

Así pues, conocer Reλ basta casi siempre para precisar la estabilidad de un sistema de coeficientes constantes (y de una ecuación, que era estable si lo era su sistema equivalente y ambos tienen el mismo polinomio característico). Sólo si hay λ múltiples con Reλ = 0 habrá que hallar los v asociados para distinguir entre estabilidad no asintótica e inestabilidad. Y esto ni siquiera será necesario en las ecuaciones, pues siempre aparecen potencias de t con los λ múltiples. Ej 3. x0 =



0 1

2 2

‹

x+

p λ2 − 2λ− 2 = 0 λ = 1± 3 ⇒ sistema inestable [la f(t) no influye].

 ‹ 1 t

Ej 4. 000 + 300 + 30 +  = et → λ3 + 3λ2 + 3λ+ 1 = 0 , λ = −1 triple ⇒ ecuación AE. [Todas las soluciones se van a infinito, por la p = Aet , pero esto no tiene que ver con la EA; lo importante es que todas se parezcan entre sí; insistimos en que ƒ (t) no influye]. Ej 5. Hallemos la solución de

0 =  + y y 0 = −5− y+ z z 0 = −z

con

(0) = 1 y(0) = −2 z(0) = 5

y precisemos su estabilidad.

z desacoplada: z = Ce−t = 5e−t , y = 0 − → 00 +4 = 5e−t →  = c1 cos 2t+c2 sen 2t+e−t ; p =Ae−t

z(0)=5

imponiendo (0) = 1, 0 (0) = (0)+ y(0) = −1 →  = e−t → y = −e−t − e−t = −2e−t . La estabilidad de esta solución (y la de todo el sistema) viene dada por |A− λ| = 0 → λ = −1,±2 . Como Reλ ≤ 0 y los λ = ±2 son simples, esta solución (y todas) es EnoA. [Que la x → 0 no importa nada; EA no significa que tienda a 0 una solución dada, sino que lo haga la diferencia entre dos cualesquiera que partan cerca (todas en las lineales)]. Ej 6.

x0

=

1 1 −1

6 −6 2

7 −5 1

!

x

|A − λ| = 0 → λ = −4 , λ = 0 doble. Hay que ver si J es o no diagonal. Como el rango de A− 0I es 2, sólo existe un v independiente asociado a λ = 0 y el sistema es inestable.

Ej 7. 000 + 400 = et → λ = −4 , λ = 0 doble como en el ejemplo anterior. Pero podemos ahora decir directamente que la ecuación es I pues aparece seguro una t en la solución (y en cualquier W(t) ). Para ecuaciones siempre es fácil analizar el caso Reλ = 0 .

El problema es que para n > 2 , y a diferencia de los ejemplos anteriores, normalmente los λ no son calculables (sin métodos numéricos). Pero este hecho no nos va a impedir estudiar la estabilidad. El siguiente teorema nos permitirá precisar, sin necesidad de hallar los autovalores, cuándo hay estabilidad asintótica y muchas situaciones de inestabilidad: Sea P(λ) = λn + 1 λn−1 + · · ·+ n−1 λ+ n . i] Si algún  ≤ 0 ( < 0 ) ⇒ existen raíces de P(λ) con Reλ ≥ 0 ( >0 ). ii] (Criterio de Routh-Hurwitz). Consideremos la matriz n x n : 

Teor 3.

B=

1  3   5  ·· 0

1 2 4 ·· 0

0 1 3 ·· 0

0 1 2 ·· 0

0 0 1 ·· 0

·· ·· ·· ·· ··

 0 0  0 ··  n

Entonces todos los ceros de P(λ) tienen Reλ < 0 ⇔ son estrictamente positivos los n determinantes: 1 ,

 1  3

1 2

,

 1  3  5

1 2 4

0 1 3

, . . . , |B| .

Y si alguno de esos n determinantes es < 0 ⇒ ∃λ con Reλ > 0 . i] es fácil: si todos los λ , reales o complejos, tienen Reλ < 0 el polinomio tiene s

la forma: P(λ) = (λ+ )r · · · (λ2 + bλ+ c) · · · , con , . . . , b, c, . . . > 0 ⇒  > 0 (y análogamente Reλ ≤ 0 ⇒  ≥ 0 ). ii] es de muy complicada demostración y lo admitimos sin ella. [Observemos que el coeficiente de λn debe ser 1 ; que la parte de Reλ < 0 de ii] es un ⇔ pero no el resto; que en B la diagonal está formada por los coeficientes 1 , ..., n ; que |B| es simplemente el anterior por n ].

46

Ej 8. La ecuación  + 5 + 6 + 7000 + 00 − 20 + 3 = 4 es inestable porque un k < 0 . → λ3 + λ2 + 3 = 0 (sin raíces enteras) no es AE porque es 0 el coeficiente de λ . Será estable no asintóticamente o inestable. Veamos si hay λ con Reλ = 0 : λ = q .

0 =  − z y 0 = 3 − y z0 =  + y − z

Ej 9. El sistema

Debe ser (3− q2 )− q3 = 0 . Esto no es posible para ningún q y sabemos que hay λ con Reλ ≥ 0 ⇒ hay λ con Reλ > 0 ⇒ es inestable. [O de otra forma (Routh-Hurwitz): B =

1 3 0

1 0 0

0 1 3

!

→ 1>0 ,

1 3

1 0 ). 

4 8 B = 0 0

1 8 4 0

0 4 8 0

 0 1 . 8 4

Como todos los menores: 4 > 0 ,

4 8

1 = 8

24 > 0 ,

4 8 0

1 8 4

0 4 = 8

128 > 0 , |B| > 0

la ecuación es AE. De hecho sus autovalores son sencillos (aunque sea difícil encontrarlos): 2

P(λ) = (λ2 + 2λ+ 2) → λ = −1±  dobles → h = (c1 + c2 t)e−t cos t + (c3 + c4 t)e−t sen t . (Y como p = At+B → p = t−2 , la solución general de la no homogénea es:  = h +t−2 ).  + 2000 + 500 + 40 + 6 = 7

Ej 11.



2

4 B = 0 0

1 5 6 0

0 2 4 0



0 1 5

→ 2>0 ,

6

2 4

1 = 5

6,

puede ser AE ( k > 0 ). 2 4 0

1 5 6

0 2 = 0 , 4

|B| = 0 → no es AE.

Probamos λ = q → q4 − 5q2 + 6 + 2(2− q2 )q = 0 → q2 = 2 → P(λ) = (λ2 + 2)(λ2 + 2λ+ 3) . Como dos autovalores tienen Reλ < 0 y los otros dos Reλ = 0 y son simples, es EnoA.  + 6 + 7000 + 00 = e−t

Ej 12.

. No es AE y no sabemos hallar todos sus λ .

Pero hay λ = 0 doble → la solución de la homogénea es de la forma c1 + c2 t + c3 3 + c4 4 + c5 5 → la ecuación es inestable pues no está acotada la W(t) formada por esas 5 soluciones y sus derivadas. Ej 13. Discutamos la estabilidad de

000 + 200 + 40 + c = t

→ P(λ) = λ3 + 2λ2 + 4λ+ c = 0 .

Si c < 0 es inestable, porque es un k < 0 . Si c = 0 no es AE por el k ≤ 0 . Sólo podría ser AE si c > 0 . Veamos que nos dice Routh-Hurwitz: B=

2 c 0

1 4 0

0 2 c

!

→2,

2 c

1 = 4

8− c , |B| = c(8− c) → es AE ⇔ 0 < c < 8 y es I también si c > 8 .

Por ahora no sabemos si c = 0 y si c = 8 (¿estabilidad no asintótica? ¿inestabilidad?). Probamos λ = q → q(4− q2 )+ (c− 2q2 ) = 0 →

o bien q = 0 (y c = 0 ) o bien q = ±2 (y c = 8 ).

p Para c = 0 además de λ = 0 es λ = −1±  3 ; para c = 8 , P(λ) = (λ2 + 4)(λ+ 2) → si c = 0, 8 la ecuación es EnoA. [En el ejemplo 3 de 2.4 hallamos una solución particular de la no homogénea ∀c (que una vez más decimos que no influye en la estabilidad) y la solución general para tres valores de c ( 0 , 3 y 8 ). Por ejemplo, la de c = 3 era: p p € Š  = c1 e−t + c2 cos 211 t + c3 sen 211 t e−t/ 2 + 3t + 49 , donde, mirando la homogénea, se comprueba la EA que nos aseguraba R-H. Se ve además que para grandes valores de t , todas las soluciones se parecerán a una recta, pues los términos de la homogénea tienden a 0 . Y esto mismo podemos decirlo para todos los c entre 0 y 8 (¡aunque no podamos calcular la solución!)].

47

2.5 Transformada de Laplace Sea ƒ (t) una función continua a trozos en [0, ∞) . Se llama transformada de Laplace de ƒ a la función Lƒ = F definida por F(s) =

R∞ 0

ƒ (t) e−st dt

para todo s tal que la integral converge.

Citamos sin demostraciones (la mayoría son simples ejercicios de integración), algunas de sus propiedades. El operador L : ƒ → F es claramente lineal. Dada una F(s) puede que no exista una ƒ (t) tal que L[ƒ ] = F , pero si existe se prueba que hay una única ƒ que es continua. Podemos, pues, definir el operador L−1 : F → ƒ . A L−1 [F] = ƒ le llamaremos transformada inversa de Laplace de F . Está claro que también L−1 es lineal. Lo básico para resolver ecuaciones diferenciales y sistemas lineales es el hecho de que la L transforma las derivadas de una (t) en una expresión en la que no aparecen las derivadas de X(s) :   Teor 1. L (n) (t) = sn X(s)− sn−1 (0)− sn−2 0 (0)− · · ·− (n−1) (0) . [En particular: L[0 (t)] = sX(s)− (0) ]. Necesitaremos también conocer la transformadas de las siguientes funciones:       n! 1 Teor 2. L t n = n+1 ; L et = s− ; L sen t = s

[En concreto, L[1] =

1 s

, L[t] =

1 s2

, L[t 2 ] =

 s2 +2

2 s3

  ; L cos t =

s . s2 +2

, . . . ].

Y las siguientes reglas para calcular otras transformadas a partir de ellas:     Teor 3. L et ƒ (t) = F(s− ) ; L t n ƒ (t) = (−1)n F (n) (s) . Con este teorema podemos calcular, por ejemplo: L[e−3t cos 2t] =

s−3 (s−3)2 +4

d L[sen 2t] = ó L[t sen 2t] = − ds

4s (s2 +4)2

La primera de las expresiones podría escribirse: L−1 [F(s− )] = et L−1 [F(s)] . Esto nos permite hallar otras transformadas inversas que aparecerán, como: ” — ” — k−1 1 t L−1 1 = et t L−1 . k = e k (k−1)! (s−)

s

La transformada de un producto de dos funciones no es el producto de sus transformadas. Pero se tiene: Rt Se llama convolución de ƒ y g a la función ƒ ∗g(t) = 0 ƒ (t−) g() d . Teor 4. Se tiene que ƒ ∗g = g∗ƒ y que L[ƒ ∗g] = L[ƒ ]L[g] . Con sólo estos resultados se pueden resolver muchos sistemas y ecuaciones lineales con coeficientes constantes (aquellos en que la ƒ (t) sea producto de polinomios, exponenciales, senos y cosenos; es decir, los mismos en que se puede aplicar coeficientes indeterminados). La L es sobre todo útil cuando hay datos iniciales. Aplicando L convertiremos el problema diferencial en otro algebraico (con los datos ya incorporados como se ve en el teorema 1). Resuelto éste, bastará calcular alguna transformada inversa. Es muy habitual que para encontrar esta L−1 haya que descomponer en fracciones simples (la técnica que se usa en cálculo para hallar primitivas de funciones racionales). Sólo en contadas ocasiones habrá que utilizar el teorema 4 (el de la convolución).

48

0 = 2y− 2e2t y 0 = 4y− 2− 2

Ej 1.

(0) = 0 y(0) = 1

Aplicando L a las 2 ecuaciones: ¨ 2 sX− 0 = 2L[y] − 2L[e2t ] = 2Y − s−2 sY − 1 = 4L[y] − 2L[] − 2L[1] = 4Y − 2X− 2s

1 8 Despejando, por ejemplo, Y de la 1 : Y = 2s X+ s−2 , que llevado a la 2 nos da: X = (s−2) 3s .

Para encontrar la L−1 descomponemos en fracciones simples: 8 (s−2)3 s

=

A s

+

B s−2

+

C (s−2)2

+

D (s−2)3

=

[resolviendo el sistema]

=

−1 s

+

1 s−2

+

−2 (s−2)2

+

4 (s−2)3

.

L−1 es lineal y conocemos la L−1 de cada sumando. Por tanto  = −1+e2t −2te2t +2t 2 e2t . [Podríamos haber hallado  mediante una convolución pues X es el producto de dos transformadas conocidas:   R 2 2 2t ] = 4 t 2 e2 d = · · · L−1 [X] = 4L−1 1s (s−2) 3 = 4 [1∗t e 0 pero usalmente este segundo camino no es viable y si lo es suele ser mejor pasar a fracciones simples; sólo nos veremos obligados a usar la convolución cuando haya polinomios en el denominador del tipo (s2 + s+ b)2 ]. 0

Para calcular la y lo más corto es volver al sistema y sustituir: y = e2t + 2 = e2t + 2t 2 e2t . También podríamos (aquí sale fácil, pero usualmente es más largo) hallar la Y y su L−1 : Y=

4 (s−2)3

+

1 s−2

cuya L−1 es esa y (normalmente habría que volver a descomponer).

[El único camino que podría competir en rapidez sería convertir el sistema en ecuación: 0

y = e2t + 2 → 00 −40 +4 = 4e2t −4 , p = At 2 e2t +B , Ej 2.

0 = − y+ 2 y 0 = + y

(0) = 0 y(0) = 1



(ej. 2 y 5 de 2.2) →

 = c1 e2t + c2 te2t + 2t 2 e2t − 1 · · · ]. (0) = 0 (0) = 0

sX = X − Y + 2s sY − 1 = X + Y

→ X = (s− 1)Y − 1 →

(s2−2s+2)Y = s−1+ 2s [el polinomio que acompaña a la Y es precisamente el característico]. Pasamos a fracciones simples:

s2 −s+2 s[s2 −2s+2]

=

A + Bs+C s s2 −2s+2

=

[A+B]s2+[C−2A]s+2A s[s2 −2s+2]

=

1 1 + s s2 −2s+2

.

El segundo denominador no tiene raíces reales. Para hallar la inversa completaremos el cuadrado y utilizaremos el teorema 3:     1 y = 1 + L−1 (s−1) = 1 + et L−1 s21+1 = 1 + et sen t →  = y 0 − y = et cos t − 1 . 2 +1 O bien: X = Ej 3.

(s−1)(s2 −s+2 −1 s3 −2s2 +2s

=

−s2 +2s−2 s[s2 −2s+2]

= ··· =

s−1 − 1s (s−1)2 +1

, llegando a lo mismo.

1−s2 s(s2 +1)2 ¨ A+ B = 0, C = 0, A(s2 +1)2 +(Bs+C)(s2 +1)s+(Ds+E)s 1−s2 A Bs+C Ds+E 2A + B + D = −1 , + = + = → 2 2 2 2 2 2 2 s s(s +1) s +1 (s +1) s(s +1) C+ E = 0, A = 1.   → A = 1, B = −1, D = −2, C = E = 0 →  = 1 − cos t − L−1 (s22s . 2 +1)

000 + 0 = 2 sen t , (0) = 0 (0) = 0 , 00 (0) = −1 → [s3 + s]X+ 1 = s22+1 , X =

.

La última transformada no aparece en los teoremas (con mucha vista: dentro del corchete está la derivada cambiada de signo de L[sen t] ). Es situación típica de convolución:      Rt  L−1 (s22s = 2L−1 s21+1 ∗ L−1 s2s+1 = 2 sen t ∗ cos t = 2 0 sen(t − ) cos  d +1)2 Rt Rt = sen t 0 2 cos2  d− cos t 0 2 sen  cos  d = t sen t + sen t 12 sen 2t − cos t sen2 t = t sen t . Alternativamente se podría seguir el camino de la sección 2.3: λ3 + λ = 0 →  = c1 + c2 cos t + c3 sen t + p , p = t[Ac+ Bs] → 0p = Ac+ Bs+ t[−As+ Bc] , 00 = −2As+ 2Bc− t[Ac+ Bs] , 000 = −3Ac− 3Bs+ t[As− Bc] p p 000 + 0p = −2A cos t − 2B sen t = 2 sen t → A = 0 , B = −1 → p = −t sen t . p Imponiendo los datos y resolviendo el sistema 3x3 se vuelve a obtener  = 1−cos t−t sen t . Con la L hemos hallado la solución directamente, ahorrándonos el cálculo de la general, de una p y la determinación de las constantes a partir de los datos; a cambio, hemos tenido que sufrir la pesada descomposición en fracciones simples y, en este caso, el cálculo de una integral de convolución. En ambos procesos de cálculo hemos necesitado hallar las raíces de s3 + s = 0 (del polinomio característico que, como es fácil comprobar, acompaña siempre a la X al trabajar con Laplace). Por tanto, si no podemos hallar los autovalores de la ecuación (o sistema), tampoco podremos resolver nada mediante la L.

49

00 − 20 +  = 6tet con (1) = 0 (1) = 0

Ej 4.

(ejemplo 3 de 2.2).

Como Laplace pide datos en t = 0 hacemos: t = + 1 → 00 − 20 +  = 6(+ 1)e+1 , (0) = 0 (0) = 0  1 → (s− 1)2 X = 6e L[e ] + L[e ] = 6e[ (s−1) 2 +

1 ] s−1

1 1 −1 [ ] = e e L−1 [ s64 ] + 3 e e L−1 [ s23 ] →  = 6 e L−1 [ (s−1) 4] + 6eL (s−1)3

= e+1 [3 + 32 ] = et [t 3 − 3t + 2] . Ej 5. Otra utilidad de la convolución. Hallemos la solución general de

000 + 0 = ƒ (t) .

La solución general es de la forma (ejemplo 3):  = c1 + c2 cos t + c3 sen t + p . Hallamos una p . Como sólo queremos una, escogemos los datos más sencillos para L :   F(s) (0) = 0 (0) = 00 (0) = 0 → s3 X+ sX = L[ƒ (t)] = F(s) → X = s(s2 +1) = 1s − s2s+1 F(s) Rt → p = [1− cos t] ∗ƒ (t) = 0 [1− cos(t − )] ƒ () d . Con matrices es mucho más largo. Sólo tenemos la fórmula de variación de constantes para ecuaciones si n = 2 , así que tendremos que resolver el sistema equivalente a partir la teoría general de sistemas, utilizando una W(t) : W(t) =

1 0 0

c −s −c

s c −s

!

→ W−1 (t) =

• • •

• • •

1 −c −s

!

Z

→ p = primer elemento de W(t) W−1 (t)

‚

0 0 ƒ (t)

Œ

dt

R R R → p = ƒ (t) dt − cos t cos t ƒ (t) dt − sen t sen t ƒ (t) dt , que coincide con lo de arriba.

 + 4000 + 800 + 80 + 4 = 4t con (0) = −1, 0 (0) = 0, 00 (0) = 0, 000 (0) = 2

Ej 6.

En el ej. 10 de 2.4 dimos su solución general:  = (c1 +c2 t)e−t cos t+(c1 +c2 t)e−t sen t+t−2. Imponiendo los datos y resolviendo el sistema 4x4 (largo camino):  = e−t cos t + t − 2. Usemos ahora la L : s4 X+ s3 − 2 + 4s3 X+ 4s2 + 8s2 X+ 8s + 8sX+ 8 + 4X =

4 s2

→ X=

−s5 −4s4 −8s3 −6s2 +4 s2 [s4 +4s3 +8s2 +8s+4]

.

Para descomponer en fracciones simples necesitamos factorizar el denominador. En 2.4 observamos que el corchete es el cuadrado de un polinomio de segundo grado (si se sabe como hallar raíces múltiples de polinomios este era el momento de utilizarlo): −s5 −4s4 −8s3 −6s2 +4 s2 [s2 +2s+2] 2

=

A + sB2 s

Es+F 2 + s2Cs+D + [s2 +2s+2] 2 = [largo sistema] = − s + +2s+2

1 s2

+

s+1 s2 +2s+2

.

 s  s+1 s+1 −t L−1 L−1 s2 +2s+2 = L−1 (s+1) = e−t cos t →  = L−1 [X] = −2 + t + e−t cos t . 2 +1 = e s2 +1 







Los siguientes ejemplos son los 6 y 7 de 2.3, así que podemos seguir comparando la rapidez de los métodos (matrices, convertir en ecuación y el actual Laplace). En el segundo de ellos (con J no diagonal) la L evita preocupaciones matriciales.  1  0 = 2y − 3z (0) = 3  sX− 3 = 2Y − 3Z → Y = 2 (sX+ 3Z− 3) ↓ 2 Ej 7. y 0 = 2 + 3y − 6z y(0) = 1 sY − 1 = 2X+ 3Y − 6Z (s2 − 3s− 4)X = 3s −13s+4 s−1  0 t  2 1 ↑ z = 2e − z z(0) = 1 −Z → Z = s−1 , z = et sZ− 1 = s−1 X=

Ej 8.

(s−4)(3s−1) (s+1)(s−4)(s−1)

3s−1 2 1 = (s+1)(s−1) = s+1 + s−1 →  = 2e−t + et → y =

0 =  − 2y + 2z y0 =  − y z 0 = y − 2z → Z=

s2 +s+1 s(s+1)2

=

(0) = 1 y(0) = 1 z(0) = 1 A s

+

B s+1

→ y = z 0 + 2z =

0 +3z 2

= 2et − e−t .

  sX− 1 = X− 2Y + 2Z sY − 1 = X− Y X = (s+ 1)(s+ 2)Z− s− 2  sZ− 1 = Y − 2Z → Y = (s+ 2)Z− 1 %

C → A = 1 , B = 0 , C = −1 → z = 1− te−t (s+1)2 2− e−t − te−t →  = y 0 + y = 2− e−t .

+

50

Ej 9.

0 = 2+ y+ z y 0 = + 2y+ z z 0 = + y+ 2z

(0) = 1 y(0) = 2 z(0) = −3

   sX− 1 = 2X+ Y + Z → Z = (s− 2)X− Y − 1 ↓ 1 sY − 2 = X+ 2Y + Z Y = X+ s−1 ↓   sZ+ 3 = X+ Y + 2Z [s2 − 5s+ 4]X = s− 4 →

1 2 −3 X = s−1 [  = et ] → Y = s−1 [ y = 2et ] → Z = s−2−2−s+1 = s−1 [ z = −3et ] (ó z = 0 − 2− y ). s−1

[La sencillez de los cálculos se debe a que los datos iniciales están ajustados para que se simplifiquen cosas; con otros distintos habría que descomponer en fracciones simples]. Por matrices: 2− λ 1 1 2− λ 1 = 1 1 1 2− λ

P=

1 1 −1 0 0 −1

1 1 1

!

,

1 1 doble: 1

0 → λ=1

1 P−1 = 13 1 1

1 1 1

−2 1 1 −2 1 1

1 1 1 !

,

!

v=0 →

1 −1 0

!

,

1 0 −1

!

  et 0 0 Jt e = 0 e t 0 → 0 0 e4t

. λ=4 :

−2 1 1 1 −2 1 1 1 −2

x = PeJt P−1

1 2 −3

!

!

v=0 →

=P

−2et 3et 0

!

1 1 1

!

.



 et = 2et . −3et

Quizás es más rápido escribir la solución general, imponer los datos y resolver un sistema: 1 x = c1 et −1 0

!

+ c2

et

1 0 −1

!

1 + c3 e4t 1 1

!



 c1 + c2 + c3 = 1 −c1 + c3 = 2 → −c2 + c3 = −3



c1 = −2, c2 = 3, c3 = 0 →

 et t x = 2e . −3et

Y ahora, derivando. Lo más corto, con un poco de vista: [+ y+ z] 0 = 4[+ y+ z] , [+ y+ z](0) = 1+ 2− 3 = 0 → + y+ z = 0 , z = −− y →  0 =  , (0) = 1 →  = et → z = −3et . O con menos vista: y 0 = y , y(0) = 2 → y = 2et 00 = 20 + y 0 + z 0 = 20 + 2+ 3[y+ z] = 50 + 4 →  = c1 et + c2 e4t → z = −y− et → y 0 = et + 2y− y− et = y → y = cet

y(0)=2



(0)=10 (0)=1

−→

 = et

y = 2et → z = −3et .

[Para soluciones generales (de homogéneos con λ reales) conviene usar matrices o derivar. Con la L se hace (0) =  , y(0) = b , z(0) = c y quedan las 3 constantes arbitrarias (trabajando de más: no sólo hallamos la general, sino la particular que cumple unos datos iniciales dados)]. La L simplifica los cálculos si aparecen ƒ (t) que tienen varias expresiones 1  (t) =

o son discontinuas, como la función paso:

§

0 si t <  1 si t ≥  0

u a(t) a

o la ‘función’ delta δ(t − ) , cuya definición rigurosa exige la ‘teoría de distribuciones’, pero que es fácil de manejar formalmente. La δ(t − ) se puede definir intuitivamente como el ‘límite’ cuando n → ∞ de ƒn (t) =



! "(t–a)

1 1 n si t ∈ [− 2n , + 2n ] 0 en el resto

a

Para utilizar la δ(t − ) necesitaremos sólo estas propiedades: δ(t − ) = 0 si t 6=  ;

Rc

d  (t) = δ(t − ) ; dt 

b

[En particular, se tiene que

ƒ (t) δ(t − ) dt = R∞ −∞



a

ƒ () si  ∈ [b, c] 0 si  6∈ [b, c]

δ(t − ) dt = 1 ;

el rectángulo ‘de base 0 y altura ∞’ definido por la δ tiene ‘área=1’, lo mismo que las ƒn de las que es ‘límite’]. Para resolver por Laplace ecuaciones en las que aparecen funciones definidas a trozos o la δ (como los dos últimos ejemplos que veremos en la sección) sólo es necesario hacer uso de este nuevo teorema: Teor 5.

Si  > 0 : L[ (t)] =

1 −s e s

, L[δ(t − )] = e−s , L[ (t)ƒ (t − )] = e−s F(s) 

 es decir: L−1 [e−s F(s)] =  (t)ƒ (t − ) .

[Como veremos, estos últimos ejemplos se pueden resolver sin la L, pero hay que ser bastante sutil en los argumentos para ‘empalmar’ soluciones de distintos intervalos].

51

000 + 00 = ƒ (t) =

Ej 9.

§

6t si 0 ≤ t < 1 0 si 1 ≤ t

con (0) = −1 , 0 (0) = 3 , 00 (0) = −6

Lo primero es escribir ƒ (t) en términos de funciones conocidas y de funciones paso.   ƒ (t) = 6 t − t1 (t) (pues vale 6t hasta t = 1 y después se anula). Para calcular la L[ƒ (t)] = 6L[t] − 6L[t1 (t)] podemos aplicar el teorema 3 o el 5: −s

d d e L[t1 ] = − ds L[1 ] = − ds [ s ] = e−s [ 1s + s12 ] ó

L[(t − 1)1 + 1 ] = e−s L[t] + L[1 ] = e−s [ 1s + s12 ] y por tanto: s3 X+ s2 − 3s+ 6 + s2 X+ s− 3 = s62 − 6e−s [ 1s + s12 ] → X = La descomposición del primer sumando es: − 1s +

3 s2

−s4 +2s3 −3s2 +6 (s+1)s4

− e−s s64 .

6 + s64 . s3 L−1 [ s64 ] = t 3 → L−1 [e−s s64 ] = 1 (t)(t − 1)3

Para invertir el otro, usamos el teorema 5:



→  = −1+ 3t − 3t 2 + t 3 − 1 (t)(t − 1)3 =

§

.

(t − 1)3 si t ≤ 1 0 si 1 ≤ t

Resolvamos el problema de forma totalmente diferente. Hallamos la solución general 1 para t ≤ 1 [ ƒ (t) = 6t ] y 2 para t ≥ 1 [ ƒ (t) = 0 ] y utilizamos el hecho de que, como ƒ es una función integrable, la solución va a tener dos (pero no tres) derivadas continuas en t = 1 (resolver una ecuación diferencial de tercer orden viene a equivaler a integrar tres veces; no será pues, estrictamente hablando, solución en t = 1 ): Para t ≤ 1 , p = At 2 + Bt 3 → 1 = c1 + c2 t + c3 e−t + t 3 − 3t 2

datos en t=0

−→

1 = (t − 1)3 .

A partir de t = 1 es 2 = c4 + c5 t + c6 e−t . No tiene sentido aplicarle los datos de t = 0 . Pero al ser la solución una función de clase 2 los valores de , 0 y 00 a la derecha de t = 1 han de coincidir con los que proporciona 1 a la izquierda. Imponemos pues a 2 (1) = 0 → 2 ≡ 0 , si t ≥ 1 . (1) = 00 que 2 (1) = 1 (1) = 0 , 02 (1) = 01 (1) = 0 , 00 1 2 Ej 10.

0 = −+ e−1 δ(t − 1) y0 =  − y

1 ] = e−t , L−1 L−1 [ s+1



(0) = 0 y(0) = 1

§

−1 −s −1 −s sX = −X+ e−1 e−s 1 e e , Y = s+1 + e(s+1) → X = e s+1 2 sY − 1 = X− Y −s

 1 = te−t (s+1)2

→  = 1 (t)e−t =



e ] = 1 (t)e−t+1 , L−1 → L−1 [ s+1

0 si t < 1 e−t si t ≥ 1

 e−s 

, y = e−t + 1 (t)(t − 1)e−t =

(s+1)2



= 1 (t)(t − 1)e−t+1

e−t si t < 1 te−t si t ≥ 1

,

(la  debía ser discontinua en t = 1 para que al derivarla salga la δ ; en rigor no es solución en ese punto). Resolvamos por otros caminos. Como la matriz del sistema ya está en forma de Jordan es fácil utilizar la fórmula de variación de las constantes (que funciona, aunque nosotros la vimos para ƒ (t) continuas):  ‹ ‹  ‹  −1 ‹  ‹ ‹ Rt R t s−t 0 1) x(t) = e−t 1t 10 01 + 0 es−t t −1 s 01 e δ(s− ds = e−t + e−1 0 (t −es)es−t δ(s− 1) ds . 0 Esta integral es 0 si t < 1 y vale



e1−t (t − 1)e1−t

‹

si t ≥ 1 → x =



0 e−t

‹

si t < 1 y x =



e−t te−t

‹

si t ≥ 1 .

O bien. Resolvemos la ecuación en  : es  = c1 e−t si t < 1 y si t > 1 y la  debe dar en t = 1 un salto de altura e−1 para que al derivarla aparezca e−1 δ(t − 1) : (0) = 0 →  ≡ 0 si t < 1 → (1− ) = 0 → (1+ ) = e−1 →  = e−t si t > 1 . Llevando esta  a la otra ecuación: y 0 = −y+1 (t)e−t , que podemos resolver por ejemplo: Si t < 1 : y = c1 e−t , y(0) = 1 → y = e−t . Si t ≥ 1 : yp = Ate−t → y = c2 e−t + te−t → y = te−t , pues y(1+ ) = y(1− ) = e−1 . O también: y = e−t + e−t

Rt 0

es e−s 1 (s) ds → y = e−t + 0 si t < 1 , y = e−t + e−t

52

Rt 1

1 ds = te−t si t ≥ 1 .

2.6 Soluciones periódicas de ecuaciones lineales Sean [S] x0 = A(t)x+ f(t) y [Sh] x0 = A(t)x

con A , f continuas y de periodo T

[es decir, A(t+ T) = A(t) ; f(t+ T) = f(t) ] (sus soluciones son únicas y definidas ∀t ). Teor 1. x(t) , solución de [S], es de periodo T ⇔ x(0) = x(T) La ⇒ es trivial. La ⇐ no es cierta, evidentemente, para funciones cualesquiera, pero esa condición es suficiente para las soluciones del sistema [S]: Sea x(t) solución con x(0) = x(T) . Entonces z(t) = x(t + T) es también solución   pues z0 (t) = x0 (t+ T) = A(t+ T)x(t+ T)+ f(t+ T) = A(t)x(t+ T)+ f(t) = A(t)z(t)+ f(t) y satisface z(0) = x(T) = x(0) . Por unicidad, z(t) = x(t + T) = x(t) para todo t. Teor 2.

El sistema [S] tiene una única solución T-periódica ⇔ el sistema [Sh] tiene como única solución T-periódica la trivial x ≡ 0 .

Sea x(t) = W(t)c + xp (t) la solución general de [S]. x(t) es T-periódica (teorema 1) si y sólo es [W(0)− W(T)]c = xp (T)− xp (0) . Este sistema algebraico tiene solución única si y sólo si el sistema homogéneo [W(0)− W(T)]c = 0 tiene sólo la solución c = 0 y esto equivale a que el [Sh] tenga sólo x ≡ 0 como solución T-periódica. Si [Sh] tiene más soluciones periódicas la situación se complica. Para precisar lo que ocurre hay que conocer las soluciones del homogéneo, lo que, en general, no se puede. Sólo tratamos un caso particular de interés físico: las oscilaciones de un sistema muelle-masa con o sin rozamiento proporcional a la velocidad, sometido a fuerzas externas de periodo T . Es decir: [c] 00 + 0 + ω2  = ƒ (t) ,  ≥ 0 , ω 6= 0 , ƒ continua y T-periódica. El  representa entonces la separación de la masa de la posición de equilibrio. ¿En qué condiciones es el movimiento de periodo T ?

f(t)

En 2.2 vimos que la homogénea [ch] tiene soluciones periódicas no triviales si y sólo si hay autovalores de la forma λ = ±q . Esto sólo ocurre cuando  = 0 . Entonces la solución general de [ch] es:  = c1 cos ωt+c2 sen ωt , todas periódicas de periodo mínimo

2π ω

.

(No tienen que ser de periodo T ).

Sabemos que [c] tiene una única solución T-periódica si [ch] tiene como única solución T-periódica la trivial, es decir, si  6= 0 o si  = 0 , pero T 6= 2nπ . Además: ω Teor 3. Si  = 0 y T = 2πn para algún n ∈ N ω (si todas las soluciones de [ch] son T-periódicas) entonces: RT RT a] Si 0 ƒ (t) cos ωt dt = 0 ƒ (t) sen ωt dt = 0 , toda solucion de [c] es T-periódica. b] Si alguna de las integrales no es 0 , ninguna solución de [c] es T-periódica. La fórmula de variación de las constantes nos da la solución general de [c] : Rt Rt 1 1  = c1 cos ωt + c2 sen ωt + ω sen ωt 0 ƒ (s) cos ωs ds+ ω cos ωt 0 ƒ (s) sen ωs ds RT 1RT Entonces (T)− (0) = − ω ƒ (s) sen ωs ds y 0 (T)− 0 (0) = 0 ƒ (s) cos ωs ds . 0 El teorema 1 asegura que si las dos integrales son 0 cualquier  es T-periódica. Si alguna no es 0 , no hay soluciones T-periódicas.

53

Si  > 0 , es decir, si hay rozamiento, los dos autovalores tienen Reλ < 0 , con lo que la ecuación [c] tiene una única solución T-periódica. Como hay estabilidad asintótica todas las soluciones se acercarán a ella, con lo que, en la práctica, se verá al cabo del tiempo oscilar a la masa con el periodo de la fuerza externa (matemáticamente, el movimiento no sería periódico, pues, salvo que los datos iniciales proporcionen la única solución periódica, existen otros términos con exponenciales decrecientes). Si  = 0 (no hay rozamiento), la situación puede ser más complicada. Suponemos por comodidad que b = 1 , es decir, que la ecuación es [d] 00 +  = ƒ (t)



 = c1 cos t + c2 sen t + p

es su solución general. Impongamos fuerzas externas periódicas de diferentes tipos: ƒ (t) = sen5 (πt) . Su periodo mínimo es 2. Como la homogénea no tiene soluciones de ese periodo (salvo, como siempre,  ≡ 0 ) hay una única solución 2-periódica de [d]. Sólo para aquellos datos iniciales que nos den c1 = c2 = 0 obtendremos esa solución de periodo 2. Las demás soluciones serán sumas de funciones de diferentes periodos y no serán periódicas (ni siquiera asintóticamente). ƒ (t) = cos t . De periodo mínimo 2π . Como las soluciones de la homogénea son todas de ese mismo periodo es necesario evaluar las integrales: R 2π R 2π sen t cos t dt = 0 , 0 cos2 t dt 6= 0 0 con lo que [d] no tiene soluciones 2π-periódicas. Podemos, en este caso, hallar una p por coeficientes indeterminados: p = t sen t / 2 , y comprobar que todas las soluciones oscilan con creciente amplitud (resonancia). ƒ (t) = esen t . Periodo mínimo 2π . Ahora hay que ver si son 0 las integrales: R 2π R 2π esen t sen t dt e 0 esen t cos t dt 0 La segunda se calcula fácilmente: es 0 . La otra no tiene primitiva elemental. Sin embargo analizando la gráfica del integrando (o numéricamente) es fácil ver que no se anula. No hay por tanto soluciones 2π-periódicas (ni de otro periodo porque la segunda integral es no nula en cualquier intervalo [0, 2kπ] ). Y en este caso no podríamos hallar explícitamente la solución (si lo intentásemos por variación de constantes nos encontraríamos la integral de antes). ƒ (t) = sen2 t . Periodo mínimo π. Hay una única solución de [d] de periodo π porque la homogénea no tiene soluciones no triviales de ese periodo. Como R 2π R 2π sen3 t dt = 0 , 0 sen2 t cos t dt = 0 0 todas son 2π-periódicas, aunque para afirmarlo no era preciso evaluar esas integrales: si p es de periodo π todas las c1 cos t + c2 sen t + p son de periodo 2π pues p lo es. ƒ (t) = sen(2t) si t ∈ [2kπ, (2k + 1)π] , k ∈ Z y 0 en el resto. Tiene periodo mínimo 2π. R 2π Rπ R 2π Rπ ƒ (t) sen t dt = 0 sen 2t sen t dt = 0 , 0 ƒ (t) cos t dt = 0 sen 2t cos t dt = 0 . 0 Por tanto la masa se mueve periódicamente para cualquier posición y velocidad iniciales a pesar de aplicarle una fuerza del mismo periodo que el libre del muelle.

54

Get in touch

Social

© Copyright 2013 - 2024 MYDOKUMENT.COM - All rights reserved.