Sistemas de ecuaciones diferenciales lineales

Lecci´ on 8 Sistemas de ecuaciones diferenciales lineales 8.1. Introducci´ on: Sistemas de ecuaciones diferenciales Un sistema de ecuaciones difer

0 downloads 266 Views 205KB Size

Recommend Stories


2.3 Ecuaciones diferenciales lineales
2.3 Ecuaciones diferenciales lineales 45 2.3 Ecuaciones diferenciales lineales Las ecuaciones diferenciales ordinarias de primer orden pueden ser li

Ecuaciones diferenciales lineales de orden
607 Análisis matemático para Ingeniería. M. MOLERO; A. SALVADOR; T. MENARGUEZ; L. GARMENDIA CAPÍTULO 10. Ecuaciones diferenciales lineales de orden

Story Transcript

Lecci´ on 8

Sistemas de ecuaciones diferenciales lineales

8.1.

Introducci´ on: Sistemas de ecuaciones diferenciales

Un sistema de ecuaciones diferenciales es un conjunto de una o m´as ecuaciones en las que aparecen una o m´as funciones inc´ognita, pero todas ellas dependiendo de una sola variable independiente. Para ilustrar este concepto vamos a retomar un ejemplo de cin´etica qu´ımica que estudiamos en la lecci´on anterior, pero pregunt´andonos ahora una cuesti´on diferente y, como veremos, m´as complicada. Ejemplo 8.1 .- Consideremos las siguientes reacciones irreversibles de segundo orden que se producen consecutivamente en un reactor: k

1 A + S −→ X

k

2 X + S −→ Y

Si inicialmente se a˜ naden 2 moles de S y 1 mol de A. ¿Cu´al es la cantidad de sustancia en el reactor en cada instante de tiempo?. 115

116

Sistemas de ecuaciones diferenciales lineales

Si, como viene siendo habitual, [A], [S], [X] y [Y ] representan las concetraciones molares de las sustancias presentes en las reacciones, las ecuaciones diferenciales que modelan la evoluci´on en el tiempo de las concentraciones son: d[A] dt

= −k1 [A][S]

d[Y ] dt

= k2 [X][S]

d[X] dt

= k1 [A][S] − k2 [X][S]

d[S] dt

= −k1 [A][S] − k2 [X][S]

(8.1)

Esto es un sistema de 4 ecuaciones diferenciales de primer orden con cuatro funciones inc´ognitas: [A], [S], [X] y [Y ]. As´ı pues, resolver el sistema ser´ıa encontrar expresiones para las cuatro funciones (como funciones del tiempo t, que es la variable independiente). Como adem´as se dan unas condiciones iniciales: [A]0 = 1 mol, [S]0 = 2 moles [X]0 = [Y ]0 = 0 moles, estamos en presencia de un problema de condiciones iniciales. Se trata de un sistema que no es lineal porque las ecuaciones que los componen no lo son. Salvo para sistemas muy concretos s´olo disponemos de m´etodos anal´ıticos generales para resolver sistemas lineales especiales. Por ello no es esperable que podamos obtener, tal y como se nos pide, expresiones anal´ıticas para la evoluci´on de las concentraciones de las sustancias presentes en el reactor a lo largo del tiempo. Esto no significa que no podamos decir nada a este respecto: disponemos de buenos m´etodos cualitativos y num´ericos que nos permiten conseguir mucha informaci´on acerca de las soluciones de gran cantidad de sistemas no lineales. En ´esta y las dos pr´oximas lecciones estudiaremos m´etodos anal´ıticos para expresar las soluciones de los sistemas lineales y en particular de los de coeficientes constantes. Posteriormente estudiaremos t´ecnicas cualitativas para obtener informaci´on de las soluciones de los sistemas no lineales. Los m´etodos num´ericos se estudiar´an en la asignatura de An´alisis Num´erico.

8.2.

Sistemas de primer orden

En el sistema (8.1) aparecen s´olo derivadas de primer orden en las funciones inc´ognita [A], [S], etc. Por eso se llama un sistema de primer orden. El orden de un sistema de ecuaciones diferenciales es el orden de la derivada de mayor orden que aparece en el sistema. La forma general de un sistema de dos ecuaciones y de primer orden es: x0 = f (t, x, y) y 0 = g(t, x, y)

8.2 Sistemas de primer orden

117

donde f y g son funciones de las tres variables x, y y t (variable independiente del sistema). Una soluci´ on del sistema en el intervalo (a, b) es un par de funciones x(t), y(t) que satisfacen x0 (t) = f (t, x(t), y(t)) y 0 (t) = g(t, x(t), y(t)) id´enticamente para todo t ∈ (a, b). Ejemplo 8.2 .- Probar que las funciones x(t) = et , y(t) = e−t son soluciones del sistema x0 = x2 y y 0 = −xy 2 . en toda la recta real. En efecto, por una parte x0 (t) = et y x(t)2 y(t) = e2t e−t = et . As´ı pues x0 (t) = x(t)2 y(t) y se satisface la primera ecuaci´on id´enticamente. Adem´as y 0 (t) = −e−t y −x(t)y(t)2 = −et e−2t = −e−t . Entonces y 0 (t) = −x(t)y(t)2 con lo que se satisface la segunda ecuaci´on. En consecuencia, las funciones x(t) = et , y(t) = e−t son soluciones del sistema. Los sistemas no tienen por qu´e ser de dos 2 ecuaciones. En general, un sistema de n ecuaciones diferenciales con n funciones inc´ognitas x1 (t),. . . , xn (t) en la variables independiente t, tendr´a la siguiente forma: x01 = f1 (t, x1 , x2 , . . . , xn ) x02 = f2 (t, x1 , x2 , . . . , xn ) .. . x0n = fn (t, x1 , x2 , . . . , xn ) donde f1 , f2 , . . . , fn son funciones de las n + 1 variables t, x1 , x2 , . . . , xn . Siempre exigiremos que el n´ umero de ecuaciones y de inc´ognitas sea el mismo. Y a este n´ umero com´ un le llamaremos la dimensi´ on del sistema.

8.2.1.

Notaci´ on vectorial

Al trabajar con sistemas es conveniente utilizar la notaci´on vectorial; es m´as manejable y compacta. Por ejemplo para el sistema x01 = k1 x21 x2−1 − k2 x1 x02 = k3 x21 − k4 x2 , si definimos la funci´on vectorial

µ x(t) =

¶ x1 (t) x2 (t)

118 tendr´ıamos que

Sistemas de ecuaciones diferenciales lineales

µ 0¶ µ ¶ x1 k1 x21 x−1 2 − k 2 x1 x = = . x02 x02 = k3 x21 − k4 x2 0

(8.2)

Debemos observar dos cosas en relaci´on con la ecuaci´on (8.2). Primero, para derivar una funci´on vectorial x(t) lo u ´nico que hay que hacer es derivar cada una de sus componentes: µ 0 ¶ x1 (t) 0 . x (t) = x02 (t) En segundo lugar, la parte de la derecha de la ecuaci´on (8.2) es una funci´on vectorial respecto de las componentes del vector x. Por lo tanto, si ponemos ¶ µ k1 x21 x−1 2 − k 2 x1 f (x) = , x02 = k3 x21 − k4 x2 entonces la ecuaci´on (8.2) se convierte en x0 = f (x).

(8.3)

En general, para un sistema de dimensi´on n: x01 = f1 (t, x1 , x2 , . . . , xn ) x02 = f2 (t, x1 , x2 , . . . , xn ) .. .

(8.4)

x0n = fn (t, x1 , x2 , . . . , xn ) podemos ahorrar mucho espacio y tiempo si usamos notaci´on vectorial. Si ponemos     x1 f1 (t, x)  x2   f2 (t, x)      x =  ..  y f (t, x) =  ..  , .  .  xn fn (t, x) entonces el sistema se puede escribirse como x0 = f (t, x). Vemos as´ı que la gran ventaja de usar notaci´on vectorial consiste en poder expresar un sistema de cualquier dimensi´on casi de la misma forma que una sola ecuaci´on diferencial. La diferencia es que para sistemas, las variables y funciones son vectores, que siempre escribiremos en negrita para diferenciarlas de las variables y funciones escalares. Por lo general, sin embargo, del contexto se podr´a deducir f´acilmente si trabajamos con vectores o con escalares.

8.2 Sistemas de primer orden

119

Una u ´ltima observaci´on. Aunque nuestros vectores ser´an siempre vectores columna, por sencillez, en ocasiones escribiremos estos vectores como una n-tupla. Es decir, un vector   x1  x2    x =  ..  . xn tambi´en lo escribiremos como x = (x1 , x2 , . . . , xn ).

8.2.2.

El Problema de condiciones iniciales

En las aplicaciones, los sistemas de ecuaciones diferenciales que modelizan procesos reales, suelen ir acompa˜ nados de ciertas condiciones que deben cumplir las funciones inc´ognitas para uno o m´as valores de la variable independiente t. As´ı, en el ejemplo del sistema (8.1) que modeliza la evoluci´on de las concentraciones de ciertas sustancias en un reactor, ´estas comienzan con unas concentraciones iniciales de dichas sustancias. Son las condiciones iniciales del sistema. Vemos que hay una condici´on inicial para cada variable del sistema. En este caso las condiciones iniciales se conocer´an, muy posiblemente,en el instante en el que se pone en marcha el reactor; es decir, t = 0; pero en otras situaciones bien podr´ıa suceder que esas condiciones iniciales se dieran en un instante t0 cualquiera. As´ı pues, el Problema de condiciones iniciales para un sistema de dimensi´on n x0 = f (t, x) consiste en encontrar n funciones x1 (t), x2 (t),. . . , xn (t) ( o en notaci´on vectorial, una funci´on vectorial x(t) = (x1 (t), x2 (t), . . . , xn (t))) que sea soluci´on del sistema y cumpla una determinada condici´on inicial x(t0 ) = x0 . El problema de condiciones iniciales lo escribiremos de forma similar a como lo hac´ıamos para ecuaciones de primer orden: ½ 0 x = f (t, x) x(t0 ) = x0 .

8.2.3.

Reducci´ on de sistemas de orden superior a sistemas de primer orden

En el estudio de sistemas nos podemos restringir a los sistemas de primer orden. Esto es debido a que cualquier sistema de orden superior es equivalente a uno de primer orden.

120

Sistemas de ecuaciones diferenciales lineales

Cuando decimos que dos sistemas son equivalentes nos referimos a que las soluciones de uno de ellos conduce a las del otro y rec´ıprocamente. Quiz´a la forma m´as simple de comprender esta idea es utilizando un ejemplo

Ejemplo 8.3 Consideremos la siguiente ecuaci´on de tercer orden x000 + xx00 = cos t.

(8.5)

Podemos ver esta ecuaci´on como un sistema de dimensi´on 1 y orden 3. Vamos a encontrar un sistema de primer orden que es equivalente a esta ecuaci´on. Para ello introducimos nuevas variables: x1 = x, x2 = x0 y x3 = x00 . Notemos que hay una componente de x = (x1 , x2 , x3 ) por cada derivada de x hasta un orden una unidad menor de la que aparece en el ecuaci´on. Formamos entonces el siguiente sistema de primer orden: x01 = x2 x02 = x3 x03 = −x1 x3 + cos t

(8.6)

Est´a claro que si x = x(t) es una soluci´on de la ecuaci´on (8.5) entonces el conjunto de funciones x1 = x(t), x2 = x0 (t) y x3 = x00 (t) son soluciones del sistema (8.6). Veamos que el rec´ıproco tambi´en es cierto. Sean x1 = x1 (t), x2 = x2 (t) y x3 = x3 (t) soluciones del sistema (8.6). Veamos que x = x1 (t) es soluci´on de la ecuaci´on (8.5). En efecto, tendr´ıamos x0 = x01 (t) = x2 (t) y x00 = x001 (t) = x02 (t) = x3 (t), de modo que x000 = x03 (t) = −x1 x3 + cos t = −xx00 + cos t. Por lo tanto x = x1 (t) es soluci´on de la ecuaci´on (8.5). Es decir, los sistemas (8.5) y (8.6) son equivalentes. Obs´ervese que cada soluci´on de la ecuaci´on es la primera componente de una soluci´on del sistema, y que cada soluci´on del sistema se obtiene de una soluci´on de la ecuaci´on derivando tantas veces como el orden de la ecuaci´on menos 1.

De forma general podemos proceder de la misma manera: dada una ecuaci´on de orden n: x(n) = f (t, x0 , x00 , . . . , x(n−1) )

(8.7)

introducimos nuevas variables dependientes para x y cada una de sus derivadas hasta la de orden n − 1: x1 = x, x2 = x0 , x3 = x00 , . . . , xn = x(n−1) .

8.2 Sistemas de primer orden

121

De esta forma x01 = x0 = x2 , x02 = x00 = x3 , etc. El sistema que obtenemos es x01 = x2 x02 = x3 .. . x0n−1 = xn x0n = f (t, x1 , x2 , . . . , xn ), que es un sistema de dimensi´on n pero de primer orden. Para usar notaci´on vectorial ponemos x = (x1 , x2 , . . . , xn ) y F = (F1 , F2 , . . . , Fn ) siendo F1 (t, x) = x2 , F2 (t, x) = x3 ,. . . Fn−1 (t, x) = xn y Fn (t, x) = f (t, x). De esta forma el sistema resultante se puede escribir abreviadamente como x0 = F (t, x).

(8.8)

Se demuestra, como en el ejemplo que si x = x(t) es soluci´on de la ecuaci´on (8.7) entonces x(t) = (x(t), x0 (t), x00 (t), . . . , x(n−1) (t)) es soluci´on del sistema (8.8). Y rec´ıprocamente, si x(t) = (x1 (t), x2 (t), . . . , xn (t)) es soluci´on del sistema (8.8), entonces x = x1 (t) es soluci´on de la ecuaci´on (8.7). En cuanto al problema de condiciones iniciales, hemos visto que para el sistema (8.8) tenemos que especificar un vector de condiciones iniciales x(t0 ) = x0 = (x01 , x02 , . . . , x0n ). Esto equivale a especificar en la ecuaci´on (8.7) n condiciones iniciales: una para x en t0 y una para cada una de sus derivadas hasta la de orden n − 1, todas ellas en t0 . Es decir, el problema de condiciones iniciales relativo a una ecuaci´on diferencial de orden n ser´ıa x(n) = f (t, x, x0 , . . . , x(n−1) ) x(t0 ) = x01 , x0 (t0 ) = x02 , . . . , xn (t0 ) = x0n .

Finalmente, si tenemos, no s´olo una ecuaci´on sino un sistema de ecuaciones de orden p, reducimos cada ecuaci´on del sistema a un sistema de ecuaciones de primer orden. Una u ´ltima observaci´on. El motivo de reducir una ecuaci´on o sistema de ecuaciones de ´orden superior a un sistema de primer orden viene motivado no s´olo por el hecho de que, de esta forma, podemos reducir el estudio de sistemas a los de primer orden. Tambi´en tiene una importancia de tipo pr´actico: los procedimientos para resolver sistemas num´ericamente, que es casi la u ´nica forma de resolverlos, exigen, todos o casi todos, que el sistema sea de primer orden. Por lo tanto, para poder aplicarlos, lo primero que hay que hacer es reescribir la ecuaci´on o sistema que tengamos como un sistema de primer orden.

122

8.3.

Sistemas de ecuaciones diferenciales lineales

Sistemas de ecuaciones lineales

Si cada una de las funciones f1 , . . . , fn en el sistema (8.4) son lineales, entonces el sistema se dice que es lineal. La forma general de un sistema lineal de n ecuaciones de primer orden es   x01 = a11 (t)x1 + a12 (t)x2 + · · · a1n (t)xn + b1 (t)    x0 = a21 (t)x1 + a22 (t)x2 + · · · a2n (t)xn + b2 (t) 2 ..  .    x0 = a (t)x + a (t)x + · · · a (t)x + b (t) n1 1 n2 2 nn n n n As´ı los sistemas ½ 0 x1 = 3x1 − 5x2 x02 = −2x1

½

x0 = −2ty y 0 = 3et x + 4 cos t

son lineales, mientras que los sistemas ½ 0 ½ 0 x1 = −2x2 x = 3xy − 5y y 0 = −2x x02 = 3x21 + 4

½

(8.9)

u01 = − cos(t)u1 − 5t u2√ u02 = u1 − sen(t)u2 + t

½

u01 = − cos(tu1 ) u02 = u1 − sin(t)

no lo son. Si cada una de las funciones b1 (t), b2 (t),. . . , bn (t) son id´enticamente cero, entonces el sistema se dice que es homog´ eneo y en caso contrario, no homog´ eneo. Los sistemas lineales son los m´as simples entre todos los sistemas de primer orden, pero incluso ´estos son muy dif´ıciles de resolver anal´ıticamente. Suficientemente dif´ıciles son los sistema lineales con coeficientes constantes; es decir, aquellos en los que las funciones aij (t) ´ son funciones constantes. Estos son los u ´nicos que podremos resolver anal´ıticamente. Lo mismo que sucede con los sistemas de ecuaciones algebraicas lineales, la notaci´on matricial es u ´til a fin de simplificar la exposici´on y destacar las propiedades de estos sistemas. En este punto si no se est´a suficientemente familiarizado con la teor´ıa b´asica de matrices, conviene estudiar o repasar el Anexo sobre matrices Tal y como hemos hecho en la secci´on anterior para sistemas en general, llamaremos x(t) al vector (funci´on vectorial):   x1 (t)  x2 (t)    x(t) =  ..   .  xn (t)

8.3 Sistemas de ecuaciones lineales de forma que

123



 x01 (t)  x0 (t)   2  0 x (t) =  ..   .  x0n (t)

es el vector derivada de x(t). Y si ponemos  a11 (t) a12 (t) · · ·  a21 (t) a22 (t) · · ·  A(t) =  .. ..  . . ··· an1 (t) an2 (t) · · ·

   b1 (t) a1n (t)  b2 (t)  a2n (t)     y b(t) =  ..  ..   .  .  ann (t)

bn (t)

entonces el sistema (8.9) se puede escribir abreviadamente x0 (t) = A(t)x(t) + b(t), y si es homog´eneo (i.e. el vector b(t) = 0) entonces x0 (t) = A(t)x(t). Por ejemplo, el sistema x01 = x1 + 2x2 + cos t x02 = 2x1 + x2 + t2 se puede escribir en notaci´on matricial como ¶ µ ¶ µ 1 2 cos t 0 x = x+ , t2 2 1 de forma que la matriz del sistema es µ A(t) =

1 2 2 1



(constante, en este caso) y el vector de los t´erminos independientes es µ ¶ cos t b(t) = . t2 Se trata, entonces, de un sistema no homog´eneo, cuya parte homog´enea es µ ¶ 1 2 0 x = x 2 1

(8.10)

124

Sistemas de ecuaciones diferenciales lineales

Se puede comprobar, mediante sustituci´on, que los dos siguientes conjuntos de funciones son soluciones del sistema homog´eneo (8.10): x1 (t) = e−t , x2 (t) = −e−t , y1 (t) = e3t , y2 (t) = e3t . Estos dos conjuntos de soluciones se pueden escribir de forma m´as compacta usando la notaci´on vectorial µ −t ¶ µ 3t ¶ e e x(t) = , y(t) = 3t . −t −e e En efecto, sustituyendo directamente en (8.10) tendr´ıamos µ −t ¶ µ ¶ µ −t ¶ µ −t ¶ −e 1 2 e −e 0 x (t) = y Ax(t) = = . −t −t e 2 1 −e e−t Y lo mismo para y(t). Diremos, simplemente, que los vectores x(t) y y(t) son soluciones del sistema (8.10). Al estudiar los sistemas de ecuaciones diferenciales, lo primero que analizamos, como es habitual, es la existencia y unicidad de soluciones. Para sistemas lineales tenemos el siguiente resultado que es m´as fuerte que el correspondiente para sistemas no lineales: Teorema 8.4 .- Si todas las componentes de la matriz A(t) y del vector b(t) son continuas en un intervalo (a, b), entonces para cada t0 ∈ (a, b) y para cada vector x0 ∈ Rn el sistema x0 (t) = A(t)x(t) + b(t) con la condici´ on inicial x(t0 ) = x0 tiene una u ´nica soluci´on definida en el intervalo (a, b). Este teorema tiene dos partes. La primera de ellas asegura que si las funciones componentes de la matriz A(t) y del vector b(t) son continuas entonces existe una funci´on vectorial x(t), definida en el intervalo donde son continuas las funciones componentes de A(t) y b(t), tal que x0 (t) = Ax(t)+b(t) y x(t0 ) = x0 . Hay una diferencia importante entre este resultado y los anteriores teoremas de existencia de soluciones que hemos visto hasta ahora: el campo de existencia de las soluciones no se restringe a un, posiblemente, peque˜ no entorno de t0 sino que puede ser muy amplio, tanto como el campo donde A(t) y b(t) son continuas. As´ı, si el sistema es de coeficientes constantes y homog´eneo, las soluciones est´an definidas en toda la recta real porque las funciones constantes son siempre continuas. La segunda parte del teorema dice que la soluci´on del problema de condiciones iniciales es u ´nica. La unicidad significa que si x(t) e y(t) son dos funciones vectoriales que satisfacen

8.4 Propiedades de los sistemas lineales homog´eneos

125

el sistema de ecuaciones diferenciales y la misma condici´on inicial, entonces x(t) = y(t) para todo t. Nuestro objetivo es dise˜ nar un m´etodo para encontrar todas las soluciones de los sistemas diferenciales lineales. Una vez logrado, lo aplicaremos a la resoluci´on de los sistemas de ecuaciones diferenciales de coeficientes constantes. Para ello necesitamos estudiar las propiedades m´as importantes de los sistemas lineales.

8.4.

Propiedades de los sistemas lineales homog´ eneos

Nos centramos, por simplicidad, en los sistemas lineales de dimensi´on 2, aunque las ideas que vamos a desarrollar son v´alidas para sistemas de cualquier dimensi´on. Los resultados generales los enunciaremos para sistemas de dimensi´on n. Los sistemas lineales de dimensi´on dos son de la forma: ½ 0 x1 = a11 (t)x1 + a12 (t)x2 + b1 (t) ⇔ x0 = A(t)x + b(t), x02 = a21 (t)x1 + a22 (t)x2 + b2 (t) siendo

µ A(t) =

¶ a11 (t) a12 (t) a21 (t) a22 (t)

(8.11)

µ ¶ b1 (t) y b(t) = . b2 (t)

A estos sistemas tambi´en se les llama sistemas planos (o planares, seg´ un autores). La primera propiedad que observamos de los sistemas lineales es que las soluciones de estos sistemas cumplen el principio de superposici´ on. Es decir, si µ ¶ µ ¶ u1 (t) v1 (t) u(t) = y v(t) = u2 (t) v2 (t) son soluciones del sistema (8.11) y a y b son n´ umeros reales entonces au(t) + bv(t) tambi´en es soluci´on del sistema (8.11). Hay una forma en matem´aticas de expresar esta idea: Proposici´ on 8.5 .- Las soluciones del sistema lineal x0 = A(t)x forman un espacio vectorial. Se trata, en realidad, de un subespacio vectorial del espacio vectorial de las funciones continuas, pero esto no tiene, aqu´ı, ninguna importancia. Veamos que para los sistemas planos, en efecto funciona el principio de superposici´on: sea w(t) = au(t) + bv(t), y veamos que w0 (t) = A(t)w(t): w0 (t) = au0 (t) + bv 0 (t) = aA(t)u(t) + bA(t)v(t) = A(t)(au(t) + bv(t)) = A(t)w(t)

126

Sistemas de ecuaciones diferenciales lineales

La funci´on vectorial w(t) = au(t) + bv(t) se dice que es una combinaci´on lineal de las funciones u(t) y v(t). As´ı pues, el principio de superposici´on dice que cualquier combinaci´ on lineal de soluciones de un sistema lineal homog´eneo es tambi´en una soluci´on del sistema. El principio de superposici´on es una propiedad de los sistemas lineales que no es verdadera en general para sistemas no lineales. Por ejemplo, si consideramos el sistema ½

x01 = x21 x02 = x1 x2

entonces

µ u(t) =

− 1t 0



es una soluci´on del sistema porque 0

u (t) =

µ1¶ t2

µ y

0

con lo que

µ 0

u (t) =

u21 u1 u2

µ1¶

¶ =

t2

0

¶ u21 . u1 u2

µ ¶ 0 es soluci´on del sistema. Sin embargo, w(t) = Tambi´en la funci´on vectorial v(t) = 0 µ 2¶ −t 2u(t) + 0v(t) = no es soluci´on del sistema. En efecto 0 0

w (t) =

µ2¶ t2

µ y

0

w12 w1 w2

µ4¶

¶ =

t2

0

.

Hemos visto que si x1 (t), x2 (t) son soluciones del sistema plano x0 = A(t)x entonces cualquier combinaci´on lineal de ellas tambi´en lo es. ¿Ser´a posible expresar todas las soluciones del sistema como combinaci´on de dos de ellas solamente? Consideremos un ejemplo:

Ejemplo 8.6 .- Dado el sistema

µ ¶ 1 2 x = x 2 1 µ 3t ¶ µ −t ¶ e e son soluciones del sistema y probar que y x2 (t) = comprobar que x1 (t) = −t e3t −e cualquier otra soluci´on es combinaci´on lineal de estas dos. 0

8.4 Propiedades de los sistemas lineales homog´eneos

127

En realidad ya hemos visto que x1 (t) y x2 (t) son soluciones (ver sistema (8.10)). Veamos ahora que si x(t) es una soluci´on del sistema, entonces x(t) es una combinaci´on lineal de x1 (t) y x2 (t). Es decir, vamos a ver que existen unos n´ umeros c1 y c2 tales que x(t) = c1 x1 (t) + c2 x2 (t) para todo t. Encontrar estos n´ umeros c1 y c2 para un valor de t concreto es muy f´acil. Por ejemplo, si supi´eramos el valor de x(t) en t = 0, digamos µ x(0) =

¶ 3 , −1

podr´ıamos encontrar enseguida 1 y c2 de modo que x(0) = c1 x1 (0) + c2 x2 (0). µ ¶ valores paraµ c¶ 1 1 En efecto, como x1 (0) = y x2 (0) = tendr´ıamos que −1 1 µ

¶ µ ¶ µ ¶ µ ¶ 3 1 1 c1 + c2 x(0) = c1 x1 (0) + c2 x2 (0) ⇔ = c1 + c2 = ⇔ −1 1 −c1 + c2 ½−1 3 = c1 + c2 . ⇔ −1 = −c1 + c2 S´olo hay que resolver este sencillo sistema de dos ecuaciones con dos inc´ognitas. Pero este sistema no siempre tiene soluci´on, ello depende de que la matriz de los coeficientes tenga ´ determinante distinto de cero. Este es el caso en este ejemplo: ¶ µ 1 1 = 2 6= 0, det −1 1 de modo que el sistema tiene soluci´on y adem´as es u ´nica. En concreto c1 = 2 y c2 = 1. Debemos observar dos cosas: µ 0¶ x1 Si el valor de x en t = 0 fuera otro, digamos x(0) = , entonces el sistema lineal x02 a resolver ser´ıa ½ 0 x1 = c1 + c2 (8.12) x02 = −c1 + c2 que tambi´en tendr´ıa soluci´on porque la existencia o no de soluciones de este sistema no depende de los t´erminos independientes sino de la matriz de los coeficientes. La matriz de los coeficientes depende exclusivamente de las funciones soluci´on dadas: x1 (t) y x2 (t). Es, en efecto, la matriz cuyas columnas son x1 (0) y x2 (0): ¡

¢ x1 (0) x2 (0) =

µ

1 1 −1 1



128

Sistemas de ecuaciones diferenciales lineales

¡ ¢ Resumiendo, hemos visto hasta ahora que si la matriz x1 (0) x2 (0) tiene determinante distinto de cero -o lo que es lo mismo, si los vectores x1 (0) y x2 (0) son linealmente independientes (ver Anexo sobre matrices si no se recuerda lo que significa este concepto)-, entonces se pueden encontrar n´ umeros c1 y c2 de modo que x(0) = c1 x1 (0) + c2 x2 (0). Pero lo que nosotros pretendemos es mucho m´as ambicioso: pretendemos encontrar unos n´ umeros c1 y c2 tales que x(t) = c1 x1 (t) + c2 x2 (t) para todo t y no s´olo para t = 0. Claro que de existir tales n´ umeros, ´estos deber´ıan ser los hallados al resolver el sistema x(0) = c1 x1 (0) + c2 x2 (0) (que es el sistema (8.12)) porque este sistema tiene una u ´nica soluci´on. Debemos probar, entonces, que si c1 y c2 son los n´ umeros para los que x(0) = c1 x1 (0) + c2 x2 (0) entonces x(t) = c1 x1 (t) + c2 x2 (t) para todo t. Esto parece una tarea dif´ıcil pero no lo es tanto porque hay una propiedad fundamental de x(t) que todav´ıa no hemos utilizado: es soluci´on del sistema µx0 = ¶ A(t)x. Adem´as es la soluci´on de este sistema que cumple la condici´on inicial 0 x1 . Ahora bien, si ponemos y(t) = c1 x1 (t) + c2 x2 (t) con c1 y c2 los n´ umeros que x(0) = x02 solucionan el sistema (8.12), tenemos que, por el principio de superposici´on y(t) es soluci´on del sistema x0 = A(t)x y cumple que y(0) = c1 x1 (0) + c2 x2 (0) = x(0). Es decir, y(t) es una soluci´on del sistema que cumple la misma condici´on inicial que x(t). El teorema de unicidad nos dice que esto s´olo es posible si x(t) = y(t). Como y(t) = c1 x1 (t) + c2 x2 (t) conclu´ımos que x(t) = c1 x1 (t) + c2 x2 (t) para todo t. µ ¶ 3 , hab´ıamos encontrado que En el caso considerado m´as arriba, en el que x(0) = −1 los n´ umeros c1 y c2 para los que x(0) = c1 x1 (0) + c2 x2 (0) eran c1 = 2 y c2 = 1. Por lo tanto, la u ´nica soluci´on del sistema ¶ µ 1 2 0 x x = 2 1 µ −t ¶ µ ¶ 2e + e3t 3 es x(t) = 2x1 (t) + x2 (t) = . que cumple la condici´on inicial x(0) = −2e−t + e3t −1 Definici´ on 8.7 .- Si x1 (t), x2 (t), . . . , xn (t) son exactamente n soluciones del sistema lineal homog´eneo x0 = A(t)x tales que cualquier otra soluci´on del sistema, x(t), se puede poner como combinaci´ on lineal de ellas, se dice que forman un sistema fundamental de soluciones del sistema. En el ejemplo anterior, las soluciones µ −t ¶ e x1 (t) = −e−t

µ y x2 (t) =

forman un sistema fundamental de soluciones del sistema µ ¶ 1 2 0 x = x. 2 1

e3t e3t



8.4 Propiedades de los sistemas lineales homog´eneos

129

A la vista de este ejemplo y todo su desarrollo podemos enunciar el siguiente resultado: Proposici´ on 8.8 .- Si x1 (t), x2 (t), . . . , xn (t) son n soluciones de un sistema lineal ho0 mog´eneo x = A(t)x definido en el intervalo (a, b), entonces forman un sistema fundamental de soluciones si y s´olo si los vectores x1 (t0 ), x2 (t0 ), . ¡. . , xn (t0 ) son linealmente independien¢ tes para alg´ un t0 ∈ (a, b). Es decir, si y s´olo si det x1 (t0 ) x2 (t0 ) · · · xn (t0 ) 6= 0 para alg´ un t0 ∈ (a, b). En realidad, en el ejemplo de m´as arriba ya se han dado las ideas b´asicas para obtener una demostraci´on formal de esta Proposici´on para el caso n = 2. El caso general es similar. Veremos m´as adelante que todo sistema lineal homog´eneo de dimensi´on n admite un sistema fundamental de n soluciones. Este hecho, junto a la Proposici´on 8.8, se puede enunciar matem´aticamente de la siguiente forma Teorema 8.9 .- El conjunto de soluciones de un sistema n-dimensional lineal homog´eneo de primer orden x0 = A(t)x forma un espacio vectorial de dimensi´on n. Si {x1 (t), x2 (t), . . . , xn (t)} es un tal sistema, a la matriz ¡ ¢ X(t) = x1 (t) x2 (t) · · · xn (t) cuyas columnas son los vectores soluci´on, se le llama matriz fundamental de soluciones. Podemos observar que ¡ ¢ ¡ ¢ X 0 (t) = x01 (t) x02 (t) · · · x0n (t) = A(t)x1 (t) A(t)x2 (t) · · · A(t)xn (t) = A(t)X(t), donde hemos hecho uso de la siguiente propiedad del producto ¡ ¢ de matrices: si expresamos la matriz B en funci´on de sus columnas: B = b1 b2 · · · bn , entonces las columnas de la matriz producto AB so Ab1 , Ab2 ,. . . , Abn ; es decir, ¡ ¢ AB = Ab1 Ab2 · · · Abn . Como conclusi´on de todo este proceso tenemos el siguiente teorema ¡ ¢ Teorema 8.10 .- Una matriz X(t) = x1 (t) x2 (t) · · · xn (t) es una matriz fundamental de soluciones del sistema lineal homog´eneo x0 = A(t)x de dimensi´on n en el intervalo (a, b) si y s´olo si cumple las dos siguientes propiedades: (i) X 0 (t) = A(t)X(t)

130

Sistemas de ecuaciones diferenciales lineales

(ii) det X(t0 ) 6= 0 para alg´ un t0 ∈ (a, b). La primera condici´on indica que los vectores x1 (t), x2 (t), . . . , xn (t) (las columnas de X(t)) son soluci´on del sistema x0 = A(t)x. Y la segunda significa que estos vectores son linealmente independientes en (a, b). Es decir, el conjunto {x1 (t), x2 (t), . . . , xn (t)} forma un sistema fundamental de soluciones del sistema x0 = A(t)x. Este Teorema nos indica el camino que debemos seguir para obtener la soluci´on general del sistema homog´eneo x0 = A(t)x: 1. Encontrar n soluciones del sistema x1 (t), x2 (t), . . . , xn (t). Equivalentemente, encontrar una matriz de n soluciones. 2. Comprobar que son linealmente independientes; es decir, que si (a, b) es ¡ ¢ el intervalo en el que est´a definido el sistema entonces det x1 (t0 ) x2 (t0 ) · · · xn (t0 ) = det X(t0 ) 6= 0 para alg´ un t0 ∈ (a, b). 3. Escribir la soluci´on general del sistema como combinaci´on lineal de las soluciones encontradas. Es decir, la soluci´on general del sistema ser´ıa x(t) = c1 x1 (t) + c2 x2 (t) + · · · + cn xn (t) siendo c1 , c2 ,. . . , cn constantes arbitrarias. Si observamos que

¡ c1 x1 (t) + c2 x2 (t) + · · · + cn xn (t) = x1 (t) x2 (t) · · ·

con

  c1  ¢  c2  xn (t)  ..  = X(t)c . cn

  c1  c2    c =  ..  , . cn

la soluci´on general del sistema se podr´ıa escribir, en notaci´on matricial, de la siguiente forma: x(t) = X(t)c.

8.4 Propiedades de los sistemas lineales homog´eneos µ 0

Ejemplo 8.11 .- Dado el sistema x = µ x1 (t) =

131

¶ 0 1 x, comprobar que las funciones vectoriales −2 2

¶ et cos t et (cos t − sen t)

µ y x2 (t) =

¶ et sen t et (cos t + sen t)

forman un sistema fundamental de soluciones, escribir la soluci´on general µ ¶del sistema y hallar 2 la u ´nica soluci´on del sistema que cumple la condici´on inicial x(0) = . 3 µ

¶ 0 1 En primer lugar hay que observar que la matriz del sistema A(t) = es continua −2 2 en toda la recta real, de modo que el intervalo de definci´on del sistema es (−∞, +∞). A continuaci´on tenemos que comprobar que x1 (t) y x2 (t) son soluciones del sistema: ¶ µ ¶µ ¶ µ t 0 1 et cos t e (cos t − sen t) 0 A(t)x1 (t) = = x1 (t) = 2 et (cos¶t − sen t) −2et sen t µ−2 et (cos t − sen t) = . −2et sen t x02 (t)

µ t ¶ e (sen t + cos t) = 22et cos t

µ

¶µ ¶ 0 1 et sen t A(t)x2 (t) = = 2 et (cos¶t + sen t) µ−2 et (sen t + cos t) . = 2et cos t

Calculamos µ det(x1 (t) x2 (t)) =

¶ et cos t et sen t = et (sen2 t + cos2 t) = et et (cos t − sen t) et (sen t + cos t)

As´ı pues det(x1 (0) x2 (0)) = e0 = 1 6= 0. esto significa que x1 (t) y x2 (t) son linealmente independientes y forman un sistema fundamental de soluciones. Equivalentemente, la matriz µ ¶ ¡ ¢ et cos t et sen t X(t) = x1 (t) x2 (t) = t e (cos t − sen t) et (sen t + cos t) es una matriz fundamental de soluciones. La soluci´on general del sistema ser´a µ

¶ µ ¶ et cos t et sen t x(t) = c1 x1 (t) + c2 x2 (t) = c1 t + c2 t = e (cos t + sen t) µ e (cos t −tsen t) ¶ c1 e cos t + c2 et sen t = . t c1 e (cos t − sen t) + c2 et (cos t + sen t)

132

Sistemas de ecuaciones diferenciales lineales

N´otese que si pusi´eramos µ

¶µ ¶ et cos t et sen t c1 x(t) = X(t)c = = t t t) e (sen t + cos t) c¶ 2 µe (cos t − sen c1 et cos t + c2 et sen t = c1 et (cos t − sen t) + c2 et (cos t + sen t) obtendr´ıamos el mismo resultado. µ ¶ 2 Finalmente, la soluci´on que cumple la condici´on inicial x(0) = ser´a la que se obtiene 3 imponiendo esta condici´on en la soluci´on general: µ ¶ µ ¶ 2 c1 · 1 + c2 · 0 = . 3 c1 · 1 + c2 · 1 As´ı c1 = 2 y c2 = 1 y la soluci´on pedida ser´a µ t ¶ e (2 cos t + sen t) x(t) = t . e (3 cos t − sen t) µ ¶ x1 (t) O, escrito en funci´on de las componentes x(t) = : x2 (t) x1 (t) = et (2 cos t + sen t) x2 (t) = et (3 cos t − sen t). En conclusi´on: para hallar la soluci´on general de cualquier sistema lineal homog´eneo hay que dise˜ nar un m´etodo para calcular n soluciones que sean linealmete independientes, o equivalentemente, una matriz fundamental de soluciones. Este es el objetivo de la siguiente lecci´on para los sistemas lineales con ceficientes constantes; los u ´nicos para los que, como ya hemos dicho, tenemos m´etodos anal´ıticos generales de resoluci´on. Para su estudio necesitamos ´ algunos preparativos de Algebra Lineal que presentamos en la pr´oxima secci´on.

8.5.

Valores y vectores propios de matrices

´ En esta secci´on se hace uso de algunos conceptos b´asicos de Algebra Lineal tales como las operaciones con matrices y vectores y, en especial, la teor´ıa relacionada con la resoluci´on de sistemas homog´eneos de ecuaciones (algebraicas) lineales; en particular, los conceptos de rango y determinante de una matriz son b´asico. Quienes no est´en familiarizados con estos conceptos o quieran repasarlos, pueden hacerlo en el Anexo sobre Matrices.

8.5 Valores y vectores propios de matrices

133

De ahora en adelante representaremos  1 0   I n = 0  .. .

por In la matriz identidad. Es decir  0 0 ··· 0 1 0 · · · 0  0 1 · · · 0 , .. .. . . ..  . . . . 0 0 0 ··· 1

Comenzamos con la definici´on de valor y vector propio de una matriz. Definici´ on 8.12 .- Dada una matriz A ∈ Rn×n se dice que el n´ umero complejo λ ∈ C es un valor propio de A si existe un vector v 6= 0 tal que Av = λv. A este vector, v, se le llama vector propio de A asociado al valor propio λ. Un ejemplo puede clarificar el significado de esta definici´on: 

 1 Ejemplo 8.13 .- Compru´ebese que v = −1 es un vector propio de la matriz 1 

 0 −1 −3 3 3 A= 2 −2 1 1 Debemos comprobar que hay un n´ umero λ (real o complejo) tal que Av = λv. Para ello multiplicamos A por v:      0 −1 −3 1 −2      2 3 3 −1 = 2 . Av = −2 1 1 1 −2 

 1 Y como v = −1, tenemos que 1 Av = (−2)v, de modo que λ = −2 hace que Av = λv.

134

Sistemas de ecuaciones diferenciales lineales

Una pregunta natural es si toda matriz cuadrada tiene valores y vectores propios. Para responder a esta cuesti´on observamos que la condici´on Av = λv es equivalente a (λv −Av) = 0. O, tambi´en, sacando v factor com´ un: (λIn − A)v = 0.

(8.13)

Para cada valor de λ, (8.13) es un sistema lineal homog´eneo de n ecuaciones con n inc´ognitas: las componentes del vector v. Esto se puede ver con m´as claridad si desarrollamos la ecuaci´on (8.13): (λ − a11 ) v1 − a12 v2 − ··· − a1n vn = 0 −a21 v1 + (λ − a22 ) v2 − · · · − a2n vn = 0 (8.14) .. .. .. .. . . . . −an1 v1



an2 v2

− ···

+ (λ − amn ) vn = 0

Por ser un sistema homog´eneo hay siempre un soluci´on obvia (o trivial): v1 = v2 = · · · = vn = 0. Pero para que v sea un vector propio, por definici´on, debe ser distinto de cero. As´ı pues, la soluci´on trivial no nos sirve. Ahora bien, se sabe que un sistema homog´eneo de n ecuaciones lineales con n inc´ognitas tiene una soluci´on no trivial si y s´olo si, el determinante de la matriz de coeficientes es igual a cero. As´ı, para hallar una soluci´on v distinta de cero de la ecuaci´on (8.14) se debe cumplir det (λIn − A) = 0

(8.15)

Al desarrollar el det(λIn − A) obtenemos un polinomio de grado n del que tenemos que obtener los λ que lo hacen cero; es decir, sus ra´ıces, que deben ser n, igual al grado del polinomio, aunque puede haber ra´ıces repetidas. Una vez obtenidas estas n ra´ıces, digamos λ1 , λ2 , . . . , λn , podemos obtener, para cada una de las que no est´an repetidas, un vector propio sin m´as que resolver el sistema (8.13). Clarifiquemos este proceso con un ejemplo. Ejemplo 8.14 .- Dada la matriz 

 1 −1 4 A = 3 2 −1 2 1 −1 se pide calcular sus valores propios y para cada uno de ellos un vector propio asociado. Debemos calcular el det(λI3 − A) e igualarlo a 0:   λ−1 1 −4 1  = λ3 − 2λ2 − 5λ + 6 = 0. det(λI3 − A) = det  −3 λ − 2 −2 −1 λ + 1

8.5 Valores y vectores propios de matrices

135

Llamamos p(λ) a este polinomio: p(λ) = λ3 − 2λ2 − 5λ + 6 = 0

(8.16)

A continuaci´on debemos calcular los valores de λ que hacen cero esta ecuaci´on; es decir las ra´ıces de p(λ). En este caso hay una ra´ız entera que se puede hallar por la regla de Ruffini, que es λ1 = 1. En efecto 13 − 2 · 12 − 5 · 1 + 6 = 0 Una vez obtenida la primera ra´ız, dividimos p(λ) por λ−1 y obtenemos el polinomio λ2 −λ−6 cuyas ra´ıces son λ2 = 3 y λ3 = −2. Vamos a calcular un vector propio asociado a λ1 = 1. Para asociado a λ1 = 1 debemos resolver el sistema       0 1 −4 v1 0  (λ1 I3 − A)v = 0 ⇔ −3 −1 1  v2  = 0 ⇔  −2 −1 2 v3 0

calcular un vector propio v v2 − 4v3 = 0 −3v1 − v2 + v3 = 0 −2v1 − v2 + 2v3 = 0

Este es un simple sistema homog´eneo de tres ecuaciones con tres inc´ognitas. Como ya sabemos que la matriz del sistema tiene determinante igual a cero, el sistema tiene infinitas soluciones que se pueden expresar en funci´on de una o dos variable seg´ un que la matriz del sistema tenga rango 1 ´o 2. Ahora bien, si nos fijamos en las dos primeras ecuaciones observamos que ¶ µ 0 1 6= 0 (8.17) det −3 −1 de modo que rang(λ1 I3 − A) = 2. Esto significa que el subespacio de soluciones del sistema (λ1 I3 − A)v = 0 es 1: el n´ umero de inc´ognitas menos el rango de la matriz de los coeficientes. Esto significa que dos de las inc´ognitas se pueden poner en funci´on de una tercera. Para elegir ´esta escogemos una submatriz de tama˜ no 2 × 2 (el rango de la matriz del sistema λ1 I3 − A) cuyo determinante sea distinto de cero. De hecho, ya hemos seleccionado tal submatriz, (8.17), al calcular el rango de λ1 I3 − A. Esta submatriz corresponde a las inc´ognitas v 1 y v 2 y a las ecuaciones primera y segunda. Por consiguiente, la soluci´on general del sistema la podemos obtener despejando estas dos inc´ognitas en funci´on de la tercera, v 3 , haci´endolo en el subsistema correspondiente a la submatriz seleccionada; i.e. en el correspondiente a las dos primeras ecuaciones: v2 = 4v3 3v1 + v2 = v3 De aqu´ı obtenemos que v2 = 4v3 y v1 = −v3 . La soluci´on general del sistema (λ1 I3 − A)v = 0 ser´a   −v3 v =  4v3  v3

136

Sistemas de ecuaciones diferenciales lineales

Hay, en efecto, infinitas soluciones: una para cada posible valor de v3 . Cualquiera distinta de cero nos sirve porque nos piden un vector propio. Por ejemplo, dando a v3 el valor 1 y sustituyendo: v1 = −1 y v2 = 4. As´ı pues un vector propio asociado al valor propio λ1 = 1 ser´ıa   −1  4 v1 = 1 Procedemos de la misma forma con λ2 = 3. Planteamos el sistema       0 v1 2 1 −4  2v1 + v2 − 4v3 = 0 −3v1 + v2 + v3 = 0 1  v2  = 0 ⇔ (λ2 I3 −A)v = 0 ⇔ (3I3 −A)v = 0 ⇔ −3 1  −2v1 − v2 + 4v3 = 0 0 −2 −1 4 v3 Hallamos el rango de la matriz del sistema 3I3 − A. Para ello miramos a ver si hay una submatriz de orden 2 que sea no singular; i. e. con determinante distinto de cero. Hay varias, una de ellas es µ ¶ 1 1 −1 4 cuyo determinante es 5. As´ı que rang(3I3 − A) = 2 y la dimensi´on del espacio de soluciones es 1. Usando la submatriz elegida, podemos despejar las inc´ognitas v2 y v3 en funci´on de v1 : ½ v2 + v3 = 3v1 −v2 + 4v3 = 2v1 De aqu´ı sacamos que v3 = v1 y v2 = 2v1 . La soluci´on general del sistema ser´a   v1  v = 2v1  v1 Y dando a v1 un valor distinto de cero, por ejemplo v1 = 1, obtenemos un vector propio asociado al valor propio λ2 = 3:   1 v 2 = 2 . 1 Para obtener un vector propio asociado al tercer valor propio, λ3 = −2, proceder´ıamos de la misma forma. En el ejemplo que acabamos de ver se aprecia que el m´etodo para obtener los valores propios y un vector propio asociado a cada uno de ellos es rutinario y se puede concretar de la siguiente forma: Dada la matriz A, de tama˜ no n × n

8.5 Valores y vectores propios de matrices

137

1. Se calcula det(λIn − A) que es un polinomio de grado n m´onico (i.e. el coeficiente del monomio λn es 1). A este polinomio se le llama polinomio caracter´ıstico de A. 2. Se calculan las ra´ıces del polinomio caracer´ıstico. Esto no es una tarea f´acil en la pr´actica salvo para n ≤ 2. Si el polinomio resulta tener ra´ıces enteras, ´estas se pueden obtener por tanteo o el m´etodo de Ruffini. Una vez obtenida una de tales ra´ıces, digamos λ0 , se puede reducir el grado del polinomio caracter´ıstico dividi´endolo por (λ − λ0 ). Y continuar de esta forma mientras haya ra´ıces enteras. Por lo general, se deben emplear m´etodos num´ericos y ayuda de un ordenador para hallar las ra´ıces del polinomio caracter´ıstico. El programa Factoris del sistema WIMS que se encuentra en http://wims.unice.fr/wims/ es muy u ´til y f´acil de usar. No se debe olvidar pinchar en Menu of options para seleccionar C como base de la factorizaci´on de los polinomios. 3. El polinomio caracter´ıstico tiene n ra´ıces porque es de grado n, aunque ´estas pueden ser complejas. Por ejemplo, si µ ¶ 0 −1 A= 1 0 su polinomio caracter´ıstico es ¶ λ −1 = λ2 + 1 = (λ + i)(λ − i) det(λIn − A) = det −1 λ µ

√ siendo i = −1 la unidad imaginaria. Le´ase el Anexo sobre n´ umeros complejos si no se est´a familiarizado con ellos. Si hay ra´ıces complejas todas las operaciones posteriores hay que hacerlas usando aritm´etica compleja. Tambi´en puede suceder que entre las n ra´ıces del polinomio caracter´ıstico haya valores repetidos. Si un n´ umero, digamos λi , aparece mi veces como ra´ız del polinomio caracter´ıstico, se dice que λi es una ra´ız de multiplicidad mi . Teniendo en cuenta que las ra´ıces del polinomio caracter´ıstico son los valores propios de A, tambi´en se dice que λi es un valor propio de A de multiplicidad algebraica mi . Es decir, la multiplicidad algebraica de un valor propio es su multiplicidad como ra´ız del polinomio caracter´ıstico: el n´ umero de veces que aparece como ra´ız de ´este. Por ejemplo, el polinomio caracter´ıstico de la matriz   7 5 −3 2 0 1 0 0  A=  12 10 −5 4  −4 −4 2 −1 es p(λ) = λ4 − 2λ3 + 2λ − 1 que se factoriza (usando Factoris) de la siguiente forma: p(λ) = (λ + 1)(λ − 1)3 .

138

Sistemas de ecuaciones diferenciales lineales Por lo tanto A tiene dos valores propios distintos λ1 = 1 y λ2 = −1. El primero aperece 3 veces como ra´ız de p(λ), as´ı que su multiplicidad algebraica es 3. El segundo aparece solamente una vez; su multiplicidad algebraica es 1.

4. Para cada uno de los distintos valores propios se pueden calcular vectores propios. Para ello, si λ0 es un valor propio del que se quieren calcular vectores propios, se plantea el sistema (λ0 In − A)v = 0. A este sistema se le llama sistema caracter´ıstico de A asociado o relativo al valor propio λ0 . El sistema caracter´ıstico es un sistema lineal homog´eneo que es compatible (i.e. tiene soluci´on distinta de la trivial porque det(λ0 In − A) = 0) e indeterminado porque tiene infinitas soluciones. Cada una de ellas es un vector propio de A asociado al valor propio λ0 . Todos estos vectores propios junto con el vector 0, que es la soluci´on trivial del sistema caracter´ıstico, forman un subespacio vectorial de vectores de n componentes. Es el espacio de soluciones del sistema caracter´ıstico, tambi´en llamado subespacio propio de A asociado al valor propio λ0 . La dimensi´on de este subespacio (esto es, el n´ umero de soluciones linealmente independientes del sistema caracter´ıstico) es n−rang(λ0 In −A). A este n´ umero tambi´en se le llama multiplicidad geom´ etrica de λ0 como valor propio de A. Hay tantos vectores propios linealmente independientes asociados a λ0 como su multiplicidad geom´ etrica. 5. Para hallar tantos vectores propios linealmente independientes asociados a un valor propio λ0 como su multiplicidad geom´etrica(es decir, para hallar una base del subespacio propio), se resuelve el sistema caracter´ıstico de la forma habitual: (i) Se calcula el rango de la matriz del sistema buscando una submatriz cuadrada de m´aximo tama˜ no con determinante distinto de cero. Supongamos rang(λ0 In −A) = r, lo que significa que la dimensi´on del espacio de soluciones es n − r. (ii) Utilizando la submatriz encontrada, se despejan las correspondientes r inc´ognitas en funci´on de las restantes n − r. (iii) Se resuelve el correspondiente sistema compatible determinado r × r obteniendo la soluci´on general del sistema que depender´a de n − r inc´ognitas. (iv) Se dan valores apropiados a las n − r inc´ognitas para obtener n − r vectores linealmente independientes. El siguiente ejemplo puede ilustrar todo el proceso anterior Ejemplo 8.15 .- Hallar los valores propios y una base del correspondiente subespacio propio para la matriz   0 −1 0 4 0 A= 4 −1 −1 2

8.5 Valores y vectores propios de matrices

139

Calculemos su polinomio caracter´ıstico   λ 1 0 0  = (λ2 − 4λ + 4)(λ − 2) = (λ − 2)3 det(λI3 − A) = det −4 λ − 4 1 1 λ−2 As´ı que A s´olo tiene un valor propio λ = 2 de multiplicidad algebraica 3. Vamos calcular tantos valores propios linealmente independientes como sea posible. Planteamos el sistema caracter´ıstico:    2 1 0 v1 (λI3 − A)v = 0 ⇔ (2I3 − A)v = 0 ⇔ −4 −2 0 v2  = 0 1 1 0 v3 Se ve enseguida que s´olo hay una columna que es linealmente independiente en 2I3 − A: la primera o la segunda. Por lo tanto, s´olo podemos encontrar submatrices de tama˜ no 1 × 1 con determinante distinto de cero. (Esto tambi´en se puede ver planteando las 6 submatrices posibles de tama˜ no 2 × 2 y comprobando que sus determinantes son cero). Una de tales submatrices de tama˜ no 1 × 1 distintas de cero es, por ejemplo, la formada por el elemento en la posici´on (1, 1): 2. As´ı rang(2I3 − A) = 1 y la dimensi´on del espacio propio de A asociado a λ = 2 (o la multiplicidad geom´etrica de λ = 2) es 2. Debe haber dos vectores propios asociados a λ = 2 que son linealmente independientes. Calcul´emoslos utilizando la submatriz elegida. Despejamos v1 en funci´on de v2 y v3 en la primera ecuaci´on: 2v1 = −v2 (v3 no aparece en este caso porque est´a afectado por el coeficiente 0). La soluci´on general del sistema caracter´ıstico ser´a   −v2 /2 v =  v2  . v3 Ahora debemos dar valores a v2 y v3 para conseguir dos vectores linealmente independientes. Hay una forma de hacerlo que funciona bien: v2 = 1, v3 = 0 y al rev´es: v2 = 0 , v3 = 1. De hecho lo que hay que hacer es escoger dos vectores de la forma µ ¶ v2 v3 que sean linealmente independientes. La elecci´on hecha corresponde a los vectores µ ¶ µ ¶ 1 0 y . 0 1

140

Sistemas de ecuaciones diferenciales lineales

En conclusi´on, una base del subespacio propio ser´a:     −1/2 0    1 v1 = y v 2 = 0 0 1 En este ejemplo hemos visto que la multiplicidad geom´etrica del valor propio λ = 2 es 2 mientras que la algebraica es 3. Esto no es una casualidad, es verdad siempre que la multiplicidad algebraica es mayor o igual que la multiplicidad geom´ etrica. Esta propiedad que la asumiremos sin demostraci´on resultar´a ser my importante a la hora de hallar las soluciones de los sistemas diferenciales lineales de coeficientes constantes, que es para lo que estamos introduciendo todos estos conceptos. Observaciones 8.16 .- Una consecuencia de la propiedad acerca de la desigualdad de las multiplicidades es que si λ0 es un valor propio de A y su multiplicidad algebraica es 1, entonces, como la multiplicidad geom´etrica no puede ser mayor que la algebraica, y tampoco puede ser cero porque λ es valor propio y por lo tanto el sistema caracter´ıstico correspondiente siempre tiene soluci´on no trivial, debe resultar que la multiplicidad geom´etrica del valor propio tambi´en es 1. As´ı, para valores propios simples (de multiplicidad algebraica 1) los correspondientes subespacios propios siempre son de dimensi´on 1; nunca habr´a dos vectores propios linealmente independientes asociados a dicho valor propio. Observaciones 8.17 .- (a) Con el programa Matrix Calculator de WIMS se pueden calcular r´apidamente valores y vectores propios de matrices con total facilidad. Conviene utilizarlopara comprobar que los resultados que se obtienen a mano son correctos. (b) Los programas Factoris y Solucionador de sistemas lineales facilitan much´ısimo la tarea de calcular valores y vectores propios de matrices. He aqu´ı un ejemplo del modo correcto de proceder ante un problema tipo: Ejemplo 8.18 .- Calcular los valores propios y bases de los subespacios propios para la matriz   7 5 −3 2 0 1 0 0  A=  12 10 −5 4  −4 −4 2 −1 Esta matriz ya ha aparecido anteriormente y hemos dicho que su polinomio caracter´ıstico es p(λ) = λ4 − 2λ3 + 2λ + 1.

8.5 Valores y vectores propios de matrices

141

Veamos c´omo calcularlo con ayuda de WIMS desde el principio. Al entrar en la p´agina principal de WIMS, http://wims.unice.fr/wims/, escogemos la opci´on Online calculators and plotters o su equivalente en franc´es Outils de calcul et de graphisme en ligne. Y en la nueva p´agina, una vez seleccionado el lenguaje castellano, pinchamos en Matrix calculator. Siguiendo las instrucciones que all´ı vienen escribimos la matriz A y seleccionamos characteristic polynomial. Comprobamos que el resto de opciones no est´an marcados y pinchamos en Show obteniendo: characteristic polynomial = X 4 − 2X 3 + 2X − 1 de modo que el polinomio caracter´ıstico es p(λ). A continuaci´on calculamos sus ra´ıces utilizando el programa Factoris. Para ello volvemos al men´ u de calculadores en l´ınea y lo seleccionamos. Introducimos el polinomio en el cuadro correspondiente en la siguiente forma x^4-2*x^3+2*x+1 Pinchamos en Menu Options y seleccionamos C como base para la factorizaci´on de polinomios. A continuaci´on pinchamos en factor para hallar las ra´ıces del polinomio. Obtenemos x4 − 2x3 + 2x − 1 = (x + (1,0 + 0,0i))(x + (−1,0 + 0,0i))(x + (−1,0 + 0,0i))(x + (−1,0 + 0,0i)) Esto significa que las ra´ıces son λ1 = 1 + 0 · i = 1 y λ2 = −1 + 0 · i = −1, la primera 3 veces. Por lo tanto λ1 = 1 tiene multiplicidad algebraica q1 = 3 y λ2 = −1 tiene multiplicidad algebraica q2 = 1. Calculamos vectores propios (tantos como podamos) para el valor propio λ1 = 1. Para ello seleccionamos el calculador Solucionador de sistemas lineales. Y all´ı el m´ etodo matricial. En el cuadro correspondiente a la matriz A escribimos la matriz   −6 −5 3 −2  0 0 0 0  λ1 I4 − A = I4 − A =  −12 −10 6 −4 4 4 −2 2 (Esto se puede automatizar usando el programa Matrix calculator, merece la pena estudiarlo cuando se va a realizar muchas veces). Escribimos en el cuadro correspondiente a la matriz B el vector cero   0 0  , 0 0

142

Sistemas de ecuaciones diferenciales lineales

y pinchamos en resolver el sistema. El programa escribe el sistema de forma expl´ıcita y a continuaci´on pone Este sistema tiene infinitas soluciones, las cuales son (con par´ametros ri ): {x1 = (r2 + r1 )/2, x2 = −r1 , x3 = r2 , x4 = r1 }. Utilizando nuestra notaci´on esto significa que la soluci´on general del sistema (λ1 I4 −A)v = 0 es   (v2 + v1 )/2   −v1  v= (8.18)   v2 v1 As´ı pues, las soluciones dependen de dos par´ametros v1 y v2 . O lo que es lo mismo el subespacio de soluciones del sistema (λ1 I4 − A)v = 0 es de dimensi´on 2. Pod´ıamos haberlo sabido de antemano si, usando Matrix calculator, calculamos el rang(λ1 I4 − A) (rango es rank en ingl´es). Habr´ıamos visto que ´este es 2, por lo que la dimensi´on del subespacio propio es n − rang(λ1 I4 − A) = 4 − 2 = 2. Entonces la multiplicidad geom´etrica de λ1 = 1 es 2 y para conseguir dos vectores linealmente independientes; i.e., una base del subespacio propio, hay que dar valores apropiados a v1 y v2 : debemos escoger dos vectores de la forma µ ¶ v1 v2 que sean linealmente independientes. Por ejemplo µ ¶ µ ¶ 0 2 y 2 0 As´ı, sustituyendo en (8.18), obtendr´ıamos los vectores propios     1 1 −2 0    v1 =   0  y v 2 = 2 2 0 Si hacemos lo mismo con el valor propio λ2 = −1, obtenemos que la dimensi´on del subespcio propio correspondiente es 1 y que la soluci´on general del sistema caracter´ıstico (λ2 I4 − A)v = es   −v1  0   v= −2v1  . v1

8.5 Valores y vectores propios de matrices

143

Tomando v1 = −1 obtenemos un vector propio que genera todo el subespacio propio:   1 0  v3 =   2 . −1 Ahora podemos comprobar si estos resultados coinciden con los que proporciona Matrix calculator directamente. Escribiendo la matriz A original y seleccionando Eigenvalues and eigenvectors, y pinchando en Show obtenemos la siguiente tabla Value Multiplicity Vector −1 1 (1, 0, 2, −1) 1 3 (1, 0, 2, 0), (0, 1, 1, −1) Casi todo coincide: los valores propios coinciden, el vector propio asociado al valor propio λ2 = −1 es el mismo que el obtenido por nosotros. Lo mismo pasa con uno de los vectores propios asociados al valor propio λ1 = 1, pero el otro no. Esto no debe asustarnos. En realidad, los vectores propios que da el programa y los que obtenemos nosotros no tienen por qu´e coincidir: recordemos que nosotros obtenemos la soluci´on general del sistema caracter´ıstico y despu´es elegimos como queremos los par´ametros. Dos personas diferentes pueden dar valores diferentes y ambas obtener respuetas correctas. Lo mismo pasa con el ordenador. Para estar seguros de que nuestro resultado es correcto, basta comprobar que el vector obtenido por nosotros   1 −2  v1 =  0 2 y el dado por el programa Matrix calculator:   0 1   1 −1 son vectores que corresponden a dar valores concretos a los par´ametros de la soluci´on general:   (v2 + v1 )/2   −v1  v=   v2 v1 El nuestro corresponde a la elecci´on: v1 = 2 y v2 = 0. Y el del programa a la elecci´on v1 = −1 y v2 = 1. Por lo tanto ambas respuestas son correctas.

144

Sistemas de ecuaciones diferenciales lineales

Get in touch

Social

© Copyright 2013 - 2024 MYDOKUMENT.COM - All rights reserved.