Solución de las Ecuaciones de Estado

1 Solución de las Ecuaciones de Estado. ÍNDICE 1. Introducción. 2. Existencia y unicidad de la solución. 3. Solución de la ecuación homogénea.

1 downloads 106 Views 268KB Size

Recommend Stories


ECUACIONES DE ESTADO Y CORRELACIONES GENERALIZADAS
ECUACIONES DE ESTADO Y CORRELACIONES GENERALIZADAS CORRELACIONES GENERALIZADAS Factor de Compresibilidad Este factor se establece como una relación

Aplicaciones de las ecuaciones diferenciales
Resistencia. Ley de Newton. Materiales radiactivos. Masa. Gravedad

Aplicaciones de las. Ecuaciones Diferenciales
Aplicaciones de las Ecuaciones Diferenciales Gloria Aguilar Natalia Boal Carmelo Clavero Francisco Gaspar Departamento de Matem´ atica Aplicada Unive

Story Transcript

1

Solución de las Ecuaciones de Estado.

ÍNDICE 1.

Introducción.

2.

Existencia y unicidad de la solución.

3.

Solución de la ecuación homogénea. Matriz de transición.

4.

Propiedades de la matriz de transición.

5.

Solución de la ecuación no homogénea.

6.

5.1.

Solución en el dominio del tiempo.

5.2.

Solución mediante la transformada de Laplace.

Cálculo de la matriz de transición de sistemas invariantes.

2 SOLUCIONES DE LAS ECUACIONES DE ESTADO

1.

Introducción

En capítulos precedentes se ha tratado el problema de la definición y linealización de modelos matemáticos de sistemas dinámicos; los modelos obtenidos presentaban, en general, la forma de sistemas de ecuaciones diferenciales normalizadas. En este capítulo se va a estudiar, fundamentalmente, la resolución de los mencionados sistemas (ecuaciones de estado y de salida), desarrollando algunos de los métodos más frecuentemente utilizados. Antes de entrar decididamente en el problema, interés hacer algunas consideraciones sobre las diversas formas de las ecuaciones de estado y su significado físico-matemático.

La figura 4.1 muestra, en forma resumida, el cuadro de posibilidades existentes. Partiendo del caso general incluido en el bloque número 1, que corresponde a un sistema no lineal de parámetros variables con el tiempo, aparecen como alternativas los dos bloques siguientes, que corresponden a tipos especiales de sistemas. El número 2 se refiere a los sistemas cuyo segundo miembro de las ecuaciones generales de estado no dependen explícitamente del tiempo, pero que lógicamente dependerá de dicha variable a través de los vectores 𝑥(𝑡) y 𝑢(𝑡); se trata de sistemas invariantes con el tiempo, en general no lineales. El número 3 corresponde a aquellos sistemas en los que se ha

3 conseguido que el segundo miembro de las ecuaciones de estado dependa linealmente de 𝑥 y 𝑢 . Se trata de sistemas lineales; en general variables con el tiempo, cuya condición de variabilidad se expresa en sus ecuaciones de estado por el hecho de que las matrices A, B, C y D del sistema incluyen elementos cuyo valor depende del tiempo. Se puede ir a tipos de sistemas de una mayor restricción, como los representados en el último bloque, consiguiendo la linealidad para los sistemas invariantes con el tiempo, o la no variación de los parámetros con el tiempo para los sistemas lineales, correspondientes a los bloques números 2 y 3. En ambos casos se llega a sistemas lineales invariantes con el tiempo. En cuanto a la solución de las ecuaciones generales de estado del sistema, se trata de resolver la primera de ellas, que es la ecuación de estado. Su solución 𝑥(𝑡) viene determinada, en forma unívoca, por el estado inicial 𝑥(𝑡0 ) del sistema y los valores de la señal de entrada 𝑢(𝑡) para 𝑡 ≥ 𝑡0; la solución de la ecuación de salida se obtiene por simple sustitución en la misma de la solución 𝑥(𝑡) obtenida.

Cuando se trata de resolver ecuaciones diferenciales no lineales en general, las posibilidades de llegar a una solución analítica son prácticamente nulas; por lo que habrá de recurrirse a su simulación y resolución en un computador. Prescindiendo de algunas excepciones, existen posibilidades de obtener una solución analítica de tipo general, en los casos de ecuaciones diferenciales correspondientes a sistemas de segundo orden no lineales e invariantes con el tiempo y de sistemas lineales de cualquier orden. En el primero de ambos, puede llegarse a obtener, en determinados casos prácticos relativamente importantes, un conocimiento general de la solución; pero una teoría generalizada para la resolución de las ecuaciones diferenciales, solamente se consigue cuando éstas son lineales. Por tal motivo, éste será el tipo de ecuaciones a tratar; preferentemente en el caso de sistemas invariantes con el tiempo. Las ecuaciones diferenciales de estado que caracterizan el comportamiento de un sistema dinámico lineal son, como es sabido, las expresadas por las relaciones (4.8) y (4.9). El comportamiento dinámico y especialmente la estabilidad del sistema vienen determinados por la matriz A y sus valores propios 𝜆𝑖 . El comportamiento del sistema como dispositivo que realiza la transmisión de una señal 𝑢(𝑡) entre su entrada y su salida 𝑦(𝑡) viene fijado por las dos ecuaciones (4.8) y (4.9); por el contrario, el comportamiento dinámico del mismo es determinado exclusivamente por la ecuación de estado (4.8), con sus condiciones iniciales.

Las condiciones iniciales representan el estado energético de los elementos capaces de almacenar energía, existentes en el sistema, en el instante de tiempo considerado 𝑡 = 𝑡0 . Ahora puede verse la ventaja que supone la utilización de la representación de estado, en comparación con la clásica de la función de transferencia a la respuesta frecuencial, en la que siempre ha de suponerse que el sistema no contiene energía alguna; circunstancia que no puede aceptarse en determinadas aplicaciones. La introducción de las condiciones iniciales del sistema en la teoría clásica de control

4 conduce, como es sabido, a laboriosos y complejos cálculos; a diferencia de la transparencia que ofrece la representación de estado, especialmente cuando se trata de sistemas de orden superior multivariables.

2.

Existencia y unicidad de la solución

El modelo matemático de estado de un sistema dinámico continuo viene expresado, como es sabido, por las dos ecuaciones vectoriales 𝑥̇ (𝑡) = 𝑓[𝑥(𝑡), 𝑢(𝑡), 𝑡]

𝑦(𝑡) = 𝑔[𝑥(𝑡), 𝑢(𝑡), 𝑡]

(4.1) (4.2)

Cuando se introdujeron las variables de estado, el vector de estado se definió como aquel cuyo conocimiento en el instante inicial 𝑡0 es suficiente para conocida la función de entrada 𝑢[𝑡0 ,𝑡] , poder determinar de forma unívoca el estado 𝑥(𝑡) del sistema, para cualquier valor 𝑡 ≥ 𝑡0, y con ello el vector de salida del sistema 𝑦(𝑡). La unicidad de la

solución 𝑥(𝑡) es absolutamente necesaria cuando se trata de sistemas dinámicos reales de tipo técnico o científico aplicado, ya que en ellos (excluyendo los sistemas estocásticos) todos los procesos o fenómenos se realizan de una forma determinada, lo que invalida aquellos modelos matemáticos que admitan solución múltiple. Las condiciones que han de cumplir las ecuaciones para que se dé la existencia y unicidad de la solución, serán fijadas solamente con la generalidad necesaria para tratar sistemas técnico-científicos; evitándose así las complicaciones que tal tarea ocasionaría si se abordase cualquier tipo de sistema en general, como suele ser el caso en las ciencias matemáticas. En primer lugar, se requiere que la componente 𝑓𝑖 de la función vectorial 𝑓,

correspondiente a la ecuación (4.1), sea continua por tramos en función del tiempo; esto es, que en cada intervalo finito de tiempo presente únicamente un número finito de puntos de discontinuidad y que, en cada uno de ellos, exista un valor límite por la izquierda y otro por la derecha que sean finitos, Este tipo de funciones suele conocerse como funciones son discontinuidad de “salto de magnitud finita”. Veamos, con más detalle, el significado de lo expuesto. Las funciones 𝑓𝑖 dependen de 𝑥, 𝑢 y 𝑡 ; si se mantiene fija 𝑥, la función 𝑓𝑖 dependerá solamente de 𝑢(𝑡) y de 𝑡. En estas últimas condiciones, se requiere la propiedad de salto de magnitud finita para las 𝑚 funciones de entrada 𝑢1 , 𝑢2 , … . 𝑢𝑚 .

5

Las discontinuidades pueden provenir de las 𝑚 funciones de entrada 𝑢𝑖 (. ) o también de variaciones bruscas de las propiedades del sistema. Si, por ejemplo, se tiene la relación 𝑓𝑖 �𝑥(𝑡), 𝑢(𝑡), 𝑡� = ℎ𝑖 �𝑥(𝑡), 𝑡� + 𝑏𝑖 (𝑡)𝑢(𝑡)

(4.3)

La función𝑓𝑖 variará en forma de salto si lo hace una de las componentes de 𝑢(𝑡). Este hecho es admisible, pero se requiere que dichas componentes permanezcan finitas y que en los puntos de discontinuidad existan límites finitos por la izquierda y por la derecha; tal como se muestra en la figura 4.2 a). Una función como la representada en la figura 4.2 b) sería inadmisible. Si la función 𝑓𝑖 depende explícitamente del tiempo, pueden existir variaciones en forma de salto en los parámetros del sistema dependientes del tiempo, a condición de que 𝑓𝑖 permanezca finita. Si se tiene, por ejemplo, relación 𝑓𝑖 �𝑥(𝑡), 𝑢(𝑡), 𝑡� = 𝑎𝑖 (𝑡)𝑥(𝑡) + 𝑏𝑖 (𝑡)𝑢(𝑡)

(4.4)

pueden variar en forma de salto las componentes de los vectores fila 𝑎𝑖 (𝑡) y 𝑏𝑖 (𝑡).

Las condiciones admitidas para la función 𝑓𝑖 son verdaderamente interesantes e importantes, ya que en las aplicaciones técnicas aparecen frecuentemente funciones de entrada con saltos de magnitud finita, como las tensiones con formas de onda cuadrada o rectangular, o varían en la misma forma las propiedades del sistema, por ejemplo como consecuencia del accionamiento de relés o interruptores. Finalmente se requiere que la función vectorial 𝑓 cumpla la denominada

condición de Lipschitz, expresada de la siguiente manera:

“Si existe un número real L > 0, tal que ∀ t ∈ T, ∀ u(t) ∈ U y ∀ x(t) ∈ X, para cada uno de los valores x (1) (t) ∈ X y x (2) (t) ∈ X, verifican la desigualdad

6 �𝑓�𝑥 (1) (𝑡), 𝑢(𝑡), 𝑡� − 𝑓[𝑥 (2) (𝑡), 𝑢(𝑡), 𝑡]� ≤ 𝐿�𝑥 (1) (𝑡) − 𝑥 (2) (𝑡)�(4.5)

la función f cumple la condición de Lipschitz respecto de x(t)”.

A 𝐿 se le denomina “constante de Lipschitz”. Definida lo que es una “solución2 de la ecuación diferencial (4.1) en la forma: “Una función vectorial 𝜑, continua en el intervalo de tiempo 𝑇, es solución de la

ecuación diferencial (4.1) si, excepto en los puntos de discontinuidad, se cumple la relación 𝜑̇ (𝑡) = 𝑓[𝜑(𝑡), 𝑢(𝑡), 𝑡]

(4.6)

puede formularse el criterio para la existencia y unicidad de una solución en la forma siguiente: “Si la función 𝑓 de la ecuación diferencial

𝑥̇ (𝑡) = 𝑓[𝑥(𝑡), 𝑢(𝑡), 𝑡]

(4.7)

es continua por tramos, en función del tiempo, en el intervalo 𝑇 = [𝑡𝑎 , 𝑡𝑏 ] y cumple la condición de Lipschitz respecto de 𝑥(𝑡), existe para cada 𝑡0 ∈ 𝑇, cada estado inicial 𝑥0 (𝑡0 ) = 𝑥0 ∈ 𝑋 y cada función de entrada 𝑢[𝑡0 ,𝑡] ∈ 𝑈 una solución 𝜑(𝑡) única, tal que se verifica 𝜑(𝑡0 ) = 𝑥0 ”.

Seguidamente se aplicará el criterio expuesto a los sistemas dinámicos lineales, objetivo preferente de estudio. Las ecuaciones de estado y salida correspondientes a un sistema dinámico lineal son, según se demostró, de la forma 𝑥̇ (𝑡) = 𝐴(𝑡)𝑥(𝑡) + 𝐵(𝑡)𝑢(𝑡)

𝑦(𝑡) = 𝐶(𝑡)𝑥(𝑡) + 𝐷(𝑡)𝑢(𝑡)

(4.8) (4.9)

Se supondrá que los elementos integrantes de las matrices 𝐴(𝑡), 𝐵(𝑡), 𝐶(𝑡), 𝐷(𝑡) y de 𝑢(𝑡) son funciones del tiempo continuas por tramos y acotadas. En tal caso, la ecuación diferencial (4.8) tendrá una solución única, para un estado inicial 𝑥0 y una señal de entrada 𝑢[𝑡0 ,𝑡] , si se cumplen las condiciones fijadas en el criterio dado para la existencia y unicidad de las soluciones, aplicado a la función 𝑓�𝑥(𝑡), 𝑢(𝑡), 𝑡� = 𝐴(𝑡)𝑥(𝑡) + 𝐵(𝑡)𝑢(𝑡)

(4.10)

Bajo el supuesto de continuidad aceptado para 𝐴(𝑡), 𝐵(𝑡) y 𝑢(𝑡), queda asegurado que la ecuación (4.8) es continua por tramos respecto del tiempo 𝑡 . Queda, pues, por comprobar si la menconada ecuación cumple la condición de Lipschitz respecto de 𝑥(𝑡). Para dos vectores de estado cualesquiera x (1) (t) y x (2) (t) se tiene que

7 �𝑓�𝑥 (1) (𝑡), 𝑢(𝑡), 𝑡� − 𝑓�𝑥 (2) (𝑡), 𝑢(𝑡), 𝑡��

= �𝐴(𝑡)𝑥 (1) (𝑡) + 𝐵(𝑡)𝑢(𝑡) − 𝐴(𝑡)𝑥 (2) (𝑡) − 𝐵(𝑡)𝑢(𝑡)� = �𝐴(𝑡)�𝑥 (1) − 𝑥 (2) �� ≤ �𝐴(𝑡)��𝑥 (1) − 𝑥 (2) �

�𝐴(𝑡)��𝑥 (1) − 𝑥 (2) � ≤ 𝐿�𝑥 (1) − 𝑥 (2) �(4.11)

donde las normas del vector y de las matrices deberán ser compatibles, eligiéndose 𝐿 de forma que 𝐿 = 𝑚𝑎𝑥�𝐴(𝑡)�. Con ello queda demostrado que la ecuación (4.8) cumple también la condición de Lipschitz y por tanto tiene solución única.

3.

Solución de la ecuación homogénea. Matriz de transición

La ecuación homogénea, correspondiente a un sistema lineal cuyos parámetros varían con el tiempo es 𝑥̇ (𝑡) = 𝐴(𝑡)𝑥(𝑡)𝑥(𝑡0 ) = 𝑥0

(4.12)

Se puede hallar la solución de esta ecuación valiéndose del método iterativo de integración de Peano Baker, cuya fórmula de iteración es: 𝑡

𝜑𝑘 (𝑡) = 𝑥0 + � 𝑓[ 𝜑𝑘−1 (𝜏), 𝑢(𝜏), 𝜏] 𝑑𝜏 𝑡0

(4.13)

En el presente caso, a la función 𝑓 le corresponde la expresión 𝐴(𝑡)𝜑𝑘−1 (𝑡) con lo que

se irán obteniendo, en forma sucesiva los siguientes valores 𝜑0 (𝑡) = 𝑥0

𝑡

𝑡

𝜑1 (𝑡) = 𝑥0 + � 𝐴(𝜏)𝜑0 (𝜏) 𝑑𝜏 = 𝑥0 + � 𝐴(𝜏) 𝑑𝜏 𝑥0 𝑡0

𝑡0

𝑡

(4.14)

𝜏

𝜑2 (𝑡) = 𝑥0 + � 𝐴(𝜏) �𝑥0 + � 𝐴(𝜏1 ) 𝑑𝜏1 𝑥0 � 𝑑𝜏 𝑡

𝑡0

𝑡

𝑡0

𝜏

= 𝑥0 + � 𝐴(𝜏) 𝑑𝜏 𝑥0 + � 𝐴(𝜏) � 𝐴(𝜏1 ) 𝑑𝜏1 𝑑𝜏 𝑥0 𝑡0

𝑡0

𝑡0

----------------------------------------------------------------------------------------------------------

8 𝜑𝑘 (𝑡)

𝑡

= �𝐼 + � 𝐴(𝜏) 𝑑𝜏 𝑡

𝑡0

𝜏

𝑡

𝜏

+ � 𝐴(𝜏) � 𝐴 ( 𝜏1 � 𝑑𝜏1 𝑑𝜏+. … . . + � 𝐴(𝜏) � 𝐴(𝜏1 ) … � 𝑡0

𝑡0

𝑡0

𝜏𝑘−2

𝑡0

𝑡0

𝐴( 𝜏𝑘−1 )𝑑𝜏𝑘−1 … 𝑑𝜏1 𝑑𝜏� 𝑥0

La expresión entre corchetes de la última ecuación de (4.14) es una matriz que depende de 𝐴(𝑡), del instante inicial 𝑡0 y del tiempo que va transcurriendo. Cuando 𝑘 → ∞ se obtiene una solución para la ecuación diferencial homogénea, que depende de 𝑡, 𝑡0 y 𝑥0

dada por

𝜑�𝑡, 𝑡0 , 𝑥0 � = lim𝑘→∞ 𝜑𝑘 (𝑡)

(4.15)

A la matriz que resulta para la expresión entre corchetes de la última ecuación de (4.14), cuando se va al límite mencionado, se le designa por Φ(𝑡, 𝑡0 ); su valor será 𝑡

𝑡

𝜏

Φ(𝑡, 𝑡0 ) = 𝐼 + � 𝐴(𝜏) 𝑑𝜏 + � 𝐴(𝜏) � 𝐴(𝜏1 ) 𝑑𝜏1 𝑑𝜏 + … 𝑡

𝑡0

𝜏

+ . . . � 𝐴(𝜏) � 𝐴(𝜏1 ) … � 𝑡0

𝜏𝑘−2

𝑡0

𝑡0

𝑡0

𝑡0

𝐴(𝜏𝑘−1 ) 𝑑𝜏𝑘−1 . . . 𝑑𝜏1 𝑑𝜏 + …

(4.16)

De las expresiones (4.14) y (4.15) resulta como solución de la ecuación homogénea (4.12) la siguiente 𝑥(𝑡) = 𝜑(𝑡, 𝑡0 , 𝑥0 ) = Φ(𝑡, 𝑡0 )𝑥0

(4.17)

Si el vector 𝑥(𝑡) tiene 𝑛 componentes, Φ(𝑡, 𝑡0 ) es una matriz cuadrada de dimensión 𝑛 𝑥 𝑛. A esta matriz se le denomina “matriz de transición de estado” o también (entre los matemáticos) “matriz fundamental”. La matriz de transición determina el estado 𝑥(𝑡) al que es llevado el sistema en el instante 𝑡, partiendo de su estado inicial 𝑥0 , cuando la señal de entrada es idénticamente nula. Derivando la ecuación (4.16) con respecto al tiempo 𝑡, resulta 𝑡

𝑡

𝜏

Φ̇(𝑡, 𝑡0 ) = 𝐴(𝑡) + 𝐴(𝑡) � 𝐴(𝜏) 𝑑𝜏 + 𝐴(𝑡) � 𝐴(𝜏) � 𝐴(𝜏1 ) 𝑑𝜏1 𝑑𝜏 + … 𝑡

𝑡0

𝑡

𝑡0 𝜏

𝑡0

= 𝐴(𝑡) �𝐼 + � 𝐴(𝜏) 𝑑𝜏 + � 𝐴(𝜏) � 𝐴(𝜏1 ) 𝑑𝜏1 𝑑𝜏 + … � 𝑡0

= 𝐴(𝑡)Φ(𝑡, 𝑡0 )

Para 𝑡 = 𝑡0 , se obtiene de (4.17)

𝑡0

𝑡0

(4.19)

9 𝑥(𝑡0 ) = 𝑥0 = Φ(𝑡0 , 𝑡0 )𝑥0 → Φ(𝑡0 , 𝑡0 ) = 𝐼

(4.20)

Φ̇(𝑡, 𝑡0 ) = 𝐴(𝑡)Φ(𝑡, 𝑡0 )Φ(𝑡0 , 𝑡0 ) = 𝐼

(4.21)

De las relaciones (4.19) y (4.20) puede obtenerse una ecuación diferencial para la matriz de transición, con sus correspondientes condiciones iniciales; será de la forma

La ecuación hallada puede utilizarse para calcular Φ(𝑡0 , 𝑡) , sobre todo cuando la función de transición no pueda ser calculada de forma analítica, ya que la solución de (4.21) mediante computador no presenta dificultades. En el caso de sistemas invariantes con el tiempo la matriz 𝐴(𝑡) será constante e igual a 𝐴, convirtiéndose la ecuación (4.16) en 1

𝛷(𝑡, 𝑡0 ) = 𝛷(𝑡 − 𝑡0 ) = 𝐼 + (𝑡 − 𝑡0 )𝐴 + 2! (𝑡 − 𝑡0 )2 𝐴2 + … = 𝑒 𝐴(𝑡−𝑡0 )

(4.22)

La matriz 𝑒 𝐴(𝑡−𝑡0 ) queda definida formalmente por el desarrollo en serie de (4.22), válido para toda 𝐴 constante para todo valor de 𝑡. La definición dada parece un poco delicada y realmente lo es. Como solución de la ecuación homogénea para sistemas invariantes con el tiempo resulta de (4.17) 𝑥̇ (𝑡) = 𝛷(𝑡 − 𝑡0 )𝑥(𝑡0 ) = 𝑒 𝐴(𝑡−𝑡0 ) 𝑥(𝑡0 ) 4.

(4.23)

Propiedades de la matriz de transición

Además de las dos propiedades expresadas por las relaciones (4.20) y (4.21), la matriz de transición presenta otras de gran interés y utilidad que serán obtenidas seguidamente. 𝑡

Si las matrices 𝐴(𝑡) y ∫𝑡 𝐴(𝜏) 𝑑𝜏 conmutan, o sea si 𝑡

0

𝑡

𝐴(𝑡) � 𝐴(𝜏) 𝑑𝜏 = � 𝐴(𝜏) 𝑑𝜏 𝐴(𝑡) 𝑡0

𝑡0

(4.24)

resultan para los correspondientes términos de la ecuación (4.16), por integración parcial, las siguientes expresiones 𝑡

𝜏

𝑡

𝜏

� 𝐴(𝜏) � 𝐴(𝜏1 ) 𝑑𝜏1 𝑑𝜏 = � � 𝐴(𝜏1 ) 𝑑𝜏1 𝐴(𝜏)𝑑𝜏 = 𝑡0

𝑡0

𝑡0 𝑡0

1 𝑡 [� 𝐴(𝜏) 𝑑𝜏]2 2! 𝑡0

(4.25)

10 𝑡

𝑡

𝜏1

𝑡 1 𝐴(𝜏)[� 𝐴(𝜏1 ) 𝑑𝜏1 ]2 𝑑𝜏 𝑡0 2! 𝑡0

� 𝐴(𝜏) � 𝐴(𝜏1 ) � 𝐴(𝜏2 ) 𝑑𝜏2 𝑑𝜏1 𝑑𝜏 = � 𝑡0

𝑡0 𝜏

𝑡0

1 1 𝑡 � [𝐴(𝜏1 ) 𝑑𝜏1 ]2 𝐴(𝜏) 𝑑𝜏 = [� 𝐴(𝜏)𝑑𝜏]3 3! 𝑡0 𝑡0 2! 𝑡0

=�

𝑡

𝑡

(4.26)

----------------------------------------------------------------------------------------Si se verifica (4.24), se obtiene como expresión de la matriz de transición 𝑡

1 𝑡 1 𝜏 2 𝛷(𝑡, 𝑡0 ) = 𝐼 + � 𝐴(𝜏)𝑑𝜏 + [� 𝐴(𝜏)𝑑𝜏] + [� 𝐴(𝜏)𝑑𝜏]3 + … 2! 𝑡0 3! 𝑡0 𝑡0

(4.27)

Por similitud con el desarrollo en serie de 𝑒 𝑥 , se puede considerar el segundo miembro de (4.27) como un desarrollo en serie de tipo matricial, con lo que tendrá 1

1

𝛷(𝑡, 𝑡0 ) = 𝐼 + 𝒬 + 2! 𝒬2 + 3! 𝒬3 + … = 𝑒 𝒬

(4.28)

En consecuencia resulta como expresión de (4.27) 𝛷(𝑡, 𝑡0 ) = 𝑒

𝑡 0

∫𝑡 𝐴(𝜏)𝑑𝜏

(4.29)

En el caso de sistemas invariantes con el tiempo 𝐴(𝜏) = 𝐴 = 𝑐𝑡𝑒

𝑡

� 𝐴(𝜏)𝑑𝜏 = 𝐴(𝑡 − 𝑡0 )𝛷(𝑡, 𝑡0 ) = 𝑒 𝐴(𝑡−𝑡0 ) 𝑡0

(4.30)

Expresión que, como es lógico, resulta igual a la obtenida en (4.22); de ésta última se deduce que, la matriz de transición de los sistemas lineales invariantes con el tiempo depende directamente de la diferencia de tiempos 𝑡 − 𝑡0 . Si se hace en (4.22) 𝑡 − 𝑡0 = 𝑡𝑡0 = 0, resulta 𝛷(𝑡, 𝑡0 ) = 𝛷(𝑡, 0)

(4.31)

Basándose en esta relación, se ha generalizado el criterio de designar por 𝛷(𝑡) a la matriz de transición de los sistemas lineales invariantes con el tiempo; su valor será 1

1

𝛷(𝑡) = 𝑒 𝐴𝑡 = 𝐼 + 𝐴𝑡 + 2! 𝐴2 𝑡 2 + 3! 𝐴3 𝑡 3 + …

(4.32)

La condición de conmutabilidad, expresada en (4.24), se cumple en los casos en que 𝐴(𝑡) es una matriz invariante con el tiempo, una matriz diagonal o si 𝐴(𝑡) = 𝑎(𝑡)𝐾, siendo 𝐾 también una matriz invariante. Si no se cumple la conmutabilidad, el cálculo de 𝛷(𝑡, 𝑡0 ) resulta, en general, bastante difícil; pues en tal caso ha de recurrirse al

11 desarrollo dado en (4.16) o a la ecuación diferencial (4.21), lo que requiere laboriosos cálculos de computador. Otra propiedad de la función de transición, conocida como “propiedad de transición” o “de grupo”, se obtiene a partir de la ecuación (4.17), de la que resultan las siguientes relaciones

𝑥(𝑡1 ) = 𝛷(𝑡1 , 𝑡0 )𝑥(𝑡0 )

𝑥(𝑡2 ) = 𝛷(𝑡2 , 𝑡0 )𝑥(𝑡0 )

(4.33)

𝑥(𝑡2 ) = 𝛷(𝑡2 , 𝑡1 )𝑥(𝑡1 ) = 𝛷(𝑡2 , 𝑡1 )𝛷(𝑡1, 𝑡0 )𝑥(𝑡0 )

De las igualdades primera y última resulta

𝛷(𝑡2 , 𝑡0 ) = 𝛷(𝑡2 , 𝑡1 )𝛷(𝑡1 , 𝑡0 )

(4.34)

Haciendo esta ecuación 𝑡2 = 𝑡0 , se obtiene una nueva propiedad denominada “de inversión”. De (4.34) se sigue 𝑡2 = 𝑡0 𝛷(𝑡0 , 𝑡0 ) = 𝐼 = 𝛷(𝑡0 , 𝑡1 )𝛷(𝑡1 , 𝑡0 )

(4.35)

𝛷(𝑡0 , 𝑡1 ) = 𝛷−1 (𝑡1 , 𝑡0 )

(4.36)

y pre multiplicando por 𝛷 −1 (𝑡0 , 𝑡1 ) resulta

Para los sistemas invariantes con el tiempo se tendrá

𝛷(𝑡, 𝑡0 ) = 𝑒 𝐴(𝑡−𝑡0 ) = 𝛷(𝑡 − 𝑡0 )

𝛷(𝑡 + 𝜏) = 𝑒 𝐴(𝑡+𝜏) = 𝑒 𝐴𝑡 𝑒 𝐴𝜏 = 𝛷(𝑡)𝛷(𝜏)

𝛷−1 (𝑡) = [𝑒 𝐴𝑡 ]−1 = 𝑒 −𝐴𝑡 = 𝛷(−𝑡)

(4.37) (4.38)

Para hallar la inversa de la matriz de transición, en el caso de sistemas con parámetros constantes, bastará, pues, con sustituir su argumento por el mismo con signo negativo. Las propiedades obtenidas, se resumen, para mayor comodidad, en la Tabla 4.1. Tabla 4.1 Sistemas variantes con 𝑡

Sistemas invariantes con 𝑡

𝛷(𝑡0 , 𝑡0 ) = 𝐼

𝛷(𝑡0 − 𝑡0 ) = 𝐼

𝛷̇(𝑡, 𝑡0 ) = 𝐴𝑡 𝛷(𝑡, 𝑡0 ) 𝛷(𝑡, 𝑡0 ) = 𝑒

𝑡 0

∫𝑡 𝐴(𝜏)𝑑𝜏

𝛷̇(𝑡 − 𝑡0 ) = 𝐴𝛷(𝑡 − 𝑡0 ) 𝛷(𝑡 − 𝑡0 ) = 𝑒 𝐴(𝑡−𝑡0 )

12 𝛷(𝑡2 , 𝑡0 ) = 𝛷(𝑡2 , 𝑡1 )𝛷(𝑡1 , 𝑡0 )

𝛷(𝑡2 − 𝑡0 ) = 𝛷(𝑡2 − 𝑡1 )𝛷(𝑡1 − 𝑡0 )

𝛷−1 (𝑡1 , 𝑡2 ) = 𝛷(𝑡2 , 𝑡1 )

𝛷−1 (𝑡1 − 𝑡2 ) = 𝛷(𝑡2 − 𝑡1 )

𝛷−1 (𝑡) = 𝛷(−𝑡) 5.

Solución de la ecuación no homogénea La solución completa, 𝑥(𝑡) e 𝑦(𝑡), de las ecuaciones de estado correspondientes

a un sistema lineal; puede obtenerse utilizando diversos procedimientos. De ellos se desarrollarán dos de los más utilizados: uno que actúa en el dominio del tiempo y otro, utilizable solamente para sistemas cuyos parámetros no varían con el tiempo, que resulta por aplicación directa de la transformada de Laplace a las correspondientes ecuaciones de estado. 5.1.

Solución en el dominio del tiempo

La ecuación a resolver es 𝑥̇ (𝑡) = 𝐴(𝑡)𝑥(𝑡) + 𝐵(𝑡)𝑢(𝑡)

(4.39)

Por similitud con la solución de la ecuación homogénea, expresada en (4.17), se ensayará una solución tipo 𝑥(𝑡) = Φ(𝑡, 𝑡0 )𝑧(𝑡)

(4.40)

donde𝑧(𝑡) ha de obtenerse de forma que se cumpla la relación dada en (4.39). Derivando (4.40) con respecto al tiempo 𝑡, resulta

𝑥̇ (𝑡) = Φ̇(𝑡, 𝑡0 )𝑧(𝑡) + Φ(𝑡, 𝑡0 )𝑧̇ (𝑡)

(4.41)

ecuación que sustituida en (4.39), considerando (4.40), da

�Φ̇(𝑡, 𝑡0 ) − 𝐴(𝑡)Φ(𝑡, 𝑡0 )�𝑧(𝑡) + Φ(𝑡, 𝑡0 )𝑧̇ (𝑡) = 𝐵(𝑡)𝑢(𝑡)

(4.42)

Pero teniendo en cuenta la relación (4.21), la expresión entre corchetes de (4.42) resulta nula; con ello queda Φ(𝑡, 𝑡0 )𝑧̇ (𝑡) = 𝐵(𝑡)𝑢(𝑡)

(4.43)

𝑧̇ (𝑡) = 𝛷(𝑡0 , 𝑡)𝐵(𝑡)𝑢(𝑡)

(4.44)

Pre multiplicando por 𝛷−1 (𝑡, 𝑡0 ) = 𝛷(𝑡0 , 𝑡) resulta e integrando

13 𝑡

𝑧(𝑡) = 𝑧(𝑡0 ) + � 𝛷(𝑡0 , 𝜏) 𝐵(𝜏)𝑢(𝜏)𝑑𝜏 𝑡0

(4.45)

De (4.40) se obtiene 𝑧(𝑡0 ) = 𝑥(𝑡0 ), expresión que sustituida en (4.45) y ésta en (4.40) dan la solución 𝑡

𝑥(𝑡) = Φ(𝑡, 𝑡0 )[𝑥(𝑡0 ) + � 𝛷(𝑡0 , 𝜏) 𝐵(𝜏)𝑢(𝜏)𝑑𝜏] 𝑡0

(4.46)

Teniendo en cuenta que Φ(𝑡, 𝑡0 )𝛷(𝑡0 , 𝜏) = 𝛷(𝑡, 𝜏), se obtiene como solución definitiva 𝑡

𝑥(𝑡) = Φ(𝑡, 𝑡0 )𝑥(𝑡0 ) + � 𝛷(𝑡, 𝜏) 𝐵(𝜏)𝑢(𝜏)𝑑𝜏 𝑡0

(4.47)

En esta expresión puede observarse cómo el estado de un sistema, en un instante 𝑡 a partir de 𝑡0 , depende del estado inicial 𝑥(𝑡0 ) y de la variación de la señal de entrada 𝑢[𝑡,𝑡0 ] en el intervalo de tiempo [𝑡0 , 𝑡]. Igualmente, puede comprobarse que el estado del sistema se compone de dos partes: 𝜑�𝑡; 𝑡0 , 𝑥0 , 0� = Φ(𝑡, 𝑡0 )𝑥0

(4.48)

𝑡

𝜑�𝑡; 𝑡0 , 0, 𝑢[𝑡0 ,𝑡] � = � 𝛷(𝑡, 𝜏) 𝐵(𝜏)𝑢(𝜏)𝑑𝜏 𝑡0

(4.49)

La expresión (4.48) describe el comportamiento del sistema en ausencia de excitación (respuesta libre); la expresión (4.49) cuando, encontrándose en reposo (o sea cuando 𝑥0 = 0 ), es sometido a una excitación 𝑢[𝑡0 ,𝑡] (respuesta forzada). Sustituyendo la solución (4.47) de la ecuación de estado en la de salida del sistema

se obtiene

𝑦(𝑡) = 𝐶(𝑡)𝑥(𝑡) + 𝐷(𝑡)𝑢(𝑡)

(4.50)

𝑡

𝑦(𝑡) = 𝐶(𝑡) �Φ(𝑡, 𝑡0 )𝑥(𝑡0 ) + � 𝛷(𝑡, 𝜏) 𝐵(𝜏)𝑢(𝜏)𝑑𝜏� + 𝐷(𝑡)𝑢(𝑡) 𝑡0

(4.51)

En el caso, más frecuente, de que el sistema sea de parámetros invariantes con el tiempo, aplicando la relación (4.30), se obtiene como solución de la ecuación de estado, a partir de (4.47)

14 𝑡

𝑥(𝑡) = Φ(𝑡, 𝑡0 )𝑥(𝑡0 ) + � 𝛷(𝑡 − 𝜏) 𝐵𝑢(𝜏)𝑑𝜏 𝑡0

(4.52)

Como puede comprobarse, en esta expresión el segundo término, debido a la señal de entrada 𝑢(𝑡), es una integral de convolución. Veamos la aplicación de lo expuesto a un ejemplo concreto. Sea el sistema, de parámetros invariantes con el tiempo, definido por 𝑥̇ (𝑡) = �

𝑦(𝑡) = [1 0]𝑥(𝑡)

𝑥 0 1 0 � 𝑥(𝑡) + � � 𝑢(𝑡)𝑥(𝑡0 ) = 𝑥0 = � 10 � 0 0 −𝑎 1

(4.53) (4.54)

Para poder aplicar (4.52), deberá calcularse previamente la matriz de transición. En este caso se empleará el desarrollo en serie de Φ(𝑡), dado en (4.32); o sea 1

1

Φ(𝑡) = 𝑒 𝐴𝑡 = 𝐼 + 𝐴𝑡 + 2! 𝐴2 𝑡 2 + 3! 𝐴3 𝑡 3 + …

Los valores de las potencias de 𝐴 serán

0 12 0 −𝑎 𝐴2 = � � =� � = −𝑎𝐴 ; 𝐴3 = 𝑎2 𝐴 ; 0 −𝑎 0 𝑎2

(4.55)

𝐴4 = −𝑎3 𝐴; ….

𝑡2 𝑡3 2 Φ = 𝐼 + 𝐴𝑡 − 𝐴𝑎 + 𝐴𝑎 + … 2! 3! 1 (𝑎𝑡)2 (𝑎𝑡)3 = �𝑎𝐼 + 𝐴 − 𝐴 + 𝐴𝑎𝑡 − 𝐴 + …� 𝑎 2! 3! 1 (𝑎𝑡)2 (𝑎𝑡)3 = �𝑎𝐼 + 𝐴 − 𝐴 �1 − 𝑎𝑡 + − + … �� 𝑎 2! 3! 1 = �𝑎𝐼 + 𝐴 − 𝐴𝑒 −𝑎𝑡 � 𝑎

y sustituyendo el valor de 𝐴 1 𝑎 Φ(𝑡) = 𝑎 �� 0

0 0 1 0 �+� �−� 𝑎 0 −𝑎 0

1 1 −𝑎𝑡 � 𝑒 � = 𝑎 �𝑎 −𝑎 0

1 − 𝑒 −𝑎𝑡 � 𝑎𝑒 −𝑎𝑡

(4.56)

Suponiendo que la señal de entrada sea única e igual al escalón unitario, 𝑢(𝑡) = 𝑢(𝑡) = 1(𝑡); sustituyendo Φ(𝑡) en (4.52) desarrollada, resulta 1 𝑡 𝑥1 (𝑡) = 𝑎𝑥10 + � (1 − 𝑒 −𝑎𝜏 )1(𝜏)𝑑𝜏 𝑎 0

15

𝑥2 (𝑡) =

o sea

1 𝑡 −𝑎𝜏 � 𝑎𝑒 1(𝜏)𝑑𝜏 𝑎 0

1 𝑒 −𝑎 𝑡 1 𝑒 −𝑎𝑡 1 � = 𝑎𝑥10 + �𝑡 + − � 𝑥1 (𝑡) = 𝑎𝑥10 + �𝜏 + 𝑎 𝑎 𝑎 𝑎 0 𝑎 1

1

𝑥2 (𝑡) = 𝑎 [−𝑒 −𝑎𝑡 ]𝑡0 = 𝑎 (1 − 𝑒 −𝑎𝑡 )

(4.57)

La señal obtenida a la salida del sistema será 1

𝑦(𝑡) = 𝑥1 (𝑡) = 𝑎𝑥10 + 𝑎 �𝑡 +

𝑒 −𝑎𝑡 𝑎

1

− 𝑎�

(4.58)

En la figura 4.3 se ha representado esta ecuación que corresponde a la respuesta al escalón unitario de un sistema con función de transferencia𝐺(𝑠) = 𝐾 ⁄[𝑠(1 + 𝑇𝑠)]; pero considerando las condiciones iniciales, que en este método quedan introducidas con gran facilidad.

5.2.

Solución mediante la transformada de Laplace

Otro método para resolver las ecuaciones de estado de los sistemas lineales invariantes con el tiempo, es el basado en la utilización de la transformada de Laplace, que, en comparación con el método anterior, da lugar a una notable simplificación de cálculo.

16 Tomando transformadas de Laplace en las ecuaciones correspondientes a un sistema invariante con el tiempo se tiene

de

𝑠𝑋(𝑠) − 𝑥0 = 𝐴𝑋(𝑠) + 𝐵𝑈(𝑠)𝑥0 = 𝑥(𝑡)�𝑡=𝑡

0

𝑌(𝑠) = 𝐶𝑋(𝑠) + 𝐷𝑈(𝑠)

Ordenando (4.59) resulta

estado

(4.59) (4.60)

�𝑠𝐼 − 𝐴�𝑋(𝑠) = 𝑥0 + 𝐵𝑈(𝑠)

Y si la matriz �𝑠𝐼 − 𝐴� es no singular

−1

−1

𝑋(𝑠) = �𝑠𝐼 − 𝐴� 𝑥0 + �𝑠𝐼 − 𝐴� 𝐵𝑈(𝑠)

(4.61)

Tomando la transformada inversa de Laplace se tiene finalmente −1

−1

ℒ −1 �𝑋(𝑠)� = 𝑥(𝑡) = ℒ −1 [�𝑠𝐼 − 𝐴� 𝑥0 ] + ℒ −1 [�𝑠𝐼 − 𝐴� 𝐵𝑢(𝑠)]

(4.62)

Si se compara la ecuación (4.62) con la (4.52) se llega a la importante conclusión de que −1

Φ(𝑡 − 𝑡0 ) = ℒ −1 [�𝑠𝐼 − 𝐴� ]

y además ℒ

−1

−1

(4.63)

𝑡

[�𝑠𝐼 − 𝐴� 𝐵𝑢(𝑠)] = � Φ(𝑡 − 𝜏) 𝐵𝑢(𝜏)𝑑𝜏 𝑡0

(4.64)

La ecuación (4.63) proporciona un nuevo método para calcular la matriz de transición, válido únicamente para los sistemas lineales invariantes con el tiempo. La ecuación (4.64), no es más que la expresión del cálculo del producto convolucionado de dos funciones, Φ(𝑡) ∗ 𝐵𝑢(𝑡), mediante la integral de convolución. Sustituyendo 𝑋(𝑠), tomado de (4.61), en (4.60) resulta −1

−1

𝑌(𝑠) = 𝐶�𝑠𝐼 − 𝐴� 𝑥0 + [𝐶�𝑠𝐼 − 𝐴� 𝐵 + 𝐷 ]𝑈(𝑠)

(4.65)

La expresión (4.65) muestra, una vez más, el hecho conocido de que la respuesta del sistema, para 𝑡 ≥ 𝑡0 , queda determinada por un vector de estado inicial y la señal de entrada definida para 𝑡 ≥ 𝑡0 .

Veamos, seguidamente, una aplicación del método deducido. Sea un sistema con una salida, cuyo comportamiento dinámico esté determinado por las ecuaciones de estado −1 0 1 0 𝑥̇ (𝑡) = � 0 −3 1� 𝑥(𝑡) + �0� 𝑢(𝑡) 0 0 −4 1

(4.66)

17 1

𝑦(𝑡) = �2 1

0� 𝑥(𝑡)

El valor de su matriz característica será

(4.67)

(𝑠 + 1) 0 −1 (𝑠 + 3) −1 � det�𝑠𝐼 − 𝐴� = (𝑠 + 1)(𝑠 + 3)(𝑠 + 4) (4.68) �𝑠𝐼 − 𝐴� = � 0 0 0 (𝑠 + 4)

Y su matriz inversa �𝑠𝐼 − 𝐴�

−1

(𝑠 + 3)(𝑠 + 4) (𝑠 + 3) 0 (𝑠 + 1)(𝑠 + 4) (𝑠 + 1) = � 0 � det�𝑠𝐼 − 𝐴� (𝑠 + 1)(𝑠 + 3) 0 0 −1 −1 −1 (𝑠 + 1) (𝑠 + 4) (𝑠 + 1) 0 −1 (𝑠 + 3) (𝑠 + 3)−1 (𝑠 + 4)−1 � =� 0 (𝑠 + 4)−1 0 0 1

Utilizando la transformada inversa de Laplace 𝑒 −𝑡 Φ(𝑡) = � 0 0

𝑒

0

−3𝑡

0

𝑒

𝑒 −𝑡 −𝑒 −4𝑡

−3𝑡

3

− 𝑒 −4𝑡

𝑒 −4𝑡



(4.70)

En el caso, por ejemplo, de que sea 𝑥0 = 0 y 𝑢(𝑡) =l(𝑡)𝑡 (excitación de tipo rampa unitaria), la respuesta del sistema se obtendrá sustituyendo valores en la ecuación (4.61); de donde resulta

𝑋(𝑠) = �𝑠𝐼 − 𝐴�

−1

0 �0� 𝑠 −2 1

1 ⎡ 2 ⎤ ⎢𝑠 (𝑠 + 1)(𝑠 + 4)⎥ 1 ⎢ ⎥ =⎢ 2 𝑠 (𝑠 + 3)(𝑠 + 4)⎥ ⎢ ⎥ 1 ⎢ ⎥ ⎣ ⎦ 𝑠 2 (𝑠 + 4)

(4.71)

Cuya transformada inversa es 𝑒 −𝑡 𝑒 −4𝑡 𝑡 5 ⎡ ⎤ − + − 4 16 ⎥ 48 ⎢ 3 ⎢𝑒 −3𝑡 𝑒 −4𝑡 𝑡 7 ⎥ 𝑥(𝑡) = ⎢ − + − ⎥ 12 144⎥ ⎢ 9 −4𝑡16 𝑒 𝑡 1 ⎢ ⎥ + − ⎣ ⎦ 16 4 16

(4.72)

18 Finalmente, como señal de salida se tendrá 𝑦(𝑡) = [1⁄2

6.

1

7 5 59 𝑒 −𝑡 𝑒 −3𝑡 0]𝑥(𝑡) = + − 𝑒 −4𝑡 + 𝑡− 96 24 288 6 9

(4.73)

Cálculo de la matriz de transición de sistemas invariantes

En este apartado se mostrarán algunos de los diversos métodos que existen para determinar la matriz de transición de un sistema dinámico lineal e invariante con el tiempo; definida, como es sabido, por Φ(𝑡 − 𝑡0 ) = 𝑒 𝐴(𝑡−𝑡0 )

o para 𝑡0 = 0

(4.74)

Φ(𝑡) = 𝑒 𝐴𝑡

(4.75)

Método de las ecuaciones Este método se basa en la propiedad de la matriz de transición según la cual Φ̇(𝑡 − 𝑡0 ) = 𝐴Φ(𝑡 − 𝑡0 )

(4.76)

A partir de esta expresión, pueden establecerse un grupo de ecuaciones diferenciales escalares de primer orden, cuyas variables dependientes son los elementos de la matriz de transición. Las condiciones iniciales de estos elementos se determinan a partir de Φ(0) = I. Sea, por ejemplo, un sistema de segundo orden caracterizado por la matriz A=�

a11

a21

a12

a22



La ecuación (4.76), desarrollada, se transforma en Φ̇ = �

Φ̇11

Φ̇21

=�

Φ̇12

Φ̇22

�=�

a11

a21

a11 Φ11 + a12 Φ21

a21 Φ11 + a22 Φ21

a12

��

Φ11

a22 Φ21

Φ12

Φ22

a11 Φ12 + a12 Φ22

a21 Φ12 + a22 Φ22





(4.77)

Igualando los elementos correspondientes de ambas matrices, se obtiene el sistema de ecuaciones siguiente

19 Φ̇11 = a11 Φ11 + a12 Φ21

Φ̇12 = a11 Φ12 + a12 Φ22

Φ̇21 = a21 Φ11 + a22 Φ21

(4.78)

Φ̇22 = a21 Φ12 + a22 Φ22

con las condiciones iniciales obtenidas de Φ(0) = I Φ11 (0) = 1Φ12 (0) = 0

Φ21 (0) = 0

Φ22 (0) = 1

(4.79)

Resolviendo el sistema de ecuaciones (4.78), teniendo en cuenta (4.79), quedarán perfectamente determinados cada uno de los cuatro elementos de la matriz de transición. Por ejemplo, utilizando la transformada de Laplace para la resolución del sistema se tendría s Φ11 (s) − Φ11 (0) = a11 Φ11 + a12 Φ21

s Φ12 (s) − Φ12 (0) = a11 Φ12 + a12 Φ22

s Φ21 (s) − Φ21 (0) = a21 Φ11 + a22 Φ21

(4.80)

s Φ22 (s) − Φ22 (0) = a21 Φ12 + a22 Φ22

sistema que resuelto dará Φ11 (s), Φ12 (s), Φ21 (s) y Φ22 (s). Hallando la transformada inversa de Lapalace de estas funciones se obtienen los elementos Φ11 (t), Φ12 (t),Φ21 (t) y Φ22 (t), componentes de la matriz de transición. El método expuesto resulta bastante eficaz, si se utilizan los programas adecuados para la resolución de sistemas de ecuaciones mediante computador.

Método del desarrollo en serie Se puede obtener, también, la matriz de transición a partir del desarrollo en serie obtenido en (4.32). El cálculo de las potencias de A puede efectuarse mediante computador utilizando la fórmula recurrente 𝑒 𝐴𝑡



𝐴𝑡 𝐴 𝑡 𝐴 𝑡 𝐴 𝑡 (𝐴 𝑡)2 𝐴 𝑡 (𝐴 𝑡)i−1 = I+ I+ + + ….= I + � 1 2 1! 3 2! i (i − 1)! i=1

(4.81)

−1

(4.82)

Método basado en la transformada de Laplace De acuerdo con la expresión hallada en (4.63) Φ(𝑡 − 𝑡0 ) = ℒ −1 [�𝑠𝐼 − 𝐴� ]

20 puede obtenerse la matriz de transición por transformación inversa de la matriz resolvente. La parte más laboriosa de este método es el cálculo de la matriz resolvente; para sistemas de orden superior, puede utilizarse el conocido algoritmo de Leverrier.

Método de Cayley-Hamilton Uno de los teoremas más importantes para definir cualquier función matricial es el teorema de Cayley-Hamilton, que dice: “toda matriz cuadrada satisface su propia ecuación característica”. Expresado matemáticamente, si A es una matriz cuadrada de dimensión 𝑛 𝑥 𝑛 y 𝑃(𝜆) su polinomio característico se tiene 𝑃(𝜆) = 𝜆𝑛 + 𝑎𝑛−1 𝜆𝑛−1 + … . 𝑎1 𝜆 + 𝑎0

y

P�A� = An + 𝑎𝑛−1 A𝑛−1 + … . +𝑎1 A + 𝑎0 I = 0

(4.83)

(4.84)

ecuación que ya se apuntó en (3.93). Una de las primeras aplicaciones de este teorema es la reducción del orden de un determinado polinomio de matrices. Así, es posible reducir el polinomio N�A� = Ak + vk−1 Ak−1 + … . v1 A + v0 Ik > 𝑛

(4.85)

a una combinación lineal de A𝑛−1 , A𝑛−2 , … . A, I de la forma

(4.86)

en el que los coeficientes h𝑖 son constantes escalares. En efecto, dividiendo

(4.87)

N�A� = h𝑛−1 A𝑛−1 + h𝑛−2 A𝑛−2 + … . h1 A + h0 I

por𝑃(𝜆) se obtiene

N(λ) = 𝜆𝑘 + 𝑣𝑘−1 𝜆𝑘−1 + … . +𝑣1 𝜆 + 𝑣0

N(λ) R(λ) = Q(λ) + ; P(λ) P(λ)

N(λ) = Q(λ)P(λ) + R(λ)

(4.88)

lo que corresponde a la relación matricial N�A� = Q�A�P�A� + R�A� = R�A�

(4.89)

ya que según el teorema P�A� = 0. Finalmente, por ser R(λ) el resto de la división de N(λ) por un polinomio P(λ) de grado n, R(λ) será de grado (n-1); es decir, R�A� será de la forma (4.86). El cálculo de los coeficientes h𝑖 se puede hacer particularizando (4.88) para los valores propios de A, obteniéndose las ecuaciones N(λi ) = Q(λi )P(λi ) + R(λi ) = R(λi )

(4.90)

21 con lo que, si A tiene n valores propios distintos, de (4.90) se obtienen n ecuaciones con n incógnitas. Si A tiene un valor propio λi , de multiplicidad m1 , entonces P(λ) = (λ − λ1 )m1 P1 (𝜆)

N(λ) = Q(λ)(λ − λ1 )m1 P1 (𝜆) + R(λ)

(4.91)

Derivando respecto a 𝜆, se obtiene

dN(λ) dλ dQ(λ) d P1 (𝜆) = P(λ) + Q(λ) �m1 (λ − λ1 )m1 −1 P1 (𝜆) + (λ − λ1 )m1 � dλ dλ dR(λ) + dλ

(4.92)

expresión que, particularizada para 𝜆 = 𝜆1, da la ecuación dR(λ) dN(λ) � = � dλ 𝜆=𝜆 dλ 𝜆=𝜆 1

1

(4.93)

Derivando sucesivamente (4.92), se obtendrá la misma relación (4.93) para las (m1 -1) primeras derivadas. Estas (m1 -1) ecuaciones, junto con la original (4.90), constituyen el conjunto de las m1 ecuaciones correspondientes al valor propio 𝜆1 de multiplicidad m1 .

Dado que a la función polinómicaN�A� no se le ha impuesto ninguna restricción, la propiedad de reducción a un polinomio de grado (n-1), será aplicable a cualquier función matricial F(A) desarrollable en serie de Taylor.

El método de Cayley-Hamilton para calcular la matriz de transición de un sistema, consiste en aplicar la relación (4.89) con N�A� = Φ = 𝑒 𝐴𝑡

(4.94)

obligando a que se cumplan las ecuaciones (4.90) o (4.93). Veamos un caso concreto. Sea la matriz A −2 A=� 0

de cuyo polinomio característico resulta λ+2 �λI − A� = � 0

−4

4

� −1

� = (λ + 2)(λ + 1) = 0 λ+1

(4.95)

λ1 = −1

λ2 = −2

(4.96)

22 Como A es de dimensión 2x2, se tendrá que

R�A� = h0 I + h1 A

y obligando a que se cumpla (4.90)

F(λ1 ) = eλ1 t = R(λ1 ) = h0 + h1 λ1 e−t = h0 − h1

F(λ2 ) = eλ2 t = R(λ2 ) = h0 + h1 λ2 e−2t = h0 − 2h1

(4.97)

Resolviendo el sistema (4.97) resulta

h1 = e−t − e−2t h0 = 2 e−t − e−2t

y con ello, puesto que F�A� = R�A�, se tendrá

Φ = 𝑒 𝐴𝑡 = (2 e−t − e−2t )I + (e−t − e−2t ) �

Operando se obtiene, finalmente Φ=�

e−2t 0

4(e−t − e−2t ) e

−t

−2 0

4

� −1



(4.98)

(4.99)

Veamos otro ejemplo con valores propios múltiples. Sea la matriz −1 A=� −2

se tendrá

y además

λ+1 �λ I − A� = � 2

Según la condición (4.93)

2

� −5

λ1 = −3 � = (λ + 1)(λ + 5) + 4 = 0 λ2 = −3 λ+5 −2

(4.101)

R�A� = h0 I + h1 A

F(λ1 ) = eλ1 t = R(λ1 ) = h0 + h1 λ1 e−3t = h0 − 3h1

F (1) (λ1 ) = t eλ1 t = h1

con lo que resulta

(4.100)

t e−3t = h1

h1 = t e−3t h0 = e−3t + 3t e−3t = (1 + 3t)e−3t

(4.102)

23 por tanto Φ = (1 + 3t)e−3t I + t e−3t � Finalmente, operando se obtiene Φ=�

(1 + 2t)e−3t −2te

−1 −2

2te−3t

−3t

(1 + 8t)e

2

� −5

(4.103)



(4.104)

−3t

Método de Jordan En el caso de que los valores propios de la matriz A del sistema sean distintos, la forma canónica de Jordan es especialmente adecuada, como ya se ha indicado anteriormente, para resolver la ecuación de estado, y por tanto para el cálculo de la matriz de transición. Dada la ecuación homogénea ẋ (t) = Ax(t)

(4.105)

x = Tx�

(4.106)

si los valores propios de A son distintos y T es la matriz formada por los vectores propios de A, haciendo la transformación se obtiene que

λ1 ⎡ ⎢ 0 ⎢ 𝑥�̇ = T −1 ATx� = Λx� = ⎢ ⎢… ⎢ ⎣0

0

λ2 … 0

……

0

……

⎤ ⎥ 0 ⎥ ⎥ x� …⎥ ⎥ λn ⎦

……

0

…… ……

(4.107)

La matriz de transición del sistema así expresado se obtiene de forma inmediata

� (t) = 𝑒 Λt Φ es decir

eλ 1 t ⎡ ⎢ ⎢ 0 =⎢ ⎢ ⋮ ⎢ ⎣ 0

0

eλ 2 t ⋮

0

…… ……

⎤ ⎥ 0 ⎥ ⎥ ⎥ ⎥ λn t ⎦ e

(4.108)

24 eλ1 (t−t0)

⎡ ⎢ ⎢ x� (t) = ⎢ ⎢ ⎢ ⎣

0

……

0

eλ2 (t−t0 )

……

0

Haciendo ahora el cambio inverso

0

……

resulta

x� = T −1 x ⎡ ⎢ ⎢ x(t) = T ⎢ ⎢ ⎢ ⎣





eλ1 (t−t0)

0

0

eλ2 (t−t0 )

0

0



……

⎤ ⎥ 0 ⎥ ⎥ x� (t 0 ) … ⎥ ⎥ λn (t−t0 ) ⎦ e

(4.109)

(4.110)

…… ……



0

……

……

0

⎤ ⎥ 0 ⎥ −1 ⎥ T x(t 0 ) … ⎥ ⎥ λn (t−t0 ) ⎦ e

(4.111)

Por tanto la matriz de transición del sistema (4.105) vendrá dada por eλ 1 t ⎡ ⎢ ⎢ 0 Φ(t) = T ⎢ ⎢ ⋮ ⎢ ⎣ 0

0

……

eλ 2 t

……



0

……

0

⎤ ⎥ 0 ⎥ −1 ⎥T ⎥ ⎥ λn t ⎦ e

(4.112)

Por ejemplo dada la matriz A de (4.95) A=�

−2 0

4

� −1

de valores propios λ1 = −1, λ2 = −2, se obtiene como matriz de transformación

y aplicando (4.112)

4 T=� 1

1 0 −1 �T = � 0 1

1

� −4

(4.113)

25

Φ(t) = �

4

1

1 e−t �� 0 0

como ya se obtuvo en (4.99).

0 �� e−2t 1 0

1

e−2t

�=� −4 0

4e−t − 4e−2t e

−t



(4.114)

Get in touch

Social

© Copyright 2013 - 2024 MYDOKUMENT.COM - All rights reserved.