2.4 ECUACIONES DE EIGENVALORES (2.4_AL_T_062, Revisión: )

2.4 ECUACIONES DE EIGENVALORES (2.4_AL_T_062, Revisión: 15-10-06) Consideremos la multiplicación de una matriz por un vector, i.e.: ⎛ y ⎞ ⎛ 2 1 ⎞ ⎛

20 downloads 102 Views 273KB Size

Recommend Stories


Ecuaciones y sistemas ecuaciones
Ecuaciones y sistemas de ecuaciones trigonométricas Juan José Isach Mayo 7/01/2007 Contents I Ecuaciones y sistemas ecuaciones trigonométricas 1 1

Story Transcript

2.4 ECUACIONES DE EIGENVALORES (2.4_AL_T_062, Revisión: 15-10-06)

Consideremos la multiplicación de una matriz por un vector, i.e.:

⎛ y ⎞ ⎛ 2 1 ⎞ ⎛ x1 ⎞ y = Ax ; en 2D esto es ⎜ 1 ⎟ = ⎜ ⎟⎜ ⎟ ⎝ y2 ⎠ ⎝ 1 2 ⎠ ⎝ x2 ⎠ A transforma x→y , esto es, un punto en 2D a otro punto en 2D ( equivalentemente, podemos verlo como un mapeo de R2 en R2).

A

x

y

⎛1 ⎞ ⎛ 2⎞ Ejemplo 1. Si x = ⎜ ⎟ , y = ⎜ ⎟ ⎝0⎠ ⎝1 ⎠

A

(2,1) (1,0)

Si en vez de puntos consideramos radio-vectores podemos representar la transformación como:

A

De acuerdo a las operaciones básicas entre vectores, podemos ver que el vector x gira y se alarga: el giro está dado por tan-1(½), mientras que la magnitud es ahora y = 3 x . Podemos decir entonces que una matriz de nxn toma un radio-vector en Rn y lo transforma en otro vector de Rn que está girado y alargado. Consideremos ahora el caso: 101

⎛ 1⎞ ⎛ 3⎞ x = ⎜ ⎟ → y = Ax = ⎜ ⎟ ⎝ 1⎠ ⎝ 3⎠

Nótese que el vector no gira, sólo se hace 3 veces más largo. El problema de eigenvalores y eigenvectores (valores propios y vectores propios) consiste en encontrar los vectores que no giran bajo una transformación (i.e., multiplicación por una matriz). El eigenvalor nos da el cambio de longitud (nótese que si el eigenvalor es negativo se puede pensar en un giro de π radianes o en una inversión).

∴ y = Ax = λ x, x ≠ 0 (0 → 0 , pues A0 = 0) Buscamos entonces x tal que Ax = λ x = λ Ix , o equivalentemente: ( A − λ I ) x = 0 Para resolver esto, notamos que si

( A − λI )

−1

(*)

existe ⇒ x = ( A − λ I ) 0 = 0 , i.e.,

obtenemos la solución trivial al problema. Por lo tanto, para que

−1

( A − λI )

−1

no exista

⇒ A − λI = 0 .

Ejemplo 2.

⎛2 1⎞ A=⎜ ⎟, ⎝1 2⎠

A − λ1 =

2−λ 1

1 =0 2−λ

Del determinante obtenemos el polinomio característico:

(2 − λ )

2

− 1 = 4 − 4λ + λ 2 − 1 = λ 2 − 4λ + 3 = ( λ − 3)( λ − 1) = 0

⇒ λ = 3,1 son los eigenvalores (o valores propios). Para encontrar el eigenvector asociado a λ utilizamos (*) 1 ⎞ ⎛ x1 ⎞ ⎛ 0 ⎞ ⎛ −1 1 ⎞ ⎛ x1 ⎞ ⎛ 0 ⎞ ⎛2−3 Para λ = 3 : ⎜ ⎟ ⎜ ⎟=⎜ ⎟⇒⎜ ⎟⎜ ⎟ = ⎜ ⎟ 2 − 3 ⎠ ⎝ x2 ⎠ ⎝ 0 ⎠ ⎝ 1 −1⎠ ⎝ x2 ⎠ ⎝ 0 ⎠ ⎝ 1 ⎛α ⎞ ⇒ x1 = x2 ⇒ x = ⎜ ⎟ , i.e., cualquier escalar α satisface esta condición. ⎝α ⎠ Es conveniente construir eigenvectores cuya longitud sea 1, i.e., normalizar los eigenvectores: ⎛ ⎜ 1 , ∴ para λ = 3, e1 = ⎜ x = α 2 + α 2 = 2α = 1 ⇒ α = ⎜ 2 ⎜ ⎝

102

1 ⎞ 2 ⎟⎟ 1 ⎟ ⎟ 2⎠

⎛ 2 − 1 1 ⎞ ⎛ x1 ⎞ ⎛1 1⎞ ⎛ x1 ⎞ ⎛ 0 ⎞ Similarmente, para λ = 1: ⎜ ⎟⎜ ⎟ = ⎜ ⎟ ⎜ ⎟ = ⎜ ⎟ ⇒ x1 = − x2 2 − 1⎠ ⎝ x2 ⎠ ⎝1 1⎠ ⎝ x2 ⎠ ⎝ 0 ⎠ ⎝ 1 ⎛ ⎜ eigenvector e 2 = ⎜ ⎜ ⎜ ⎝

−1 ⎞ 2 ⎟⎟ 1 ⎟ ⎟ 2⎠

⎛ ⎜ (Nótese que ⎜ ⎜ ⎜ ⎝

1 ⎞ 2 ⎟⎟ también es eigenvector) −1 ⎟ ⎟ 2⎠

Con los eigenvectores normalizados podemos construir la matriz modal si los acomodamos por columnas, esto es: ⎛ ⎜ Q=⎜ ⎜ ⎜ ⎝

1 2 1 2

−1 ⎞ ⎛ 3 0⎞ 2 ⎟⎟ ⇔ Λ=⎜ ⎟ 1 ⎟ ⎝0 1⎠ ⎟ 2⎠

Eigenvector para λ = 3

Eigenvector para λ = 1

Gráficamente podemos representar esto como: ⎛ 2 1⎞ A=⎜ ⎟ ⎝ 1 2⎠

no gira y se hace 3 veces más largo

vectores en esta línea no girarán y mantienen su longitud

2.4.1

TEOREMAS SOBRE OPERADORES AUTOADJUNTOS.

I

Si un operador L es auto-adjunto, entonces: a) los eigenvalores λi son reales b) los eigenvectores ei correspondientes a distintos eigenvalores son ortogonales.

Demostración. Consideremos un par de eigenvalores λ j y sus correspondientes eigenvectores ej .

De

acuerdo al problema general de eigenvalores Le j = λ j e j ; utilizando el producto interno podemos establecer que: 103

( e , Le ) = ( e , λ e ) = λ ( e , e ) j

j

j

j

j j

j

j

( Le , e ) = ( λ e , e ) = λ ( e , e ) j

j

j j

j

j

j

j

Dado que L es auto-adjunto, podemos tomar la diferencia entre ambos productos internos para establecer que:

( Le , e ) = ( e , L e ) = ( e , L e ) ⇒ 0 = ( λ *

j

j

j

(e , e ) ≠ 0

Puesto que e j ≠ 0,

j

j

j

j

)

− λ j (ej , ej )

j

⇒ λ j = λ j , y los eigenvalores son reales.

j

Consideremos ahora el producto interno

(e , e ) i

j

, y eigenvalores λi , λ j ,



i

≠ λj ) ,

Lei = λi ei .

( Le , e ) = ( λ e , e ) = λ ( e , e ) i

j

i i

j

i

i

j

( e , Le ) = ( e , λ e ) = λ ( e , e ) = λ ( e , e ) (eigenvalores reales) i

j

i

j

j j

i

j

j

i

j

Utilizando el carácter auto-adjunto del operador:

( Le , e ) − ( e , Le ) = 0 ⇒ 0 = ( λ − λ )( e , e ) i

Si λi ≠ λ j II



(e , e ) = 0 i

j

j

i

j

i

j

i

j

∴ ei es ortogonal a ej .

Para cualquier operador L auto-adjunto en un espacio con dimensiones finitas, se pueden encontrar k eigenvectores ortogonales para un eigenvalor con multiplicidad k.

∴ No importa si los eigenvalores son distintos o no, de cualquier manera los eigenvectores son ortogonales. III

Los eigenvectores de cualquier operador auto-adjunto L en un espacio con dimensiones finitas forman base.

∴ Construir eigenvectores ⇔ construir una base para el espacio con dimensiones finitas.

Nota: Un caso particular importante es el sistema de Sturm-Liouville en el espacio de funciones ( dim = ∞ ) .

104

2.4.2

MÁS EJEMPLOS Y DEFINICIONES.

Ejemplo 3. Se puede demostrar mediante el problema general de eigenvalores que si: ⎛a b⎞ A=⎜ ⎟ , → λ1,2 = a ± b ⎝b a⎠ ⎛ 2 0 0⎞ Ejemplo 4. Consideremos ahora Ax = λ x , con A = ⎜⎜ 0 1 1 ⎟⎟ ⎜0 1 1⎟ ⎝ ⎠

Nótese que A está separada por bloques; para este tipo de matrices podemos reconocer la forma de los eigenvectores y eigenvalores. En particular, en este caso podemos esperar que uno de los eigenvectores sea λ=2. Los bloques pueden visualizarse de la siguiente manera:

⎛2 ⎜ A= ⎜ 0 ⎜ ⎜0 ⎝

0 0⎞ ⎟ 1 1 ⎟ , λ1=2 , con eigenvector asociado ⎟ 1 1⎟ ⎠

⎛1 ⎞ ⎜ ⎟. ⎜ 0⎟ ⎜ 0⎟ ⎝ ⎠

Para verificar esto podemos utilizar la metodología usual: 2−λ 0 Ecuación característica: A − λ I = 0 = 0 1− λ 0

(

1

)

0 1 1− λ

⇒ ( 2 − λ ) (1 − λ ) − 1 = ( 2 − λ ) ( λ 2 − 2λ ) = −λ ( 2 − λ ) = 0 2

2

λ1 = 0, λ2 = 2, λ3 = 2 ← valores repetidos. Eigenvectores: Para λ1=0: 0 0 ⎞ ⎛ x1 ⎞ ⎛ 0 ⎞ ⎛2−0 2x = 0 → x1 = 0 ⎜ ( A − λ1I ) x = 0 → ⎜ 0 1 − 0 1 ⎟⎟ ⎜⎜ x2 ⎟⎟ = ⎜⎜ 0 ⎟⎟ → 1 x2 + x3 = 0 → x3 = − x2 ⎜ 0 1 1 − 0 ⎟⎠ ⎜⎝ x3 ⎟⎠ ⎜⎝ 0 ⎟⎠ ⎝

105

⎛ ⎞ ⎜0 ⎟ ⎟ ⎛0 ⎞ ⎛0 ⎞ ⎜ 1 ⎜ ⎟ ⎜ 1 ⎟ x ⎜ ⎟ x = ⎜ α ⎟ , e1 = = α = 2α ⎜⎜ ⎟⎟ ⎜⎜ 2 ⎟⎟ x.x ⎜ −α ⎟ ⎝ ⎠ ⎝ −α ⎠ ⎜ −1 ⎟ ⎜ ⎟ ⎝ 2⎠ 0 0 ⎞ ⎛ x1 ⎞ ⎛ 0 ⎞ ⎛2−2 ⎛β ⎞ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ Para λ = 2 : ⎜ 0 1− 2 1 ⎟ ⎜ x2 ⎟ = ⎜ 0 ⎟ → − x2 + x3 = 0, x2 = x3 → x = ⎜ γ ⎟ ⎜ ⎜γ ⎟ 1 1 − 2 ⎠⎟ ⎝⎜ x3 ⎠⎟ ⎝⎜ 0 ⎠⎟ ⎝ 0 ⎝ ⎠

Nótese que se pueden encontrar 2 eigenvectores ortogonales y además ambos son ortogonales a e1 . Podemos tomar: ⎛ ⎞ ⎜0 ⎟ ⎜ ⎟ ⎛1 ⎞ 1 ⎜ ⎟ ⎜ ⎟ e2 = ⎜ 0 ⎟ , e3 = ⎜ 2 ⎟⎟ ⎜0⎟ ⎜ ⎝ ⎠ ⎜ 1 ⎟ ⎜ ⎟ ⎝ 2⎠ ⎛ ⎞ ⎜0 ⎟ ⎜ ⎟ ⎛ 2 0 0⎞ ⎜ 1 ⎟ ⎜ ⎟ , o bien Por lo tanto, para A = ⎜ 0 1 1 ⎟ tenemos λ1 = 0, e1 = ⎜ 2 ⎟⎟ ⎜0 1 1⎟ ⎜ ⎝ ⎠ ⎜ −1 ⎟ ⎜ ⎟ ⎝ 2⎠

⎛ ⎞ ⎜0 ⎟ ⎜ ⎟ ⎜ −1 ⎟ ⎜ 2 ⎟; ⎜ ⎟ ⎜ 1 ⎟ ⎜ ⎟ ⎝ 2⎠

⎛ ⎞ ⎜0 ⎟ ⎜ ⎟ ⎛1 ⎞ ⎜ 1 ⎟ ⎜ ⎟ , y finalmente λ2 = 2, e 2 = ⎜ 0 ⎟ λ3 = 2, e3 = ⎜ ⎟. 2 ⎜0⎟ ⎜ ⎟ ⎝ ⎠ ⎜ 1 ⎟ ⎜ ⎟ ⎝ 2⎠ En este ejemplo puede verse la utilidad de reconocer o agrupar bloques dentro de una matriz para obtener los eigenvalores. El bloque de un solo elemento da automáticamente el eigenvalor (en este caso 2) y en este caso en particular, es fácil reconocer la forma que debe tener el eigenvector asociado. El bloque de 2x2 es una matriz simétrica, y de acuerdo al ejemplo3, los eigenvalores son 0 y 2.

106

Los eigenvalores de un matriz nos dan información sobre el determinante. En particular, en el ejemplo 4 encontramos que λ1 = 0 . Esto implica que A-1 no existe dado que A = λ1λ2 λ3 = 0 . como:

Para matrices de 3x3, la ecuación característica puede escribirse

λ 3 − I1λ 2 + I 2 λ − I 3 = 0 , en donde I1 , I 2 , I 3 son los invariantes de la matriz, dados por: I1 ≡ tr ( A )

I2 ≡

( traza = a11 + a22 + a33 )

(

)

a 1 2 ( trA ) − trA 2 = 11 a21 2

a11 I 3 ≡ A = a21

a12 a22

a13 a23

a31

a32

a33

a12 a22

+

a11

a13

a31

a33

+

a22

a23

a32

a33

Si I3=0 se puede ver que λ 3 − I1λ 2 + I 2λ = λ ( λ 2 − I1λ + I 2 ) = 0 , lo que implica que uno de los eigenvalores es cero. Definiciones para operadores matriciales. De acuerdo al problema de Eigenvalores Ax = λ x , donde A es el operador matricial, se establece que una matriz es:

• •

positivamente definida si xT .Ax > 0 ∀x ≠ 0 positivamente definida si λi > 0 i = 1, 2,...

• •

positivamente semi-definida si xT .Ax ≥ 0 ∀x ≠ 0 positivamente semi-difinida si λi ≥ 0

• •

negativamente definida si xT Ax < 0 ∀x ≠ 0 negativamente definida si λi < 0 i = 1, 2, ..

• •

negativamente semi-definida si xT Ax ≤ 0 ∀x ≠ 0 negativamente semi-definida si λi ≤ 0 i = 1, 2,...

En el ejemplo anterior 4, A es positivamente semi-definida. ⎛ 1 1⎞ Ejemplo 5. Del ejemplo anterior podemos ver que para A = ⎜ ⎟ obtenemos: ⎝ 1 1⎠

107

⎛ 1 ⎞ ⎜ 2 ⎟ ⎟ λ1 = 0, e1 = ⎜ ⎜ 1 ⎟ ⎜− ⎟ 2⎠ ⎝

⎛ ⎜ λ2 = 2, e2 = ⎜ ⎜ ⎜ ⎝

1 ⎞ 2 ⎟⎟ 1 ⎟ ⎟ 2⎠

Con este resultado y agrupando por bloques podemos obtener también: ⎛1 0 1⎞ ⎜ ⎟ A = ⎜ 0 2 0 ⎟ ⇒ tenemos 2 bloques ⎜1 0 1⎟ ⎝ ⎠

⎛∆ ⎜ ⎜ ⎜∆ ⎝

∆⎞ ⎟ ⎟ ∆ ⎟⎠

bloque 1x1 ⇒ ( 2 ) , λ = 2, e = (1) ⎛ ⎜ ⎛ 1 1⎞ ⎜ bloque 2 x 2 → ⎜ 0, 2 ⇒ = e = λ ⎟ ⎜ ⎝ 1 1⎠ ⎜ ⎝

1 ⎞ ⎛ 2 ⎟⎟ ⎜⎜ , −1 ⎟ ⎜ ⎟ ⎜ 2⎠ ⎝

1 ⎞ 2 ⎟⎟ 1 ⎟ ⎟ 2⎠

Los eigenvectores son entonces: ⎛ 1 ⎞ ⎜ 2⎟ ⎛0⎞ ⎜ ⎟ λ = 0, e1 = ⎜ 0 ⎟ ; λ = 2, e2 = ⎜⎜ 1 ⎟⎟ ; ⎜ −1 ⎟ ⎜0⎟ ⎝ ⎠ ⎜⎜ ⎟⎟ ⎝ 2⎠ ⎛1 ⎜ 1 Similarmente, si A = ⎜ ⎜0 ⎜⎜ ⎝0

1 1 0 0

0 0 1 1

⎛ 1 ⎞ ⎜ 2⎟ ⎜ ⎟ λ = 2, e3 = ⎜ 0 ⎟ ⎜ 1 ⎟ ⎜⎜ ⎟⎟ ⎝ 2⎠

0⎞ ⎟ 0⎟ obtenemos: 1⎟ ⎟ 1 ⎟⎠

⎛ 1 ⎞ ⎛ 0 ⎞ ⎛ 1 ⎞ ⎛ 0 ⎞ ⎜ 2 ⎟ ⎜ ⎟ ⎜ 2⎟ ⎜ ⎟ ⎜ ⎟ ⎜ 0 ⎟ ⎜ ⎟ ⎜ 0 ⎟ ⎜ 1 ⎟ ⎜ 1 ⎟ ⎜ 1 ⎟ ⎜ 1 ⎟ ; λ2 = 0, e 2 = ⎜ ; λ3 = 2, e3 = ⎜ ; λ4 = 2, e 4 = ⎜ λ1 = 0, e1 = ⎜ − ⎟ ⎟ ⎟ ⎟ 2 2 ⎜ ⎟ ⎜ 2 ⎟ ⎜ ⎟ ⎜ 2⎟ ⎜ 0 ⎟ ⎜ 1 ⎟ ⎜ 0 ⎟ ⎜ 1 ⎟ ⎜ 0 ⎟ ⎜− ⎟ ⎜ 0 ⎟ ⎜ ⎟ 2⎠ ⎝ ⎠ ⎝ ⎝ ⎠ ⎝ 2⎠

Los bloques pueden también encontrarse intercalados; por ejemplo, si:

108

⎛1 ⎜ 0 A=⎜ ⎜1 ⎜⎜ ⎝0 2.4.3

0 1 0 1

1 0 1 0

0⎞ ⎟ 1⎟ , tenemos 2 bloques intercalados de 0⎟ ⎟ 1 ⎟⎠

⎛ 1 1⎞ ⎜ ⎟. ⎝ 1 1⎠

DIAGONALIZACIÓN DE UNA MATRIZ, POTENCIAS, INVERSAS, EXPONENCIALES, ETC. T

Considerando operadores matriciales auto-adjuntos, i.e.: A* = A , el problema de eigenvalores tiene la forma:

Ae = λe ⇒ λ1 , λ2 .., λn con eigenvectores e1 ,e2 , ...en De acuerdo a los teoremas vistos anteriormente, los λ´s son reales y los eigenvectores son ortogonales, o inclusive, pueden hacerse ortonormales, i.e.: ei ⊥ e j ,

ei = 1 ⇒

( e ,e ) = δ i

j

ij

Además, los eigenvectores {e1 ,e 2 , ...,e n } forman base para Rn. Analicemos ahora la matriz modal y la matriz diagonal de eigenvalores asociada, ambas definidas por:

Q ≡ ( ( e1 )

( e2 )

"

( en ) )

⎛ λ1 0 ⎜ 0 λ2 ⇔ Λ≡⎜ ⎜# # ⎜⎜ ⎝0 0

0⎞ ⎟ 0⎟ % # ⎟ ⎟ " λn ⎟⎠ " "

Se puede ver que la matriz modal es una matriz ortogonal, i.e., Q−1 = QT pues: ⎛ eo1 ⎞ ⎛ e1 ⋅ e1 e1 ⋅ e 2 ⎜ ⎟ ⎜ ⎜ eo2 ⎟ e ⋅e e ⋅e T Q Q = ⎜ ⎟ ( ( e1 )( e2 ) ... ( en ) ) = ⎜ 2 1 2 2 ⎜ # # ⎜# ⎟ ⎜ ⎜ ⎜⎜ eo ⎟⎟ ⎝ e n ⋅ e1 e n ⋅ e 2 ⎝ n ⎠

" e1 ⋅ en ⎞ ⎛ 1 ⎟ " e 2 ⋅ e n ⎟ ⎜⎜ 0 = % # ⎟ ⎜# ⎟ ⎜ " en ⋅ en ⎠⎟ ⎝⎜ 0

0 " 0⎞ ⎟ 1 " 0⎟ # % #⎟ ⎟ 0 " 1 ⎠⎟

Algunas propiedades útiles de una matriz ortogonal: (1)

El determinante es ±1 → QT Q = I,

(2)

No cambia la longitud de vectores. Supongamos que

y = Qx,

y =

QT Q = Q = 1,

(y , y) = T

109

2

Q = ±1 .

xT QT Qx = xT x = x

Con esto vemos entonces que la matriz modal Q sólo gira vectores. La matriz modal se puede utilizar para escribir en forma canónica la matriz A. Consideremos el caso general:   ⎛ e1 ⎞ ⎛ e1 ⎞ ⎜ ⎟ ⎜ ⎟ QT AQ = ⎜# ⎟ ( A ) ( ( e1 ) ... ( en ) ) = ⎜# ⎟ ( ( Ae1 ) ... ( Aen ) ) ⎜o⎟ ⎜o⎟ ⎝ en ⎠ ⎝ en ⎠  ⎛ e1 ⎞ ⎛ λ1 0 0 ⎞ ⎜ ⎟ ⎜ ⎟ = ⎜# ⎟ ( ( λ1e1 ) ... ( λne n ) ) = ⎜ 0 λ2 0 ⎟ ≡ Λ ⎜0 % λ ⎟ ⎜o⎟ n⎠ ⎝ ⎝ en ⎠

Pre-multiplicando por Q obtenemos:

Q QT AQ = QΛ AQ = QΛ Post-multiplicando por QT: AQQT = QΛQT ⇒ A = QΛQT , y también: QT AQ = Λ

Expresar la matriz A en términos del producto de la matriz modal, la matriz diagonal de eigenvalores y la matriz modal transpuesta es útil para realizar varias operaciones matriciales de interés. Observemos que:

Ae = λe, A 2e = A( Ae) = λ Ae = λ 2e ⎛ 0⎞ ⎛0⎞ ⎜ ⎟ ⎜ ⎟ ⎜ 0⎟ ⎜0⎟ T n n En general: A e = λ e . Nótese también que Aek = ( QΛQ ) ek = QΛ ⎜ 1 ⎟ = Q ⎜ λk ⎟ = λk ek ⎜ ⎟ ⎜ ⎟ ⎜#⎟ ⎜ # ⎟ ⎜ 0⎟ ⎜0⎟ ⎝ ⎠ ⎝ ⎠ Si expresamos la matriz en términos de la matriz modal y la matriz diagonal de eigenvalores:

A = QΛQT , → A 2 = (QΛQT )(QΛQT ) = QΛ 2QT # A = QΛ mQT m

110

⎛ λ1m ⎜ 0 m Donde: Λ = ⎜ ⎜ 0 ⎜⎜ ⎝ 0

0

λ

m 2

0 0

⎞ ⎟ ⎟ ⎟ ⎟ " λnm ⎟⎠ " " %

0 0 0

Algunos casos particulares interesantes:

A −1 = ( QΛQT ) = ( QT ) Λ −1Q −1 = QΛ −1QT , −1

1

−1

⎛ ⎜ 1 ⎜ con Λ 2 ≡ ⎜ ⎜ ⎜ ⎝

1

Si: A 2 ≡ QΛ 2 QT

λ1

0

0 #

λ2 " #

%

0

0

"

"

⎛ ⎜ ⎜ ⎜ −1 Λ =⎜ ⎜ ⎜ ⎜ ⎝ 0 ⎞ ⎟ 0 ⎟ ⎟ # ⎟ λn ⎟⎠

1

λ1

0

"

0

1

#

#

%

0

0

"

λ2 "

0 ⎞ ⎟ ⎟ 0 ⎟ ⎟ # ⎟ 1 ⎟⎟ λn ⎠

2

⎛ 1⎞ Nótese que A ⋅ A = QΛ Q QΛ Q = Q ⎜ Λ 2 ⎟ QT = QΛQT = A ⎝ ⎠ En general, esta descomposición de la matriz A permite realizar cualquier operación matricial manipulando únicamente la matriz diagonal de eigenvalores. Supongamos, por ejemplo, que queremos evaluar 2 A 2 − 3A . Utilizando la descomposición se obtiene: 1 2

1 2

1 2

T

1 2

T

⎛ 2λ12 − 3λ1 " ⎞ 0 ⎜ ⎟ T 2 2 T T 2 T 2 A − 3A = 2QΛ Q − 3QΛQ = Q(2 Λ − 3Λ )Q = Q ⎜ # % # ⎟Q 2 ⎜ 0 " 2λn − 3λn ⎟⎠ ⎝

De igual forma, podemos evaluar la matriz exponencial:

e

A

≡I+A+

A2 + ... 2!

Utilizando la descomposición matricial:

e

A

= QIQT + QΛQT + Q

⎛ ⎞ Λ2 T Λ2 + ... ⎟ QT Q +" = Q ⎜ I + Λ + 2 2 ⎝ ⎠

111

⇒ e A = Q e Λ QT ,

2.4.4

e

Λ

⎛ eλ1 ⎜ 0 ≡⎜ ⎜ # ⎜⎜ ⎝ 0

0 λ2

e # 0

0 ⎞ ⎟ " 0 ⎟ % 0 ⎟ ⎟ " eλn ⎟⎠

"

APLICACIONES.

⎛2 1⎞ A=⎜ ⎟ . Para resolver este problema podemos: ⎝1 2⎠ 1) Despejar x = A−1c (i.e., utilizar álgebra matricial).

a) Consideremos Ax = c,

2) Utilizar una “eigen-expansión”. Sabemos que Ae = λ e , y por la forma de la matriz obtenemos: ⎛ 1 ⎞ ⎛ 1 ⎞ ⎜− 2 ⎟ ⎜ 2⎟ ⎟, ⎟ λ1 = 1, e1 = ⎜ λ2 = 3, e 2 = ⎜ ⎜ 1 ⎟ ⎜ 1 ⎟ ⎜+ ⎟ ⎜ ⎟ 2⎠ ⎝ ⎝ 2⎠ Nótese que la matriz es auto-adjunta y, por lo tanto, los eigenvectores son base ortonormal (ON) para el espacio vectorial. Esto implica que podemos expresar cualquier otro vector como una combinación lineal de ellos. Consideremos, por ejemplo: c = ( c, e1 ) e1 + ( c, e 2 ) e 2 , x = α e1 + β e2

Si encontramos los coeficientes α y β del vector x podremos encontrar la solución del problema. Expresando todo en términos de los eigenvectores obtenemos: Ax = A (α e1 + β e 2 ) = α Ae1 + β Ae 2 = αλ1e1 + βλ2e 2

∴α = ⎛ 1⎞ Supongamos que c = ⎜ ⎟ , ⇒ ⎝ 1⎠ Por lo tanto: α = 0, β =

2 3

( c, e1 ) β = ( c, e2 ) λ1

λ2

( c, e1 ) = 0, ( c, e2 ) = ⎛ 2⎜ ⎜ ⇒ x= 3 ⎜ ⎜ ⎝

1 1 2 + = = 2 2 2 2

1 ⎞ ⎛1⎞ 2 ⎟⎟ ⎜ 3 ⎟ =⎜ ⎟ 1 ⎟ ⎜1⎟ ⎟ ⎜ ⎟ 2 ⎠ ⎝3⎠

b) Consideremos el caso Ax = Λx + c , donde Λ es un escalar dado.

112

Podemos hacer de nuevo una eigen-expansión: c = ∑ ( c, e k ) e k , x = ∑ α k e k , Ax = A ( ∑ α k e k ) = ∑ α k Ae k = ∑ α k λk e k

El sistema es entonces: ∑ α k λk e k − Λ ∑ α k e k − ∑ ( c, ek ) e k = 0 ∑ ⎡⎣α k ( λk − Λ ) − ( c, e k ) ⎤⎦ e k = 0, con e1 , e 2 ,..., e n LI

⎡⎣α1 ( λ − Λ ) − ( c, e1 ) ⎤⎦ e1 + ⎡⎣α 2 ( λ2 − Λ ) − ( c, e 2 ) ⎤⎦ e 2 + ... + [ ] e n = 0

Puesto que los vectores base son LI, cada uno de los coeficientes tiene que ser cero. Si Λ ≠ λk , k = 1, 2, ... , entonces:

αk = Si Λ = λ j ,

( c, ek ) ,

λk − Λ

x = ∑ α k ek

[ ] e1 + ... + ⎡⎣α j ( λ1 − Λ ) − ( c, e j )⎤⎦ e j + ... + [ ] en = 0, ( c, e j ) e j = 0

En este caso, si ( c, e j ) ≠ 0 el sistema no tiene solución; si ( c, e j ) = 0 , se puede añadir a la solución para cualquier valor de ℘, i.e.: n

⇒x=∑ k =1 k≠ j

( c, ek ) e

λk − Λ

k

+℘e j

c) Consideremos un sistema masa-resorte en serie como se muestra en la figura. El objetivo de estos problemas es generalmente encontrar los desplazamientos de las masas. Nótese que el resorte que une a las dos masas (m) dará como resultado un acoplamiento entre los dos desplazamientos x1 y x2, i.e., el modelo matemático de este sistema será un sistema de ecuaciones acopladas. k

k m

k m

x1

El comportamiento del sistema está descrito por: mx1 = − kx1 − k ( x1 − x2 ) mx2 = − kx2 − k ( x2 − x1 )

113

x2

Consideremos el caso k = m = 1 ; las ecuaciones son ahora:

 x1 + 2 x1 − x2 = 0  x¨2 + 2 x2 − x1 = 0 Podemos expresar esto en forma matricial:

x1 ⎞ ⎛ x1 ⎞ ⎛  ⎛ 2 −1⎞  x + Ax = 0, x = ⎜ ⎟ ,  x = ⎜ ⎟ , con A = ⎜ ⎟ ⎝ −1 2 ⎠ ⎝ x2 ⎠ ⎝ x2 ⎠ Nótese que el operador A es auto-adjunto y los eigenvalores y eigenvectores son: ⎛ ⎜ λ1 = 1, e1 = ⎜ ⎜ ⎜ ⎝

1 ⎞ 2 ⎟⎟ , 1 ⎟ ⎟ 2⎠

⎛ 1 ⎞ ⎜ 2 ⎟ ⎟ λ2 = 3, e1 = ⎜ ⎜ 1 ⎟ ⎜− ⎟ 2⎠ ⎝

Utilicemos la matriz modal para realizar un cambio de coordenadas. Consideremos específicamente el cambio: ⎛ ⎜ x = Qx´, Q = ⎜ ⎜ ⎜ ⎝

1 2 1 2

1 ⎞ 2 ⎟⎟ 1 ⎟ − ⎟ 2⎠

 ´ ⇒ Qx ´+ AQx´= 0 x = Qx ´+QT AQx´= 0 , pero Pre-multiplicando por la matriz modal transpuesta: QT Qx QT Q = I, QT AQ = Λ . El sistema se reduce entonces a  x´+ Λx´= 0 . Esto puede expresarse equivalentemente como:  x1´ + x1´ = 0,  x2´ + 3 x2´ = 0

Las soluciones son, respectivamente: x1′ = A1 sen ( t + φ1 ) , x2′ = A2 sen Regresando a las coordenadas originales obtenemos:

114

(

3 t + φ2

)

⎛ ⎜ ⎛ x1 ⎞ ⎜ = = Qx ´ ⎜ ⎟ x ⎜ ⎝ 2⎠ ⎜ ⎝

1 2 1 2

1 ⎞ 2 ⎟⎟ ⎛⎜ A1 sen ( t + φ1 ) 1 ⎟ ⎜ A2 sen 3 t + φ2 − ⎟⎝ 2⎠

(

(

)

⎛ sen 3 t + φ2 ⎛ sen ( t + φ1 ) ⎞ ⎛ x1 ⎞ ⎟⎟ + c2 ⎜⎜ ⎜ ⎟ = c1 ⎜⎜ x sen φ + t ( ) ⎠ ⎜ − sen 3 t + φ2 ⎝ 2⎠ ⎝ ⎝

(

)

)

⎞ ⎟ ⎟ ⎠

⎞ ⎟ ⎟⎟ ⎠

El uso de la matriz modal desacopla el sistema de ecuaciones y la solución queda expresada en términos de una combinación lineal de los modos normales, o equivalentemente, en términos de las frecuencias naturales de oscilación del sistema.

115

Get in touch

Social

© Copyright 2013 - 2024 MYDOKUMENT.COM - All rights reserved.