64

Vectores y matrices • Los elementos básicos en teoría de sistemas lineales son vectores n × 1 (columna) o 1 × n (fila) y matrices n × m con elementos

33 downloads 205 Views 565KB Size

Recommend Stories


64
k ˜ OFICINA ESPANOLA DE PATENTES Y MARCAS 19 k kInt. Cl. : B29C 49/64 11 N´ umero de publicaci´on: 6 51 ˜ ESPANA k 2 124 355 B29C 49/42 TRAD

64 BITS)
MINIPRINTER TERMICA ENTEC TM-188/T (PRP-188) DRIVERS PARA WINDOWS 10 (32/64 BITS) - REFERENCIA Nota: La miniprinter deberá conectarse en modo APAGAD

8.1 Professional 64-bit
Mini PC Dell OptiPlex 9020 Micro, Intel Core i7-4785T 2.20GHz, 8GB, 500GB, Windows 7/8.1 Professional 64-bit DELL (0) SKU: O902MCI7S850W7P3W EAN: 0884

Story Transcript

Vectores y matrices • Los elementos básicos en teoría de sistemas lineales son vectores n × 1 (columna) o 1 × n (fila) y matrices n × m con elementos reales (i.e. v ∈ Rn y A ∈ Rn×m ). • Denotamos el elemento i del vector v como vi , y el elemento ij de una matriz A como aij o [A]ij . 

   v=  

v1 v2 .. . vn





a11     a21  T  = [v1 v2 . . . vn ] , A =   ...    an1

a12

...

a22

 . . . a2m   ... ...   . . . anm

... an2

a1m



Herramientas de A.L.– p.1/64

Vectores y matrices Definiciones: • El producto de dos matrices A ∈ Rn×m por B ∈ Rs×r solo está definido si s = m y el resultado tiene dimensión n × r. Si ai es la iesima columna de A y bj la jesima fila de B, 

b1   b2  AB = [a1 a1 . . . am ]  .  ..  bm



    = a 1 b1 + a 2 b2 + . . . + b m bm  

• Se denomina matriz nula a la matriz con todos sus elementos cero y se denota 0nm o simplemente 0.

Herramientas de A.L.– p.2/64

Vectores y matrices Definiciones: • Una matriz A ∈ Rn×m es cuadrada si n = m. En este caso la matriz nula se denota como 0n y la matriz identidad como In o simplemente I. • La potencia k (con k ≥ 0) de una matriz A, (Ak ), está bien definida solo si A es cuadrada. A0 = In . • Si Ak = 0 para un k > 0, entonces A se llama nilpotente .

Herramientas de A.L.– p.3/64

Vectores y matrices Definiciones para matrices n × n: • La traza es el escalar correspondiente a la suma de los elementos de la diagonal principal . n X aii trA = i=1

Si AB es cuadrada, entonces tr[AB] = tr[BA]

• El cofactor cij del elemento aij es −(1)i+j multiplicado por el determinante de la submatriz de A de (n − 1) × (n − 1) resultante de eliminar la fila i y la columna j.

Herramientas de A.L.– p.4/64

Vectores y matrices Definiciones para matrices n × n: • El determinante de una matriz puede definirse recursivamente (expansión de Laplace sobre la columna j) como detA =

n X

aij cij

i=1

con cij el cofactor del elemento aij . El determinante es una función diferenciable todas las veces que se quiera. Si A y B son de n × n entonces det[AB] = detA.detB = det[BA] • Una matriz A es singular si detA = 0. • Una matriz A tiene inversa A−1 tal que AA−1 = A−1 A = I sii A es no singular.

Herramientas de A.L.– p.5/64

Vectores y matrices Definiciones para matrices n × n: • La adjunta de una matriz A (AdjA) se define como la transpuesta de la matriz de los cofactores de A. • La inversa puede calcularse como A

−1

1 AdjA = [cij ]0 = detA detA

• La transpuesta del producto de matrices cumple (AB)T = BT AT . • La inversa del producto de matrices cuadradas no singulares cumple (AB)−1 = B−1 A−1 .

Herramientas de A.L.– p.6/64

Vectores y matrices A = [1 2;3 4]; >> det(A) ans = -2

En Matlab algunas operaciones elementales se calculan como:

>> trace(A) ans = 5 >> inv(A) ans = -2.0000 1.0000 1.5000 -0.5000

Herramientas de A.L.– p.7/64

Ejemplo: Determinantes e Inversa Muestre que el determinante y la inversa de la matriz, 

 1 5 0    A = 0 2 1  4 5 3 son det(A) = 21 y A

−1



1  1  = 4 21  −8

−15 3

15

5



 −1  2

Herramientas de A.L.– p.8/64

Espacio vectorial lineal • Sea el plano geométrico de dos dimensiones. Definiendo el origen, entonces cada punto en el plano puede considerarse un vector. Un vector puede comprimirse o expandirse. Cualquier par de vectores puede sumarse aunque el producto no está definido. Tal plano, en terminología matemática se denomina espacio lineal , o espacio vectorial , o espacio vectorial lineal . • El conjunto de todos los vectores en Rn puede verse como un espacio vectorial lineal con las operaciones suma de vectores y producto por escalares . • Cada plano geométrico tiene dos ejes coordenados que son mutuamente perpendiculares y de la misma escala. La razón para tener un sistema coordenado es tener alguna referencia para especificar un punto en el plano. • En espacios lineales, un sistema coordenado se llama base . En general, los vectores base no son perpendiculares entre sí y tienen diferentes escalas.

Herramientas de A.L.– p.9/64

Independencia lineal y dimensión • El máximo número de vectores L.I. en un espacio lineal se llama dimensión del espacio lineal. Así, en un espacio vectorial de dos dimensiones (R 2 , R), no pueden encontrarse tres vectores L.I. • Un conjunto de vectores x1 , . . . , xn en un espacio lineal se dice linealmente dependiente si y solo si existen escalares α1 , α2 , . . . , αn , no todos cero, tales que, α1 x1 + α 2 x2 + . . . + α n xn = 0

(1)

• Si el único conjunto de αi para el cual (1) se cumple es α1 = 0, α2 = 0, . . . , αn = 0, entonces el conjunto de vectores se dice linealmente independiente . • Si un conjunto de vectores es linealmente dependiente, entonces por lo menos un vector del conjunto puede escribirse como combinación lineal de los restantes.

Herramientas de A.L.– p.10/64

Bases • Un conjunto de vectores linealmente independientes de un espacio vectorial lineal se dice ser una base del espacio, si cada vector en dicho espacio se puede expresar como una única combinación lineal de esos vectores. • Teorema: En un espacio vectorial de n dimensiones, cualquier conjunto de n vectores linealmente independientes califica como una base. • La implicación del teorema es que, en un espacio vectorial de n dimensiones, si se escoge una base [e1 e2 . . . en ], entonces cada vector x en dicho espacio puede representarse unívocamente por un conjunto de n escalares β1 , β2 , . . . , βn , h

x = e1

e2

i

. . . en β

• A β se le denomina la representación de x con respecto a la base {e 1 e2 . . . en }.

Herramientas de A.L.– p.11/64

Bases Ejemplo: Considérense los vectores de R2 , q1 = [3, 1]T y q2 = [2, 2]T que son L.I. y por tanto califican como coordenadas del espacio. Muestre que la representación del ˜ = [−1, 2]T . vector x = [1, 3]T en las coordenadas {q1 , q2 } es x x

q2

q1

0

Herramientas de A.L.– p.12/64

Norma de vectores • El concepto de norma de un vector es una generalización del concepto de magnitud. • La norma de un vector x ∈ Rn se denota como ||x|| y es una función Rn 7→ R0+ (reales + el cero) que cumple con las propiedades, 1. ||x|| ≥ 0 para todo x y ||x|| = 0 solo si x = 0. 2. ||αx|| = |α|||x|| para todo escalar α. 3. ||x1 + x2 || ≤ ||x1 || + ||x2 || para todo x1 , x2 (desigualdad triangular). • Dado un vector x = [x1 , x2 , . . . , xn ]T , tres normas típicas en Rn son, Pn , norma-1 ||x||1 i=1 |xi | √ pP n 2 T , x x= norma-2 o euclídea ||x||2 i=1 xi ||x||∞

,

m´ ax |xi | i

norma-∞

Herramientas de A.L.– p.13/64

Norma de vectores 1

8 2 1

Interpretación gráfica: Bola unitaria

-1

1

-1

• A no ser que se diga otra cosa, asumiremos en este curso la norma euclídea. √ • Un vector se dice normalizado , si ||x|| = xT x = 1. Dos vectores x1 y x2 se dicen ortogonales si xT1 x2 = xT2 x1 = 0.

Herramientas de A.L.– p.14/64

Ortonormalización • Un conjunto de vectores es ortonormal si, xTi xj

=

(

0 si i 6= j 1 si i = j

• Dado un conjunto de vectores LI {p1 , p2 , . . . , pn }, podemos obtener un conjunto ortonormal de vectores {q1 , q2 , . . . , qn } usando el procedimiento de ortonormalización de Schmidt, u1

,

p1

q1

,

u2

,

p2 − (q1T p2 )q1

q2

,

... um

,

pm − (

Pm−1 k=1

... qkT pm )qk

qm

,

u1 /||u1 ||, u2 /||u2 ||, um /||um ||

Herramientas de A.L.– p.15/64

Ortonormalización u 2

e 2

q 3

q 2 0

u 3

e q 2

q 1 q 1 q 'e 1 2

e 1

3

q 'e 2 3

Proceso de ortonormalización de Schmidt.

Herramientas de A.L.– p.16/64

Matrices en forma particionada • Una matriz organizada en bloques de submatrices se dice en forma particionada. Algunas propiedades de este tipo de matrices pueden facilitar el análisis de sistemas. # " A11 A12 . . . A1r A= Ap1 Ap2 . . . Apr donde los Aij son matrices de dimensiones acordes con la partición. • Ejemplo:



1

  2 A=  3  4

2

3

3

4

4

5

5

6

4

5



 " 5 6   = A11 6 7  A21  7 8

A12

A13

A22

A23

#

Esta matriz es de dimensión 2 × 3 por bloques.

Herramientas de A.L.– p.17/64

Matrices en forma particionada • Para dos matrices A y B del mismo tamaño, particionadas en bloques de la misma dimensión, la suma de matrices cumple, Cij = (A + B)ij = Aij + Bij • Dos matrices particionadas Ap×r y Br×q por bloques puede multiplicarse por bloques Cp×q = Ap×r × Br×q . Cada bloque de C se puede calcular (análogo al caso escalar), asumiendo particiones afines, como: Cij =

r X

Aik Bkj

k=1

• Ejemplo: "

A11

A12

A13

A21

A22

A23

#



B11



"

  (A11 × B11 + A12 × B21 + A13 × B31 )   × B21  = (A21 × B11 + A22 × B21 + A23 × B31 ) B31

#

Herramientas de A.L.– p.18/64

Matrices en forma particionada • La transpuesta de una matriz particionada es, T

A =

"

A11

A12

A21

A22

#T

=

"

AT11

AT21

AT12

AT22

#

• Considere la inversa de la matriz triangular superior , A=

"

A11

A12

0

A22

#

;

A

−1

=M=

"

M11

M12

M21

M22

#

Entonces, AM = I;

"

A11

A12

0

A22

#"

M11

M12

M21

M22

#

=

"

I11

0

0

I22

#

Herramientas de A.L.– p.19/64

Matrices en forma particionada Resolviendo se obtiene el sistema de ecuaciones, A11 M11 + A12 M21

=

I11

A11 M12 + A12 M22

=

0

A22 M21

=

0

A22 M22

=

I22 " A−1 11

M = A−1

=

0

−1 −A−1 11 A12 A22 A−1 22

#

El caso particular de una matriz diagonal por bloques se obtiene con A12 = 0. Para el caso general, note que A se puede llevar a una forma triangular superior, "

I −A21 A−1 11

0 I

#"

A11 A21

A12 A22

#

=

"

A11 0

A12 −A21 A−1 11 A12

+ A22

#

(2)

Herramientas de A.L.– p.20/64

Matrices en forma particionada " "

I

0

−A21 A−1 11

I

A11

A12

A21

A22

"

#"

#−1 "

A11

A12

A21

A22

A11

A12

A21

A22

#!−1

I

0

−A21 A−1 11

I

#−1

=

"

#−1

=

"

=

"

A11

A12

0

−A21 A−1 11 A12 + A22

A11

A12

0

−A21 A−1 11 A12 + A22

A11

A12

0

−A21 A−1 11 A12 + A22

#−1 "

I

0

−A21 A−1 11

I

#−1 #−1

#

−1 , se obtiene, Llamando F = (−A21 A−1 11 A12 + A22 )

"

A11

A12

A21

A22

#−1

=

"

A−1 11

−1 + A−1 A F A A 12 21 11 11 −F A21 A−1 11

−A−1 11 A12 F F

#

Herramientas de A.L.– p.21/64

Matrices en forma particionada • El determinante de una matriz triangular es el producto de los determinantes de las matrices de la diagonal principal. det

"

A11

A12

0

A22

#!

= det(A11 )det(A22 )

• Usando la ecuación (2) y la propiedad anterior, se demuestra que en general, det

"

A11

A12

A21

A22

#!

= det(A11 )det(A22 − A21 A−1 11 A12 )

• En MatLab, las matrices particionadas se escriben tal como si las matrices fuesen escalares. >> A = [A11 A12; A21 A22];

Herramientas de A.L.– p.22/64

Aplicaciones lineales Consideremos la solución del conjunto de ecuaciones algebráicas lineales Ax = y, con A ∈ Rm×n y y ∈ Rm como datos de entrada y x ∈ Rn la incógnita a resolver, con m menor, igual o mayor que n. Note que y es una aplicación lineal y : Rn 7→ Rm . • El espacio imagen, o la imagen de A es el espacio generado por todas las combinaciones lineales de las columnas de A. • El rango de A se define la dimensión del espacio imagen, o equivalentemente, el número de columnas linealmente independientes de A. • Un vector x se llama vector nulo de A, si Ax = 0. El espacio nulo de A es el formado por todos sus vectores nulos. • La nulidad de A es la dimensión del espacio nulo de A y cumple la relación, Nulidad(A) = número de columnas de A − rango(A) • El rango de A también es el número de filas L.I. de A, luego para A ∈ Rm×n se cumple: rango(A) > A= [0 1 1 2;1 2 3 4; 2 0 2 0]; >> rank(A) ans = 2 >> R = orth(A)

En Matlab la imagen, el espacio nulo y el rango se obtienen mediante los comandos orth, null y rank.

R= -0.3782 0.3084 -0.8877 0.1468 -0.2627 -0.9399 >> null(A) ans = -0.6740 -0.0177 -0.1113 -0.8977 0.6740 0.0177 -0.2813 0.4400

Herramientas de A.L.– p.24/64

Inversas por derecha e izquierda • Dada una matriz de orden m × n 

a11   a21  A= .  ..  am1

a12

...

a22 .. .

 . . . a2n   ..  .. . .   . . . amn

am2

a1n



• Se dice que A es de rango pleno por filas si rango(A) = m, esto es, el rango de A es igual al número de filas. Análogamente se dice que A es de rango pleno por columnas si rango(A) = n. • Para una matriz cuadrada son equivalentes ser de rango pleno por filas, ser de rango pleno por columnas y ser regular. • Dada una matriz A ∈ Rm×n , una inversa a derecha de A es una matriz AR ∈ Rn×m de forma que AAR = Im . Herramientas de A.L.– p.25/64

Inversas por derecha e izquierda • De forma similar, una inversa a la izquierda de A es una matriz AL ∈ Rn×m tal que AL A = In . Proposición: Dada una matriz A ∈ Rm×n , se verifica, 1.

2.

A tiene inversa a izquierda ⇔ A es de rango pleno por columnas.

A tiene inversa a derecha ⇔ A es de rango pleno por filas.

Lema: Dada una matriz A ∈ Rm×n , se verifica,

rango(AT A) = rango(AAT ) = rango(A) Teorema: Dada una matriz A ∈ Rm×n , se verifica: 1.

Si A es de rango pleno por filas, entonces una inversa a derecha de A es AR = AT (AAT )−1 .

2.

Si A es de rango pleno por columnas, entonces una inversa a izquierda de A es AL = (AT A)−1 AT . Herramientas de A.L.– p.26/64

Pseudoinversa Dada una matriz A ∈ Rm×n , una inversa generalizada (o pseudoinversa) de Moore-Penrose de A es una matriz X ∈ Rn×m de forma que: 1.

AXA = A.

2.

XAX = X.

3.

AX y XA son simétricas.

Proposición: Para cada matriz A, si existe inversa de Moore-Penrose de A, esta es única. A tal matriz se le nota por A+ . Note que si A es regular, entonces A+ = A−1 , si A es de rango pleno por filas, entonces A+ = AR y si A es de rango pleno por columnas, A+ = AL . • Dada una matriz A de orden m × n, llamaremos factorización de rango pleno de A a cada descomposición de A en producto de una matriz de rango pleno por columnas y una de rango pleno por filas. • Toda matriz posee una factorización de rango pleno. Teorema: Toda matriz A ∈ Rm×n , tiene inversa generalizada de Moore-Penrose. Herramientas de A.L.– p.27/64

Ecuaciones algebráicas Dado un sistema de ecuaciones lineales,   a11 x1 + a12 x2 + . . . + a1n xn     a x + a x + ... + a x 21 1 22 2 2n n  ...     am1 x1 + am2 x2 + . . . + amn xn

=

y1

=

y2

...

...

=

ym

su expresión matricial es Ax = y • Teorema: (existencia de las soluciones) 1.

Existe una solución x ∈ Rn de la ecuación Ax = y, si y solo si y está en la imagen de A, o equivalentemente, rango(A) = rango([A y])

2.

Dado A, existe una solución x de Ax = y para cada y, si y solo si A tiene rango fila completo (rango (A) = m). Herramientas de A.L.– p.28/64

Ecuaciones algebráicas • Si un sistema de ecuaciones lineales tiene solución, se dice compatible . Si A no es de rango fila completo, el sistema de ecuaciones se dice incompatible . • A menudo cuando el sistema es incompatible interesa buscar un valor de x que aproxime la solución. Llamaremos solución mínimo-cuadrática del sistema a cada vector x ∈ Rn haciendo mínima la norma ||Ax − y||. • En el caso de que el sistema sea compatible la soluciones mínimo cuadráticas no son otras que las soluciones del sistema. Lema: Dado un sistema de ecuaciones lineales Ax = y con A de rango pleno por filas, el sistema es compatible y la solución de norma mínima viene dada por x = A R y. • Si A es de rango pleno por columnas, existe una única solución mínimo-cuadrática dada por x = AL y.

• Teorema: Dado un sistema de ecuaciones lineales Ax = y (compatible o incompatible), la solución mínimo-cuadrática de norma mínima viene dada por x = A+ y.

Herramientas de A.L.– p.29/64

Ecuaciones algebráicas • Teorema: (Parametrización de todas las soluciones) Dada una matriz A ∈ R m×n y un vector y ∈ Rm , sea xp una solución de Ax = y y sea k := n − ρ(A) la nulidad de A 1. Si k = 0 (A tiene rango columna pleno), entonces la solución xp es única. 2. Si k > 0 sea {n1 , n2 , . . . , nk } una base del espacio nulo de A. Entonces para cualquier conjunto k de números reales {αi , i = 1, 2, ..., k} el vector x = x p + α 1 n1 + . . . + α k nk es también solución de Ax = y.

Herramientas de A.L.– p.30/64

Ecuaciones algebráicas

En Matlab la solución de Ax = y se obtiene con x=A\y

>> A = [0 1 1 2;1 2 3 4; 2 0 2 0]; >> y = [-4;-8;0]; >> x0= A\y; Warning: Rank deficient, rank = 2 tol = 3.9721e-015. >> N= null(A); >> x = x0 + 2*N(:,1) + 3* N(:,2); >> A*x ans = -4.0000 -8.0000 0.0000

Herramientas de A.L.– p.31/64

Ecuaciones algebráicas Corolario:(Sistemas cuadrados). Sea Ax = y donde A es cuadrada. Entonces, 1.

Si A es no singular existe una solución única para cada y, dada por x = A−1 y. En particular, la única solución de Ax = 0 es x = 0.

2.

La ecuación homogénea Ax = 0 tiene soluciones no nulas sii A es singular. El número de soluciones LI es igual a la nulidad de A.

Herramientas de A.L.– p.32/64

Transformación de semejanza • La operación Ax = y puede pensarse como una operación de mapeo de vectores de Rn a Rn . • Dada la nueva base Q = {q1 q2 . . . qn } se sabe que x = Q¯ x y y = Q¯ y y por tanto, x=y ¯ Ax = y ⇒ AQ¯ x = Q¯ y ⇒ Q−1 AQ¯ • A la transformación

¯ = Q−1 AQ A

¯ −1 A = QAQ

¯ se dicen semejantes . se le denomina transformación de semejanza y A y A

Herramientas de A.L.– p.33/64

Transformación de semejanza Notando que, ¯ AQ = QA i h i h = Q a1 . . . a n A q1 . . . q n i h i h = Qa1 . . . Qan Aq1 . . . Aqn ˜ es la representación del vector Aqi en la base • Se concluye que la columna i de A Q.

Herramientas de A.L.– p.34/64

Autovalores y Autovectores • Un número λ es un autovalor de la matriz A si existe un vector no nulo v ∈ Rn tal que Av = λv. Este vector v es un autovector (por derecha) de A asociado al autovalor λ. • El conjunto de todos los autovalores de una matriz A se llama el espectro de A. Se encuentra resolviendo el sistema de E.L. (λI − A)v = 0. • La solución no nula del anterior sistema existe solo si la matriz λI − A es singular. • Se denomina polinomio característico de la matriz cuadrada A a, 4(λ) = det(λI − A) • El polinomio 4(λ) es mónico , es decir, el coeficiente del término de mayor orden es 1 y es de orden n con coeficientes reales.

Herramientas de A.L.– p.35/64

Autovalores y Autovectores • Para cada raíz de 4(λ) la matriz (λI − A) es singular y por tanto la ecuación (λI − A)v = 0 admite al menos una solución no nula. • Luego, toda raíz de 4(λ) es un autovalor de A y como 4(λ) tiene grado n, necesariamente A tiene n autovalores (no necesariamente distintos). • En Matlab, los autovalores de A se calculan mediante r = eig(A) dando iT h r = λ1 λ2 . . . λn . La función poly(r) da el polinomio característico de A.

• Algunas matrices poseen polinomio característico y autovalores evidentes. Uno de tales casos es la matriz en forma companion .

Herramientas de A.L.– p.36/64

Forma Companion • 4(λ) = λ4 + α1 λ3 + α2 λ2 + α3 λ + α44 

0 0

0

 1 0  0 1  0 0

0 0 1

−α4

 

 −α3   −α2   −α1

−α1

  1   0  0

−α2

−α3

1

0

0

1

0

0

−α4



 0   0   0

• Otro caso es la forma diagonal, 



λ1

0

0

0

 0  0  0

λ2

0

0

λ3

0

0

 0  0  λ4

Herramientas de A.L.– p.37/64

Diagonalización Caso 1. Autovalores reales y distintos • Los autovectores de A son LI y se usan como base.   λ1

h

Av1 = v1

v2

  i 0    . . . vn  .   ..    0



λ1

 0 ¯ = • Luego se obtiene, A .  .. 

0

0

...

λ2 .. .

... .. .

0

...

0



 0  ..  .  

λ4

Herramientas de A.L.– p.38/64

Diagonalización Caso 2. Autovalores complejos y distintos En este caso se puede obtener una matriz diagonal a partir de la base formada por los autovectores, pero ésta no es real. • Los autovalores complejos aparecen en pares conjugados de la forma λ = σ ± jω y dan lugar a autovectores complejos conjugados de la forma v = u ± jw. • Suponiendo que la matriz A tiene autovalores {λ1 , λ2 , σ1 + jω1 , σ1 − jω1 , σ2 + jω2 , σ2 − jω2 }, con autovectores {v1 , v2 , u1 + jw1 , u1 − jw1 , u2 + w2 , u2 − jw2 } • Se forma la base, {v1 , v2 , u1 , w1 , u2 , w2 }

Herramientas de A.L.– p.39/64

Diagonalización Y se obtiene la representación diagonal por bloques, 

λ1

0

0

0

0

 0  0 ¯ = A  0   0

λ2

0

0

0

0

σ1

w1

0

0

−w1

σ1

0

0

0

σ2

0

0

−w2

0

0 0

0



 0  0   0   w2  σ2

Caso 3. Autovalores repetidos En este caso los autovectores no son LI y aunque la matriz A no es diagonalizable, puede llevarse a una forma diagonal de bloques de Jordan .

Herramientas de A.L.– p.40/64

Formas de Jordan Suponga una matriz A ∈ Rn×n tiene un autovalor λ de multiplicidad n y que la matriz (A − λI) tiene rango n − 1, o nulidad 1. Supondremos n = 4. Entonces (A − λI)q = 0 tiene una sola solución independiente (un solo autovector). • Un vector v se dice autovector generalizado de orden n si, (A − λI)n v

= 0

(A − λI)n−1 v

6= 0

Para n = 4 definamos v4

:=

v

(A − λI)4 v4

=

0

Av4

=

v3 + λv4

v3

:=

(A − λI)v4 = (A − λI)v

(A − λI)3 v3

=

0

Av3

=

v2 + λv3

(A − λI) v2

=

0

Av2

=

v1 + λv2

(A − λI)v1

=

0

Av1

=

λv1

2

v2

:=

(A − λI)v3 = (A − λI) v

v1

:=

(A − λI)v2 = (A − λI)3 v



2



Herramientas de A.L.– p.41/64

Formas de Jordan • Se obtiene,

h

A v1 |

v2

v3 {z Q

i

h

v4 = v1 } |

v2

v3 {z Q



λ

i 0 v4   } 0 0 |

1



0

0

λ

1

0

λ

0

0

 0  1  λ }

{z

¯ A:=J

• J en este caso es un bloque de Jordan de orden 4 • Considérese la matriz A ∈ R5×5 con autovalor λ1 de multiplicidad 4 y autovalor ¯ = Q−1 AQ. tal simple λ2 . Entonces existe una matriz no singular Q tal que A ¯ asume una de las siguientes formas según la nulidad de (A − λ1 I). que A

Herramientas de A.L.– p.42/64

Formas de Jordan 

0 0  0   0 λ2





λ1 1 0 0  0 λ1 1 0 ¯ A1 =   0 0 λ1 1 0 0 0 λ1 0 0 0 0 Nulidad = 1 λ1 1 0 0  0 λ1 0 0 ¯ A4 =   0 0 λ1 0 0 0 0 λ1 0 0 0 0 Nulidad = 3



0 0  0   0 λ2



0 0  0   0 λ2





λ1 1 0 0  0 λ1 1 0 ¯ A2 =   0 0 λ1 0 0 0 0 λ1 0 0 0 0 Nulidad = 2 λ1 0 0 0  0 λ1 0 0 ¯ A5 =   0 0 λ1 0 0 0 0 λ1 0 0 0 0 Nulidad = 4





λ1 1 0 0  0 λ1 0 0 ¯ A3 =   0 0 λ1 1 0 0 0 λ1 0 0 0 0 Nulidad = 2



0 0  0   0 λ2

0 0  0   0 λ2

Herramientas de A.L.– p.43/64

Formas de Jordan Las formas de Jordan permiten establecer muchas propiedades generales de las matrices. Ejemplos: • Ya que det(CD) = detC detD y detQdetQ−1 = detI = 1, de A = QAQ−1 se obtiene, −1 ¯ ¯ = detA detA = detQdetAdetQ •

¯ = producto de todos los autovalores de A detA

• Se concluye que A es no singular si y solo si no tiene ningún autovalor cero. Para un bloque de Jordan de orden n la matriz (J − λI) es nilpotente, (J − λI) k = 0, para k ≥ n.

Herramientas de A.L.– p.44/64

Funciones de matrices cuadradas Teorema de Cayley-Hamilton Sea 4(λ) = λn + α1 λ(n−1) + . . . + αn el polinomio característico de A. Entonces el polinomio matricial 4(A) cumple, 4(A) , An + α1 A(n−1) + . . . + αn I = 0 El teorema implica que An se puede escribir como una combinación lineal de las potencias de A de 0 a n. Más aún, todo polinomio matricial f (A) puede escribirse, con coeficientes βi apropiados como, f (A) = β0 I + β1 A + . . . + βn−1 An−1 El polinomio matricial de menor grado que satisface A se denomina polinomio mínimo . Cuando los autovalores de A son de multiplicidad 1, el polinomio mínimo es el polinomio característico. Herramientas de A.L.– p.45/64

Funciones de matrices cuadradas Cuando los autovalores de A se repiten, el polinomio mínimo puede ser de grado menor a n y se expresa como, Y (λ − λi )n¯ i Ψ(λ) = i

siendo n ¯ i ≤ n la dimensión del bloque de Jordan más grande asociado al autovalor λi . Cuando el polinomio mínimo se conoce, la función polinómica matricial f (A) puede expresarse como combinación lineal del conjunto de potencias de A {I, A, . . . , A (¯n−1) }. Evaluación de funciones matriciales Un polinomio f (λ) puede dividirse por 4(λ) (o preferiblemente Ψ(λ) ) para obtener f (λ) = q(λ)4(λ) + h(λ). Entonces, f (A) = q(A)4(A) = h(A)

Herramientas de A.L.– p.46/64

Funciones de matrices cuadradas Teorema (Evaluación de una función matricial). Los coeficientes ηi de h(λ) = ηn−1 λ(n−1) + . . . + η1 λ + η0 tales que f (A) = h(A) se pueden calcular resolviendo el sistema de n ecuaciones algebráicas f (k) (λi ) = h(k) (λi ), para k = 0 . . . ni − 1 y i = 1, 2 . . . m siendo el polinomio característico 4(λ) =

Qm

i=1 (λ

− λi )

ni

con

Pm

i=1

ni = n, y donde

k d f (λ) d h(λ) (k) (k) y h (λi ) , f (λi ) , k dλ dλk λ=λi λ=λi k

Dada una función matricial más general (no polinómica), el teorema anterior aún puede usarse definiendo f (A) = h(A)

Herramientas de A.L.– p.47/64

Funciones de matrices cuadradas Ejemplos: 

0

 • Mostrar que eAt para A = 0  1

0 1 0

−2





2et − e2t

   0 0  es  3 e2t − et

0 e

t

0

2et − 2e2t 0

2e2t − et

• Mostrar lo mismo a partir de la matriz de Jordan equivalente de A.

   

Herramientas de A.L.– p.48/64

Funciones de matrices cuadradas Diferenciación e integración: Se definen elemento a elemento, Z

t

A(τ )dτ

=

0

d A(t) = dt

Z

t

aij (τ )dτ 0

d aij (t) dt

Se pueden comprobar las propiedades: d ˙ ˙ [A(t)B(t)] = A(t)B(t) + A(t)B(t) dt Z t d A(τ )dτ = A(t) dt 0

Herramientas de A.L.– p.49/64

Funciones de matrices cuadradas Exponencial matricial: De la expansión en S. Taylor e = 1 + se concluye que ∞ k X t k A eAt = I + At + . . . = k! λt

λt 1

+ ... +

λn t n n!

+ . . .,

k=0

y se obtienen las propiedades,

e0

=

I

eA(t1 +t2 )

=

eAt1 eAt2

(eAt )−1 d At e dt

=

e−At

=

AeAt = eAt A

En Matlab, eAt = expm(A).

Herramientas de A.L.– p.50/64

Formas cuadráticas Dada una matriz M ∈ Rn×n , la función escalar xT Mx, donde x ∈ Rn , es una forma cuadrática . • Sin pérdida de generalidad se puede tomar M como simétrica, M = MT , ya que toda matriz M puede descomponerse en la suma de una matriz simétrica M s y una antisimétrica Mas (M = Ms + Mas )y además, xT Mas x = 0

∀x

• Los autovalores de una matriz simétrica son todos reales, ya que para todo autovalor λ con autovector v de M = MT , 1. El escalar v∗ Mv (donde v∗ denota la transpuesta conjugada de v) es real: (v∗ Mv)∗ = v∗ M∗ v = v∗ Mv 2. λ debe ser real, dado que v∗ Mv = v∗ λv = λ(v∗ v) .

Herramientas de A.L.– p.51/64

Formas cuadráticas • Toda matriz real simétrica es diagonalizable, es decir, el orden de su mayor bloque de Jordan es 1. Luego existen matrices Q ∈ Rn×n y D ∈ Rn×n no singular tal que, M = QDQ−1 . • Como M es simétrica y D diagonal, se cumple M = QDQ−1 = (QDQ−1 )T = (Q−1 )T DQT , lo que implica QT = Q−1 y por tanto QT Q = I. La matriz D en consecuencia tiene sus columnas ortonormales entre sí y tal matriz se denomina ortogonal .

• Las formas cuadráticas cumplen con la desigualdad de Rayleigh-Ritz que dice que para cualquier x ∈ Rn , λmin xT x ≤ xT Mx ≤ λmax xT x

Herramientas de A.L.– p.52/64

Matrices definidas Definición: (Matriz definida y semi-definida positiva). • Una matriz simétrica M se dice definida positiva, (denotada M > 0), si xT Mx > 0 para todo vector x ∈ Rn no nulo.

• Es semi-definida positiva, (denotada M ≥ 0), si xT Mx ≥ 0 para todo vector x ∈ Rn no nulo. Si M es semi-definida positiva, entonces existe algún x no nulo tal que xT Mx = 0 Definición (Menores principales). Sea una matriz simétrica M ∈ R n×n , entonces los primeros menores principales de la matriz M denotados por M (1, 2, . . . , p), con p = 1, 2, . . . , n son los determinantes de las submatrices de la esquina superior izquierda de M.

Herramientas de A.L.– p.53/64

Matrices definidas Teorema (Matriz definida (semi-definida) positiva). Una matriz simétrica M es definida positiva (semi-definida positiva) si y solo si cualquiera de las siguientes condiciones se satisface: 1.

Cada uno de sus autovalores es positivo (no negativo).

2.

Todos primeros menores principales son positivos (todos sus menores principales son no negativos).

3.

Existe una matriz no singular N ∈ Rn×n (una matriz singular N ∈ Rn×n , o una matriz N ∈ Rm×n , con m 0 = λr+1 = . . . = λp , Los valores singulares de la matriz A son p σ i , λi ,

i = 1, . . . , p.

Herramientas de A.L.– p.55/64

Descomposición SVD Por el Teorema de matrices positivas, para M = AT A existe una matriz ortogonal V tal que VT AT AV = D = ST S , donde D es una matriz diagonal con los σi2 en la diagonal. La matriz S ∈ m × n con los σi en la diagonal. Teorema (Descomposición en Valores Singulares). Para toda matriz A ∈ Rm×n , existen matrices ortonormales U ∈ Rm×m y V ∈ Rn×n , con σ1 ≥ σ2 ≥ . . . ≥ σp ≥ 0 tales que (VT AT UUT AV = ST S),   σ1

0

...

0

0

...

0

0  .  ..   UT AV = S ,  0  0   .. .

σ2 .. .

... .. .

0 .. .

0 .. .

...

0

...

σr

0

...

0 .. .

...

0 .. .

...

...

0 .. .

0  ..   .

0

...

0

0

...

0

...

...

  0  ..  .

,

0

0

m×n

A = USVT

Herramientas de A.L.– p.56/64

Descomposición SVD i

h

h

i

Los vectores en las columnas de U = u1 , . . . , um y V = v1 , . . . , vn son los vectores singulares izquierdos y derechos respectivamente de A. Es fácil verificar comparando las columnas de las ecuaciones AV = US y AT U = VST que Avi

=

σ i ui

T

=

σ i vi

A ui

)

i = 1, . . . , p = mín(m, n).

La descomposición en valores singulares (SVD) revela muchas propiedades de la matriz A. Por ejemplo, si r es el índice del valor singular positivo más pequeño, entonces • El rango de A = rango (UT SV) = rango (S) = r • Los vectores {vr+1 , . . . , vn } son una base ortonormal del espacio nulo de A • Los vectores {u1 , . . . , ur } son una base ortonormal de la imagen de A.

Herramientas de A.L.– p.57/64

Descomposición SVD

u2 v1

u1 v2

• Sea x = {x1 , x2 } tal que ||x|| = 1. Esto representa el círculo en azul de la gráfica. La imágen del círculo a través de una matriz A ∈ R2×2 es la elipse en rojo de la gráfica. • Si se definen dos vectores (radios de la circunferencia) v1 , v2 , perpendiculares entre sí (ortonormales), es claro que la imágen de esos vectores serán los semiejes de la elipse y serán también ortogonales.

Luego, existen vectores unitarios (ortonormales) u1 , u2 asociados a esos semiejes tales que Av1 = σ1 u1 , Av2 = σ2 u2 y en consecuencia σ1 , σ2 son las longitudes de los semiejes de la elipse. Los valores singulares de la matriz A dan una idea acerca de la distorsión máxima y mínima que sufre la imágen de un vector x a través de la matriz A. Herramientas de A.L.– p.58/64

Descomposición SVD • Los valores singulares representan precisamente las longitudes de los semiejes del hiper-elipsoide E = {Ax : ||x|| = 1}. La Figura muestra el conjunto E para una matriz A con σ1 = 0, 8, σ2 = 0, 6, σ3 = 0, 4. 1

σ3

0.5

0

σ2

σ1

−0.5

−1 1 1

0.5 0.5

0

0

−0.5

−0.5 −1

−1

• A partir de A = USVT , se obtiene, A=

r X

σi ui viT

i=1

Herramientas de A.L.– p.59/64

Aplicación a compresión de imágenes Una imágen en escala de grises se almacena como una matriz A i,j , donde el término ai,j es el nivel de gris del pixel en la posición (i, j). Para una imágen de 1024 × 1024 pixeles , se tiene un requerimiento de memoria de 1 MB. Usando la SVD, se tiene una aproximación de la forma, A=

r X

σi ui viT

i=1

donde el rango r ≤ 1024 en este caso. Tomando solo k términos de la sumatoria, puede obtenerse una aproximación de la imágen donde se requiere almacenar solo k columnas de V y de U y k valores singulares de la imágen (En el ejemplo, k(1 + 1024 + 1024) Bytes).

Herramientas de A.L.– p.60/64

Aplicación a compresión de imágenes Al aplicarle SVD con k=1:

Al aplicarle SVD con k=50:

Al aplicarle SVD con k=100:

Al aplicarle SVD con k=200:

Herramientas de A.L.– p.61/64

Aplicación a pseudoinversa La aplicación más común, es el uso de la SVD para el cálculo de la pseudoinversa. UT AV AV A

= S = US = USVT

Ax

= y

USVT x

= y

SVT x VT x x

= UT y = S + UT y + T = VS | {zU } y A+

Donde S+ se conforma a partir de S T , y substituyendo sus elementos σi no cero por el valor 1/σi . Herramientas de A.L.– p.62/64

Aplicación a Norma de Matrices En MATLAB la función [U, S, V] = svd(A) calcula los valores y vectores singulares. • Sea A una matriz m × n. La norma inducida de A se define como, k A k= m´ ax x6=0

k Ax k = sup k Ax k kxk kxk=1

• Cuando la norma vectorial utilizada es la norma dos, la norma inducida se llama también norma espectral . • Una propiedad importante de la norma espectral, es que ésta puede calcularse como k A k= σmax √ siendo σmax el máximo valor singular de A (σi = λi ), siendo λ los valores singulares de la matriz AT A

Herramientas de A.L.– p.63/64

Aplicación a Norma de matrices La norma espectral de una matriz A en MATLAB se calcula con norm(A). Algunas propiedades útiles de la norma espectral de matrices: 1. 2. 3.

k Ax k≤k A kk x k.

k A + B k≤k A k + k B k. k AB k≤k A kk B k.

Se define el número de condición de A , como cond(A) =

σmax σmin

Una matriz se dice mal condicionada numéricamente, si el inverso del número de condición es del mismo orden de la precisión usada para los cálculos en la máquina.

Herramientas de A.L.– p.64/64

Get in touch

Social

© Copyright 2013 - 2024 MYDOKUMENT.COM - All rights reserved.