1 Aplicaciones lineales

´ UNIVERSIDAD POLITECNICA DE CARTAGENA Departamento de Matem´atica Aplicada y Estad´ıstica Aplicaciones lineales y diagonalizaci´ on. El objetivo prin

4 downloads 113 Views 216KB Size

Recommend Stories


Aplicaciones lineales y matrices
Tema 2 Aplicaciones lineales y matrices. 2.1. Introducci´ on. Supondremos al alumno familiarizado con la idea de matriz o tabla de orden n, m con n,

Aplicaciones Lineales del Amplificador Operacional
3y4 Aplicaciones Lineales del Amplificador Operacional Esta Práctica permite un primer contacto con el uso del amplificador operacional de tensión com

Story Transcript

´ UNIVERSIDAD POLITECNICA DE CARTAGENA Departamento de Matem´atica Aplicada y Estad´ıstica Aplicaciones lineales y diagonalizaci´ on. El objetivo principal de este tema ser´a la obtenci´on de una matriz diagonal semejante a una matriz dada. Esto es una herramienta muy u ´til que nos permite por ejemplo calcular con pocas operaciones potencias de matrices de cualquier orden. Tambi´en se puede usar para resolver ciertos sistemas de ecuaciones diferenciales, para estudiar la convergencia de ciertas sucesiones de varias variables adem´as de un n´ umero grande de otras aplicaciones. Empecemos primero con unas nociones algebraicas que ser´an necesarias.

1

Aplicaciones lineales

Definici´ on 1. Dados dos espacios vectoriales V y W sobre un mismo cuerpo K, diremos que una aplicaci´on f : V → W es una aplicaci´ on lineal u homomorfismo si para cualquier par de vectores u, v ∈ V y para cualquier λ ∈ K se cumple que f (u + v) = f (u) + f (v), f (λ · u) = λ · f (u). Si V = W diremos que f es un endomorfismo. on nula o la aplicaci´ on identidad de un espacio vectorial en si mismo Ejemplo 2. La aplicaci´ son aplicaciones lineales. Ejemplo 3. Sea C(R) el conjunto de todas las aplicaciones reales continuas y D(R) el conjunto de todas las aplicaciones reales derivables. Si consideramos la aplicaci´ on ϕ : D(R) → C(R) que a cada f ∈ D(R) asocia su derivada, tendremos que ϕ es una aplicaci´ on lineal. Proposici´ on 4. Sea f : V → W una aplicaci´ on lineal. Tenemos las siguientes propiedades inmediatas: P P (i) f ( λi vi ) = λi f (vi ) para todo vi ∈ V y λi ∈ K. (ii) f (0) = 0. on de aplicaciones lineales es una aplicaci´ on lineal. (iii) La composici´ (iv) Si {u1 , u2 , . . . , un } es un conjunto linealmente dependiente, entonces {f (u1 ), f (u2 ), . . . , f (un )} es un conjunto linealmente dependiente. ucleo de f que se denotar´a Definici´ on 5. Dada una aplicaci´on lineal f : V → W , se define el n´ por ker f como ker f = {v ∈ V : f (v) = 0}. Definici´ on 6. Dada una aplicaci´on f : A → B entre dos conjuntos, se define la imagen de f que se denotar´a por im f como im f = {b ∈ B : existe a ∈ A tal que f (a) = b}. 1

Proposici´ on 7. Dada una aplicaci´ on lineal f : V → W , los conjuntos ker f e im f son subespacios vectoriales de V y W respectivamente. La dimensi´on de im f se denota por rango de f . Teorema 8. Sea f : V → W una aplicaci´ on lineal. Si V es de dimensi´on finita se tiene que dim V = dim ker f + dim im f. Recordemos que una aplicaci´on f : A → B es inyectiva si cada vez que se tiene que a 6= b entonces f (a) 6= f (b) y es suprayectiva (o sobreyectiva) cuando la imagen de f coincide con B. Cuando pasen ambas cosas se dice que f es biyectiva. Definici´ on 9. Diremos que una aplicaci´on lineal es un monomorfismo cuando sea inyectiva, que es un epimorfismo cuando sea suprayectiva y que es un isomorfismo cuando sea biyectiva. Si el espacio de partida y de llegada es el mismo, diremos que la aplicaci´on es un endomorfismo. Proposici´ on 10. Sea f : V → W una aplicaci´ on lineal. (i) f es inyectiva si, y s´olo si ker f = {0}. (ii) Si f es inyectiva y u1 , u2 , . . . un ∈ V es un conjunto de vectores linealmente independientes, entonces f (u1 ), f (u2 ), . . . , f (un ) ∈ W tambi´en son linealmente independientes.

2

Matriz asociada a una aplicaci´ on lineal

Proposici´ on 11. Dados dos espacios vectoriales V y W sobre un cuerpo K, sea {e1 , e2 , . . . , en } una base de V y sean w1 , w2 , . . . wn ∈ W . Entonces existe una u ´nica aplicaci´ on lineal f : V → W tal que f (ei ) = wi para i = 1, 2, . . . , n. Teorema 12. Sea f : V → W una aplicaci´ on lineal, sea B = {e1 , e2 , . . . , en } una base de V 0 y sea B = {w1 , w2 , . . . , wm } una base de W . Entonces existe una u ´nica matriz A = (aij )mxn tal que para todo v ∈ V , si (x1 , x2 , . . . , xn ) son las coordenadas de v en la base B se tiene que      y1 x1 a11 a12 · · · a1n      y2    x2    a a · · · a 21 22 2n      . =  .    ..    .. .. ..  ... .     . . .  .       am1 am2 · · · amn ym xn donde (y1 , y2 , . . . ym ) son las coordenadas de f (v) en la base B 0 . 0

La matriz del teorema anterior se denotar´a como M (f )BB 0 o M (f )B B y la llamaremos la matriz asociada a f respecto las bases B y B 0 . Observemos que en el teorema anterior, si el vector v fuese un ei de la base entonces sus coordenadas ser´ıan todas 0 salvo la que estuviese en la posici´on i. Teniendo esto en cuenta, al multiplicar la matriz A por las coordenadas del vector ei obtendr´ıamos la fila i-´esima de la matriz A. Por lo tanto se tiene el siguiente resultado: on anterior est´a formada Proposici´ on 13. La columna i-´esima de la matriz A de la proposici´ 0 por las coordenadas en la base B de la imagen del i-´esimo elemento de la base B. 2

Corolario 14. El rango de una aplicaci´ on lineal f coincide con el rango de cualquier matriz asociada a f . Proposici´ on 15. Sean f : V → W y g : V → W aplicaciones lineales entre espacios vectoriales sobre un cuerpo K. Sea B una base de V y B 0 una base de W y denotemos por A1 la matriz asociada a f respecto dichas bases y A2 la matriz asociada a g. Si λ, µ ∈ K se tiene que la matriz asociada a λf + µg es λA1 + µA2 . Proposici´ on 16. Sean f : U → V y g : V → W aplicaciones lineales entre espacios vectoriales sobre un cuerpo K. Sea B1 una base de U , B2 una base de V y B3 una base de W . Entonces B3 B2 3 M (g ◦ f )B B1 = M (g)B2 · M (f )B1 . Consideremos ahora una aplicaci´on lineal f : V → W , sean B1 , B2 dos bases de V y sean B10 , B20 bases de W . Parece natural preguntarse qu´e relaci´on habr´a entre las matrices asociadas a la aplicaci´on lineal f respecto las distintas bases. Y lo que se tiene es lo siguiente: B0

B0

B0

M (f )B22 = MB 02 · M (f )B11 · MBB21 . 1

La igualdad anterior puede parecer complicada, pero en el fondo no lo es tanto. Para ver que es cierto, basta con coger las coordenadas de un vector v en la base B2 , ponerlas como una matriz columna y multiplicarlas a la derecha de los miembros de la desigualdad anterior. Al multiplicarse por la matriz MBB21 , obtendremos las coordenadas de v en la base B1 . Al B0

multiplicar los que nos de por M (f )B11 obtendremos las coordenadas de f (v) en la base B10 . B0

Por u ´ltimo, al volver a multiplicar por MB 02 , llegaremos a las coordenadas de f (v) en la base 1 B20 . Efectivamente ocurre entonces lo que tendr´ıa que ocurrir si multiplic´asemos directamente B0 por M (f )B22 y de ah´ı que la igualdad sea cierta. no son equivalentes si est´an Definici´ on 17. Se dice que dos matrices A y B de igual tama˜ asociadas a la misma aplicaci´on lineal (respecto a bases adecuadas). Por lo que acabamos de ver, esto es equivalente a la existencia de matrices regulares cuadradas P y Q tales que B = QAP (P y Q ser´ıan matrices de cambio de base).

3

Diagonalizaci´ on

Como hemos visto en la secci´on anterior, a una misma aplicaci´on lineal se le puede asociar varias matrices, dependiendo de las bases que consideremos. Es interesante escoger las bases de forma que la matriz asociada obtenida sea lo m´as sencilla posible para poder trabajar c´omodamente con ella. El objetivo en esta secci´on es ese en el caso particular de que el espacio de partida y de llegada de la aplicaci´on lineal sea el mismo y adem´as cogiendo la misma base tanto de partida como de llegada. no son semejantes si est´an Definici´ on 18. Se dice que dos matrices A y B de igual tama˜ asociadas al mismo endomorfismo tomando en cada caso la misma base de partida que de llegada, es decir, existe una matriz regular cuadradas P tal que B = P −1 AP . Definici´ on 19. Sea f : V → V un endomorfismo. Se dice que un subespacio W de V es invariante si f (W ) ⊂ W .

3

Definici´ on 20. Sea f : V → V un endomorfismo. Se dice que un vector no nulo v ∈ V es un vector propio o autovector si existe λ ∈ K tal que f (v) = λv. En tal caso a λ se le llama valor propio o autovalor. Imaginemos que tenemos una base B = {e1 , e2 , . . . , en } de vectores propios de V y consideremos que A es la matriz asociada a f en esta base. Sabemos que la columna i-´esima de A consiste en coger la imagen de ei y ponerla en coordenadas respecto B, pero como f (ei ) = λi ei para alg´ un λi tendremos que estas coordenadas ser´an todas 0 salvo en la posici´on i-´esima donde valdr´a λi . Tenemos por lo tanto el siguiente resultado: Proposici´ on 21. Sea f : V → V un endomorfismo y supongamos que tenemos una base de valores propios B = {e1 , e2 , . . . , en } de V formada por valores propios. Sea λi el valor propio asociado a ei . Tenemos entonces que   λ1 0 · · · 0    0 λ2 · · · 0    M (f )B  B =  . . . .  .. .. . . ..    0 0 · · · λn Rec´ıprocamente, si la matriz asociada a f respecto a una base es diagonal, entonces los vectores de la base son todos vectores propios. Definici´ on 22. Se dice que una matriz A de tama˜ no nxn es diagonalizable si existe una −1 matriz regular P de tama˜ no nxn tal que D = P AP es una matriz diagonal. El problema de diagonalizar una matriz consiste entonces en encontrar una base de vectores propios. Desgraciadamente esto no se podr´a hacer siempre por lo que nos encontraremos con matrices que son diagonalizables y otras que no lo son. Primero veamos c´omo podemos calcular los valores propios de una aplicaci´on lineal f : V → V . Est´a claro que si I : V → V es la aplicaci´on identidad, entonces λ ser´a un valor propio si, y s´olo si el n´ ucleo de f − λI contiene alg´ un vector no nulo (que ser´a un vector propio asociado a λ). Ahora bien, por el Teorema 8 tendremos entonces que el rango de f −λI no es m´aximo y en particular tendremos que el determinante de la matriz asociada de f − λI (respecto cualquier base) es 0. Por lo tanto tenemos que: Proposici´ on 23. Sea f : V → V un endomorfismo y sea A la matriz asociada respecto cierta base de V . Entonces λ es un valor propio de f si, y s´olo si det(A − λI) = 0. Definici´ on 24. Dada una matriz cuadrada de tama˜ no nxn sobre un cuerpo K. Se define el polinomio caracter´ıstico de A como el polinomio (con variable λ) que se obtiene al calcular p(λ) = det(A − λI). As´ı que para calcular los valores propios de un endomorfismo o matriz, basta con calcular su polinomio caracter´ıstico y calcular sus ra´ıces, es decir, las soluciones que dan de la ecuaci´on obtenida de igualar el polinomio a 0. Podemos hablar del polinomio caracter´ıstico de un endomorfismo ya que las matrices semejantes tienen el mismo polinomio caracter´ıstico. Definici´ on 25. Sea f : V → V un endomorfismo y λ un valor propio. Se llama subespacio propio correspondiente a λ al subconjunto E(λ) = ker(f − λI). 4

Observemos que E(λ) es un espacio vectorial invariante formado por el vector 0 y por todos los vectores propios asociados al valor propio λ. Si A es una matriz asociada a f , la dimensi´on de E(λ) es dim ker(f − λI) = dim V − dim im(f − λI) = dim V − rg(A − λI). Para calcular E(λ) tendremos que resolver el sistema de ecuaciones (A − λI)X = 0 (donde X es un vector columna de n inc´ognitas). Proposici´ on 26. Sea f : V → V un endomorfismo y λ una ra´ız del polinomio caracter´ıstico de f de multiplicidad m. Entonces 1 ≤ dim E(λ) ≤ m. Teorema 27. Una matriz de tama˜ no nxn es diagonalizable si, y s´olo si la suma de las multiplicidades de las ra´ıces del polinomio caracter´ıstico es n y para cara ra´ız λ se tiene que dim E(λ) es igual a la multiplicidad de dicha ra´ız. Resumiendo, para diagonalizar una matriz A lo primero que tenemos que hacer es calcular su polinomio caracter´ıstico y sacar sus ra´ıces. Si la matriz es diagonalizable, su diagonal va a estar formada por las ra´ıces del polinomio repetidas seg´ un su multiplicidad. Luego para cada valor propio λ se calcula E(λ) resolviendo el sistema (A − λI)X = 0. Si la matriz es diagonalizable, podremos sacar una base de E(λ) de tantos vectores como multiplicidad tenga λ. Por u ´ltimo, si la matriz es diagonalizable, al unir las bases que hemos ido obteniendo obtendremos una base de n vectores propios. Si escribimos estos vectores en columna formando una matriz P esta ser´a la de cambio de base y por lo tanto D = P −1 AP donde D es la matriz diagonal formada por los valores propios contando multiplicidad. Importante: es importante mantener el orden, es decir, el valor propio colocado en la columna i de la matriz D debe de estar asociado al vector propio cuyas coordenadas est´an en la columna i-´esima de P . Tambi´en es importante conservar el orden en el que se multiplican las matrices.

4

Aplicaci´ on

Como hemos dicho al principio del tema, una aplicaci´on es la de calcular potencias de matrices de una forma sencilla. Observemos que la potencia de una matriz diagonal es sencilla de calcular ya que es simplemente hacer la potencia de cada elemento de su diagonal, pero no podemos hacer lo mismo con una matriz cualquiera. Sin embargo, si tenemos una matriz A diagonalizable, tendremos que hay una expresi´on de la forma D = P −1 AP donde D es una matriz diagonal. Esta expresi´on se puede escribir tambi´en como A = P DP −1 y por lo tanto An = P DP −1 P DP −1 . . . P DP −1 (n veces). Simplificando tendremos que An = P Dn P −1 que nos simplificar´a mucho los c´alculos ya que bastar´a hacer la potencia de una matriz diagonal y 2 productos matriciales. Bueno, tambi´en tendremos que calcular D, P y P −1 pero ser´a menos costoso que calcular directamente An por ejemplo en el caso n = 1000. 5

Get in touch

Social

© Copyright 2013 - 2024 MYDOKUMENT.COM - All rights reserved.