Story Transcript
Tema 1
Sistemas de ecuaciones lineales y ´ algebra matricial
La resoluci´on de ecuaciones, ya sean algebraicas, diferenciales o de cualquier otro tipo, es quiz´as el problema central del ´algebra, y por ende, uno de los problemas b´asicos de las matem´aticas. A lo largo de este curso nos vamos a ocupar de las llamadas ecuaciones lineales, ya sean estas algebraicas o diferenciales. El inter´es de estas es m´ ultiple. Algunas razones que motivan este inter´es son: Son el tipo de ecuaciones m´as simple. Mediante ecuaciones lineales se modeliza una enorme cantidad de fen´omenos en las m´as variadas disciplinas. Muchos modelos, aunque no sean lineales, pueden reducirse a uno lineal con una buena aproximaci´on. Disponemos de m´etodos eficaces de resoluci´on. Comenzamos aqu´ı tratando en primer lugar las ecuaciones lineales. En lo que sigue, los coeficientes que aparecen en las ecuaciones se suponen reales o complejos. Ejemplo 1.1 Consideremos un circuito el´ectrico como en la figura adjunta. Seg´ un una de las leyes de Kirchoff, la suma de las intensidades que entran en cada nodo es igual a la suma de las que salen. As´ı, las intensidades en el circuito verifican el siguiente sistema de ecuaciones: −I1 I1
+I2 −I2
−I4 −I3 +I3
−I6 I4
+I5 −I5
+I6
= = = =
0 0 0 0.
El c´alculo de las posibles intensidades requiere resolver un sistema de 4 ecuaciones lineales con 6 inc´ognitas. Observemos que “a ojo”se encuentra una soluci´on de la ecuaci´on: I1 = I2 = I3 = I4 = I5 = I6 = 0. Esta soluci´on representa el caso en que no pasa corriente (soluci´on trivial). Habitualmente estamos interesados en el resto de las soluciones. Por otra parte, veremos m´as tarde que el sistema anterior tiene m´ ultiples soluciones. Una de ellas, podemos comprobar que es I = (8, 2, 3, −6, −1, 5). Dado que las intensidades de corriente no pueden ser n´ umeros negativos, tambi´en deber´ıamos descartar
´ TEMA 1. SISTEMAS DE ECUACIONES LINEALES Y ALGEBRA MATRICIAL
2
esta soluci´on. Estas y otras consideraciones muestran que a la hora de resolver un sistema (o en general cualquier problema matem´atico), adem´as de las consideraciones de tipo puramente matem´atico debemos tener en cuenta otras muchas derivadas de la naturaleza del problema inicial. 3 s ¡@ @ ¡ @ ¡ @ I5 6 ¡ @ ¡ @ I3 ¡ ª s I2 ¡ ©H @ © HH I @ 4 © ¡ @ © H © H ¡ © HH @ I I 4 6 © ¡ ©© * YH @ H HH@ ¡©© © H@ ¡ © s¡ Hs 1 2 I1
1.1.
Sistemas de ecuaciones lineales
Llamaremos sistema lineal de n tipo a11 x1 a21 x1 .. . an1 x1
ecuaciones y m inc´ ognitas a un conjunto de expresiones del +a12 x2 +a22 x2
+··· +···
+a1m xm +a2m xm .. .
= =
b1 b2 .. .
+an2 x2
+···
+anm xm
= bn ,
donde aij ∈ K (K = R, C ´o cualquier otro cuerpo). Una soluci´on del sistema es una familia de n´ umeros x1 , . . . , xm ∈ K que satisfagan las igualdades anteriores. Diremos que un sistema es: Incompatible, si no tiene ninguna soluci´on. Compatible, si tiene alguna soluci´on. Si un sistema es compatible, diremos que es: Determinado, si hay una u ´nica soluci´on. Indeterminado, si tiene varias soluciones. Ejemplo 1.2 1.
El sistema
2x1 − 3x2 2x1 − 3x2
= 1 = 2.
2x1 − 3x2 x1 + 2x2
= =
es incompatible. 2.
El sistema
−1 3
es compatible. Su u ´nica soluci´on es x1 = 1, x2 = 1. 3.
El sistema
x1 − 2x2 + x3 2x1 + x2 − x3
= 0 = 2
1.1. SISTEMAS DE ECUACIONES LINEALES
3
es compatible indeterminado. Si a es un n´ umero real cualquiera, x1 = 1 + a, x2 = 1 + 3a, x3 = 1 + 5a son soluciones. As´ı pues, el estudio de un sistema de ecuaciones lineales implica el tratamiento de dos problemas: 1.
Discusi´on de la compatibilidad del sistema, y en su caso, de la unicidad de la soluci´on.
2.
C´alculo de la(s) soluciones, caso de que existan.
El m´etodo que expondremos aqu´ı para la discusi´on y resoluci´on de un sistema es el m´ etodo de Gauss, o eliminaci´ on gaussiana. Este m´etodo consta de dos fases: 1.
Eliminaci´on.
2.
Sustituci´on regresiva.
La idea b´asica en la que se basa este (y otros) m´etodos de resoluci´on es la de convertir el sistema en uno equivalente, y que sea m´as sencillo de resolver. Definici´ on 1.3 Dos sistemas del mismo tama˜ no son equivalentes si tienen el mismo conjunto de soluciones. Para transformar un sistema en otro equivalente empleamos las llamadas operaciones elementales con el sistema. Se denominan operaciones elementales a las siguientes: 1.
A˜ nadir a una ecuaci´on un n´ umero multiplicado por otra.
2.
Multiplicar una ecuaci´on por un n´ umero a 6= 0.
3. Intercambiar dos ecuaciones. Teorema 1.4 Si un sistema (S 0 ) se obtiene a partir de otro (S) aplicando una sucesi´on de operaciones elementales, entonces (S) y (S 0 ) son equivalentes. Demostraci´ on : Daremos una idea de la prueba. Observemos que basta considerar el caso en que (S 0 ) se obtiene a partir de (S) empleando una u ´nica operaci´ on elemental (¿por qu´e?). Supongamos que (S 0 ) se obtiene de (S) aplicando una operaci´ on de tipo 1. Para simplificar, supongamos que a la segunda ecuaci´ on de (S) le hemos sumado la primera multiplicada por c. Es decir, si (S) es a11 x1 + a12 x2 + · · · + a1m xm a21 x1 + a22 x2 + · · · + a2m xm ···
= =
b1 b2 ··· ,
entonces (S 0 ) es a11 x1 + a12 x2 + · · · + a1m xm (a21 + ca11 )x1 + (a22 + ca12 )x2 + · · · + (a2m + cx1m )xm ···
= =
b1 b2 + cb1 ··· .
Si los n´ umeros x1 , . . . , xm verifican (S), debemos comprobar que verifican (S 0 ). Para ellos, basta comprobar que verifican la segunda ecuaci´ on de (S 0 ) (puesto que las dem´ as no cambian), lo cual no presenta dificultad. Por tanto, toda soluci´ on de (S) es tambi´en soluci´ on de (S 0 ). Observemos ahora que las operaciones elementales son reversibles. Esto es, si (S 0 ) se obtiene de (S) por medio de una secuencia de operaciones elementales, tambi´en (S) se obtiene de (S 0 ) sumando a la segunda ecuaci´ on la primera multiplicada por −c. As´ı pues, aplicando el razonamiento anterior, toda soluci´ on de (S 0 ) es tambi´en soluci´ on de (S), y por consiguiente ambos sistemas tiene las mismas soluciones. Dejamos al lector analizar qu´e pasa si (S 0 ) se obtiene de (S) aplicando una operaci´ on de tipo 2 o de tipo 3.
´ TEMA 1. SISTEMAS DE ECUACIONES LINEALES Y ALGEBRA MATRICIAL
4
Los pasos, a grandes rasgos, del m´etodo de Gauss, en su forma m´as simplificada, son los siguientes: 1.
Eliminamos la inc´ognita x1 en todas las ecuaciones salvo la primera, empleando operaciones de tipo ai1 1. As´ı, se resta a la ecuaci´on i-´esima (i 6= 1) la primera multiplicada por . El t´ermino a11 se a11 ai1 llama pivote, y , multiplicador. a11
2.
Nos olvidamos de la primera ecuaci´on, y nos quedamos con el sistema de n − 1 ecuaciones y m − 1 inc´ognitas restante.
3.
Repetimos el proceso, eliminando x2 en todas las ecuaciones menos la segunda (que ahora es la primera).
4.
Continuamos hasta que nos quedemos sin ecuaciones, o sin inc´ognitas. Al final de esta fase, llegamos a un sistema escalonado, es decir, de la forma siguiente: a11 x1 + a12 x2 + a13 x3 + · · · a22 x2 + a23 x3 + · · · a33 x3 + · · · ···
= = =
b1 b2 b3 .
La fase de sustituci´ on regresiva comienza ahora: 1.
En la u ´ltima ecuaci´on que nos quede, despejamos una inc´ognita.
2.
Sustituimos el valor de esa inc´ognita en la pen´ ultima ecuaci´on, y despejamos la u ´ltima inc´ognita eliminada.
3.
Repetimos el proceso, sustituyendo el valor despejado en la ecuaci´on anterior, y despejando la inc´ognita anterior.
4.
As´ı sucesivamente, despejamos todas las inc´ognitas.
Ejemplo 1.5 Resolver el sistema
x1 −x1 2x1
+3x2 −x2 +9x2
+2x3 +3x3 +5x3
= = =
2 −5 6.
Eliminamos x1 . Para la segunda fila, el multiplicador es −1, y para la tercera, 2. x1
+3x2 2x2 +3x2
+2x3 +5x3 +x3
= = =
2 −3 2.
Eliminamos x2 . El multiplicador para la tercera fila es 3/2. x1
+3x2 2x2
+2x3 +5x3 − 13 2 x3
= = =
2 −3 13 2 .
Llegamos a un sistema escalonado, y comenzamos la sustituci´on regresiva. Despejamos x3 = −1. Sustituimos en la segunda ecuaci´on: 2x2 − 5 = −3 ⇒ 2x2 = 2. Despejamos x2 = 1. Sustituimos en la primera ecuaci´on: x1 + 3 − 2 = 2 ⇒ x1 = 1.
´ 1.2. ALGEBRA MATRICIAL
5
Ya est´a despejada x1 . En este ejemplo, no ha habido obstrucciones en la aplicaci´on del m´etodo, y hemos comprobado que el sistema original ten´ıa soluci´on u ´nica. Pero las cosas no siempre son tan f´aciles, y en ocasiones topamos con situaciones en las que se presentan problemas, y que hemos de saber interpretar, y en su caso, corregir. Veamos alguna de las cosas que pueden pasar: 1.
En el paso r-´esimo, la inc´ognita xr no aparece en la ecuaci´on r-´esima, pero s´ı en alguna de las siguientes. En este caso, debemos intercambiar el orden de ambas ecuaciones (operaci´on elemental de tipo 3) para poder continuar.
2.
Llegamos al paso r-´esimo, y la inc´ognita xr ha desaparecido de la ecuaci´on r-´esima, y de todas las siguientes. En este caso, seguimos el proceso con la inc´ognita xr+1 . Al final, si el sistema es compatible, la inc´ognita xr podr´a tomar cualquier valor, y en consecuencia el sistema ser´a indeterminado.
3.
Llegado el paso r-´esimo, la ecuaci´on r-´esima ha desaparecido, pero no as´ı alguna de las siguientes. Un cambio de orden de ecuaciones permite proseguir.
4.
Llegamos al paso r-´esimo y han desaparecido todas las ecuaciones, desde la ecuaci´on r-´esima en adelante. Damos aqu´ı por concluida la fase de eliminaci´on, y comenzamos la de sustituci´on regresiva.
5.
En la ecuaci´on r-´esima han desaparecido todas las inc´ognitas. Es decir, llegamos a una ecuaci´on del tipo 0 = b, con b 6= 0. El sistema es incompatible.
6.
El proceso de eliminaci´on ha concluido porque no nos quedan m´as ecuaciones. En la u ´ltima de ellas aparecen varias inc´ognitas. En este caso, debemos despejar una de ellas en t´erminos de las restantes. El sistema ser´a compatible indeterminado.
Lo anterior responde a los problemas de ´ındole algebraica o formal que podemos encontrar. Hay otros problemas, de ´ındole computacional o num´erica que no abordaremos aqu´ı y que nos obligan a modificar en ocasiones el algoritmo descrito anteriormente. Veremos ejemplos de todas las situaciones anteriores. Ejemplo 1.6 Anal´ıcense, y en su caso resu´elvanse, los sistemas de ecuaciones lineales siguientes: 1.
x1 + 2x2 − x3 + 3x4 x1 + 2x2 + 4x4 −2x1 + x3 + 3x4
= = =
1 0 3.
3.
x1 − 2x2 − 3x3 + 4x4 3x1 + x2 4x1 − x2 − 3x3 + 4x4 −2x1 − 3x2 − 3x3 + 4x4
= = = =
1.2.
0 2 2 −2.
2.
x1 + x2 + 3x3 x1 + x2 + 4x3 2x1 + 2x2 − 3x3
4.
2x1 + 3x2 − x3 2x1 + 4x2 + 4x3 −2x1 − 5x2 − 9x3
= 2 = −1 = 0. = = =
3 1 0.
´ Algebra matricial
En la manipulaci´on de los sistemas anteriores observamos que las operaciones las hacemos exclusivamente con los coeficientes. As´ı, para simplificar, podr´ıamos representar el sistema 2x1 x1 x1
−3x2 +x2 −3x2
+x3 −x3
+7x4 +2x4
= 3 = 0 = 1
´ TEMA 1. SISTEMAS DE ECUACIONES LINEALES Y ALGEBRA MATRICIAL
6
por medio del conjunto de n´ umeros
2 −3 1 1 1 −3
1 0 −1
0 3 7 0 . −2 1
Esto constituye una de las motivaciones de la introducci´on del concepto de matriz, as´ı como de la notaci´on matricial. Desarrollamos esta noci´on a lo largo del presente apartado, y posteriormente veremos como una matriz representa una aplicaci´on lineal, idea esta que permite una mejor interpretaci´on de gran n´ umero de conceptos del ´algebra lineal. As´ı, llamamos matriz de n filas y m columnas a un conjunto de nm coeficientes dispuestos rectangularmente como sigue: a11 a12 · · · a1m a21 a22 · · · a2m A= . .. .. . .. .. . . . an1 an2 · · · anm El conjunto de todas las matrices n × m con coeficientes sobre un cuerpo K se denotar´a Mn,m (K), o abreviadamente Mn,m si no ha lugar a especificar el cuerpo. Hay algunos tipos particulares de matrices, como son: 1.
Matrices cuadradas (n = m). Escribimos Mn .
2.
Matrices fila (n = 1), llamadas tambi´en vectores fila.
3.
Matrices columna (m = 1), llamadas tambi´en vectores columna.
En el conjunto Mn,m se define una operaci´on, la suma. Si A, B ∈ Mn,m , el coeficiente (i, j) (fila i, columna j) de A + B se define como la suma de los coeficientes (i, j) de A y de B. Esta operaci´on goza de algunas propiedades elementales: 1.
A + (B + C) = (A + B) + C.
2.
A + B = B + A.
3.
Si denotamos −A a la matriz obtenida tomando el opuesto de cada elemento de A, entonces A + (−A) = (−A) + A = 0 (denotamos 0 la matriz nula, aquella todos cuyos coeficientes son ceros).
4.
A + 0 = 0 + A = A.
As´ı, decimos que (Mn,m , +) es un grupo abeliano. Dada una matriz A ∈ Mn,m y un n´ umero a ∈ K, definimos el producto a · A ∈ Mn,m de tal forma que (a · A)i,j = a · (A)i,j (representamos Aij el elemento de la posici´on (i, j) de la matriz A). Esta nueva operaci´on verifica: 1.
a · (A + B) = a · A + a · B.
2.
(a + b) · A = a · A + b · A.
3.
(a · b) · A = a · (b · A).
4.
1 · A = A.
Ejercicio 1.7 Deducir de lo anterior que si a · A = 0, entonces o bien a = 0 o bien A = 0.
´ 1.2. ALGEBRA MATRICIAL
7
Soluci´ on.- Si a 6= 0, multiplicamos por 0=
1 a:
1 · (a · A) = a
µ
¶ 1 · a · A = 1 · A = A. a
Una tercera operaci´on con matrices es la multiplicaci´ on. Si A ∈ Mn,m y B ∈ Mm,p , definimos la matriz A · B ∈ Mn,p por m X (A · B)i,j = Aik · Bkj . k=1
Observemos en primer lugar que para multiplicar dos matrices A, B, es preciso que el n´ umero de columnas de la primera sea igual al n´ umero de filas de la segunda. Propiedades: 1.
A · (B · C) = (A · B) · C.
2.
A · (B + C) = A · B + A · C; (B + C) · A = B · A + C · A.
3.
a · (A · B) = (a · A) · B = A · (a · B).
4.
Denotamos In la matriz identidad de tama˜ no n, es decir, In es una matriz cuadrada de n filas y columnas tal que ( 0 si i 6= j (In )i,j = 1 si i = j. Es decir, tiene 1 en la diagonal principal, y 0 en el resto de las posiciones. Entonces, si A ∈ Mn,m : In · A = A · Im = A. Observaciones.-
1.
No es cierto, en general, que A · B = B · A. De hecho, en buena parte de los casos, la operaci´on A · B puede realizarse mientras que B · A no. Para que ambas puedan realizarse, es preciso que A ∈ Mn,m y B ∈ Mm,n . En este caso, A · B ∈ Mn y B · A ∈ Mm , y si n 6= m, no pueden ser iguales puesto que sus tama˜ nos difieren. Pero aunque n = m, no se da necesariamente la igualdad.
2.
Si A · B = 0, no es cierto que necesariamente A = 0 ´o B = 0. Por ejemplo, si µ ¶ µ ¶ 1 2 −6 2 A= ; B= , 2 4 3 −1 entonces A · B = 0 (y B · A 6= 0).
3.
Asimismo, si A · B = A · C, no puede deducirse que B = C. Basta, en el ejemplo anterior, considerar C = 0.
Mencionemos una u ´ltima operaci´on con matrices, la trasposici´ on. Si A ∈ Mn,m , la matriz traspuesta de A, que denotamos At , es una matriz de m filas y n columnas, tal que (At )i,j = Aj,i . Propiedades: 1.
(At )t = A.
2.
(A + B)t = At + B t .
´ TEMA 1. SISTEMAS DE ECUACIONES LINEALES Y ALGEBRA MATRICIAL
8 3.
(a · A)t = a · At .
4.
(A · B)t = B t · At .
Dada una matriz A ∈ Mn , decimos que B es una inversa de A si A · B = B · A = In . Obviamente, B ∈ Mn . Proposici´ on 1.8 La inversa, si existe, es u ´nica. Demostraci´ on : Si B, C son dos inversas de A, entonces B = B · In = B · (A · C) = (B · A) · C = In · C = C.
As´ı, a la u ´nica inversa de A, si existe, la denotamos A−1 . Decimos que A es inversible si posee inversa. Propiedades: 1.
(A−1 )−1 = A.
2.
Si A es inversible, lo es At , y (At )−1 = (A−1 )t .
3.
Si A, B son inversibles, y del mismo tama˜ no, lo es A · B, y (A · B)−1 = B −1 · A−1 .
Posteriormente veremos otras propiedades, as´ı como una caracterizaci´on de la inversibilidad de matrices.
1.3.
Interpretaci´ on matricial de los sistemas de ecuaciones
Utilizando el lenguaje de las matrices que acabamos de introducir, podemos representar un sistema de ecuaciones a11 x1 +a12 x2 + · · · +a1m xm = b1 a21 x1 +a22 x2 + · · · +a2m xm = b2 .. .. .. . . . an1 x1
+an2 x2
+···
+anm xm
=
bn
como Ax = b, donde x = (x1 , . . . , xm )t , b = (b1 , . . . , bn )t son vectores columna, y A la matriz n × m formada por los coeficientes del sistema. Algunas propiedades de las operaciones anteriores se aplican de manera inmediata al an´alisis de los sistemas. As´ı: Si A ∈ Mn es inversible, el sistema tiene soluci´on u ´nica. En efecto, si Ax = b es el sistema, x = A−1 b es la u ´nica soluci´on, como f´acilmente se comprueba. M´as generalmente, si A ∈ Mn,m , y existe una matriz B ∈ Mm,n con B · A = Im , el sistema tiene soluci´ on u ´nica, o bien es incompatible. En efecto, el u ´nico candidato a soluci´on es x = B · b. No obstante, esto no tiene por qu´e ser soluci´on. Por ejemplo, el sistema 2 1 µ ¶ 1 1 0 x = 0 y −1 1 0 no tiene soluci´on, y sin embargo µ 0 0
1 1
¶ 2 1 0 1 0 = I2 . 1 −1 1
´ MATRICIAL DE LOS SISTEMAS DE ECUACIONES 1.3. INTERPRETACION
9
Interpretemos el proceso de eliminaci´on gaussiana a partir del ´algebra matricial. Al igual que antes, si A ∈ Mn,m , llamaremos operaciones elementales por filas en A a las siguientes: 1.
Sumar a una fila otra multiplicada por un n´ umero.
2.
Multiplicar una fila por un n´ umero a 6= 0.
3.
Intercambiar dos filas.
Dado el sistema anterior, llamaremos A ∈ Mn,m la matriz del sistema, y A∗ = (A | b) ∈ Mn,m+1 matriz ampliada. Es claro que el proceso de eliminaci´on gaussiana puede llevarse a cabo realizando operaciones elementales por filas con la matriz A∗ . Definici´ on 1.9 Diremos que una matriz A est´a en forma escalonada superior si: 1.
Todas las filas con ceros se encuentran en la parte baja.
2.
Si en la fila i, llamamos entrada principal i-´esima a la primera posici´on no nula, la entrada principal de cada fila est´a a la derecha de la entrada principal de las filas superiores.
3.
Debajo de cada entrada principal hay ceros.
El proceso de eliminaci´on gaussiana se interpreta aqu´ı como: Proposici´ on 1.10 Toda matriz es equivalente por filas (es decir, puede transformarse mediante una sucesi´on de transformaciones elementales por filas) a una matriz escalonada. Observemos que las operaciones elementales por filas pueden realizarse multiplicando A por la izquierda por una matriz inversible n × n, llamada matriz elemental. As´ı: Operaci´ on 1: Corresponde a multiplicar por la matriz identidad a la que se le ha a˜ nadido un elemento a 6= 0 en la posici´on (i, j). Operaci´ on 2: Multiplicaci´on por la matriz identidad, donde el 1 del lugar (i, i) se ha sustituido por a 6= 0. Operaci´ on 3: Matriz identidad con las filas i, j permutadas. Proposici´ on 1.11 Sea A ∈ Mn,m . 1.
Existen matrices elementales E1 , . . . , Er tales que Er · · · E1 A est´a en forma escalonada.
2.
Existe C ∈ Mn inversible tal que C · A es escalonada.
Llamamos pivotes a las posiciones de las entradas principales i-´esimas. El proceso de intercambiar dos l´ıneas se denomina pivotaje. As´ı, hemos visto que todo sistema de ecuaciones lineales es equivalente a un sistema U x = b, donde U ∈ Mn,m es una matriz escalonada. En este caso: 1.
El sistema es compatible si y s´olo si las filas nulas de U se corresponden con elementos nulos del vector columna b.
2.
El sistema es compatible para todo vector b si y s´olo si no hay filas nulas en U , es decir, hay n pivotes (es necesario para esto que n ≤ m).
´ TEMA 1. SISTEMAS DE ECUACIONES LINEALES Y ALGEBRA MATRICIAL
10
Comentemos algunos casos. El que un sistema sea determinado o indeterminado depende s´olo del sistema homog´eneo asociado. M´as precisamente observemos lo siguiente: Sea Ax = b un sistema de ecuaciones n × m y x1 , x2 dos soluciones del mismo. Restando las igualdades Ax1 = b; Ax2 = b, obtenemos que A(x1 − x2 ) = 0. Es decir, x1 − x2 es soluci´on del sistema homog´eneo correspondiente. Concretando: Proposici´ on 1.12 Sea Ax = b un sistema compatible. Entonces es determinado si y s´olo si el sistema homog´eneo asociado Ax = 0 s´olo tiene la soluci´on trivial. Estudiamos, por consiguiente, los sistemas homog´eneos. Por lo anterior, si n < m (es decir, si hay menos ecuaciones que inc´ognitas), el sistema es indeterminado, puesto que es compatible, y hay menos pivotes que inc´ ognitas. La soluci´on no es u ´nica. Con m´as generalidad, si un sistema homog´eneo con n ecuaciones y m inc´ognitas tiene r pivotes, la soluci´on depender´a de m − r par´ametros. El sistema tendr´a s´olo la soluci´on trivial si y s´olo si r = m. Lo anterior admite una interpretaci´on desde el punto de vista matricial, que describiremos a continuaci´on. En primer lugar, observemos que, mediante transformaciones elementales podemos llevar A m´as lejos que en forma escalonada: Definici´ on 1.13 Decimos que A est´a en forma escalonada reducida si adem´as de estar en forma escalonada se tiene: 4.
El valor de cada pivote es 1.
5.
En cada columna donde hay un pivote, este es el u ´nico elemento no nulo de dicha columna.
Juntando todo lo anterior obtenemos el siguiente teorema: Teorema 1.14 1.
El sistema n × m Ax = 0 tiene soluci´on u ´nica si y s´olo si existe una matriz B ∈ Mm,n con B · A = Im . En este caso, necesariamente debe ser n ≥ m.
2.
Si n = m, Ax = 0 tiene soluci´on u ´nica si y s´olo si A es inversible.
Demostraci´ on : El “si”de ambos puntos ya est´ a visto. Supongamos que Ax = 0 tiene soluci´ on u ´nica. Multiplicando por C ∈ Mn , producto de matrices elementales, tenemos que C · A tiene m pivotes y est´ a en forma escalonada reducida. Es decir: Im . C ·A= 0 Tomamos B la matriz formada por las m primeras filas de C. Entonces B · A = Im . Aplicando esto al apartado 2, Ax = 0 tiene soluci´ on u ´ nica si y s´ olo si existe B ∈ Mn con B · A = In . Veamos que, en este caso, A es inversible y adem´ as B = A−1 . Para ello, sea ei = (0, . . . , 1, 0, . . . , 0)t y consideramos el sistema Ax = ei . Tiene soluci´ on u ´ nica xi . Formamos la matriz C = (e1 | · · · | en ), que obviamente verifica A · C = In . Un sencillo c´ alculo muestra que C = B y as´ı B · A = A · B = In , de donde se sigue el resultado.
Nota 1.15 (Matrices en bloques) En la prueba anterior, hemos utilizado para la matriz C una notaci´on denominada por bloques. Frecuentemente se utiliza ´esta: se divide una matriz en cajas rectangulares de tama˜ nos compatibles,
´ LU 1.4. SISTEMAS CUADRADOS. FACTORIZACION
11
como si la matriz original estuviera compuesta por submatrices dispuestas rectangularmente. Siempre que los tama˜ nos sean compatibles, con esta notaci´on pueden sumarse y multiplicarse matrices como se har´ıa si en vez de bloques fueran n´ umeros. El uso de la forma escalonada reducida, en particular, nos propocrciona un m´etodo para el c´alculo de la matriz inversa, cuando exista, denominado m´etodo de Gauss-Jordan, y que detallaremos en ejercicios. Este m´etodo tambi´en nos permitir´a la resoluci´on simult´anea de varios sistemas de ecuaciones. Hemos mostrado, adem´as, de forma adicional, lo siguiente: Proposici´ on 1.16 Sea A ∈ Mn . A es inversible si y s´olo si A es producto de matrices elementales. Demostraci´ on : Las matrices elementales son inversibles y su producto tambi´en. Si A es inversible, el proceso de eliminaci´ on gaussiana muestra que A−1 = Er · · · E1 , Ei elementales. As´ı A = E1−1 · · · Er−1 , y la inversa de una matriz elemental es elemental.
El resultado anterior, para nosotros, es esencialmente te´orico, aunque resulta de utilidad, por ejemplo, para probar la propiedad de los determinantes de conservar los productos de matrices, como veremos en el tema correspondiente. Ejemplo 1.17 1.
Una matriz diagonal
d11 0 D=
0 d22 ..
. dnn
es inversible si y s´olo si dii 6= 0. En este caso, 1/d11 0 0 1/d 22 D−1 =
..
.
. 1/dnn
2.
1.4.
Una matriz triangular A (superior o inferior) es inversible si y s´olo si todos los elementos de su diagonal principal son no nulos. En efecto, en este caso, el sistema Ax = 0 tiene soluci´on u ´nica, lo que caracteriza la inversibilidad.
Sistemas cuadrados. Factorizaci´ on LU
Un tipo particular notablemente importante de sistemas son los cuadrados, es decir, aquellos en los que hay una misma cantidad de ecuaciones que de inc´ognitas. Si Ax = b es un tal sistema, como corolario del teorema 11.14 obtenemos que tiene soluci´on u ´nica si y s´olo si A es inversible. Estudiemos con algo m´as de detalle estos sistemas. Sin duda el tipo m´as simple son aquellos tales que a11 0 0 a22 D= . .. ann
´ TEMA 1. SISTEMAS DE ECUACIONES LINEALES Y ALGEBRA MATRICIAL
12
bi . Si la matriz del sistema es aii l11 0 0 ··· 0 l21 l22 0 · · · 0 l31 l32 l33 · · · 0 L= .. .. .. .. .. . . . . .
con aii 6= 0. La u ´nica soluci´on es xi =
ln1
ln2
ln3
···
lnn
(triangular inferior), con lii 6= 0, la soluci´on tambi´en es f´acil. Despejamos en primer lugar x1 = sustituyendo, proseguimos con x2 , x3 ,. . . Si la matriz es
u11 0 U = 0 .. . 0
u12 u22 0 .. .
u13 u23 u33 .. .
··· ··· ··· .. .
u1n u2n u3n .. .
0
0
···
unn
con uii 6= 0, podemos hacer lo mismo, empezando a despejar xn = u ´ltimo, si el sistema tiene la forma
b1 ,y l11
bn , y continuando hacia atr´as. Por unn
LU x = b, con L, U como antes, podemos resolverlo en dos fases: en primer lugar resolvemos Lz = b, y en segundo lugar, U x = z. Si una matriz A ∈ Mn inversible puede factorizarse como A = LU , decimos que admite una factorizaci´ on LU . Observemos que el conocimiento de esta factorizaci´on para una matriz A permite sistematizar la resoluci´on de los sistemas Ax = b, sea cual sea el vector b. Proposici´ on 1.18 Si el m´etodo de Gauss puede llevarse a cabo sin pivotaje, entonces A admite factorizaci´on LU . Demostraci´ on : En efecto, en la fase de eliminaci´ on estamos multiplicando por una matriz elemental que es diagonal inferior. Tras esta fase, llegamos a un sistema cuya matriz es U , diagonal superior. es decir, Er · · · E1 A = U, con Ei matriz elemental correspodiente a una operaci´ on elemental del primer tipo, y por tanto, diagonal inferior. As´ı, A = E1−1 · · · Er−1 U , y si L = E1−1 · · · Er−1 , tenemos la factorizaci´ on buscada. El rec´ıproco tambi´en es cierto: si existe factorizaci´ on LU , el m´etodo de Gauss a partir de A se lleva a cabo sin pivotaje.
Es posible saber de antemano si una matriz dada admite factorizaci´on LU . Si A ∈ Mn , llamamos menores principales de A a las matrices formadas por las r primeras filas y columnas de A. Entonces: Proposici´ on 1.19 Una matriz A ∈ Mn tiene una factorizaci´on LU si y s´olo si todos sus menores principales son inversibles.
1.5. EJERCICIOS
13
Demostraci´ on : Veamos s´ olo una implicaci´ on. Supongamos que A posee una factorizaci´ on LU , y sean Ar , Lr , Ur los menores principales de tama˜ no r de A, L, U , respectivamente. Tenemos
Lr ∗
0 L0r
Ur 0
∗ Ur0
=
Ar ∗
∗ ∗
.
con lo que Lr Ur = Ar . Como Lr , Ur son inversibles, lo es Ar .
La factorizaci´on LU de una matriz no es u ´nica. Supongamos que A = L1 U1 = L2 U2 . Operando, −1 L−1 2 L1 = U2 U1
es una matriz diagonal D. As´ı, L2 = L1 D−1 , U2 = DU , y por tanto si D es cualquier matriz diagonal inversible y A = LU , entonces (LD)(D−1 U ) es otra. Habitualmente se elige una factorizaci´on de manera que los elementos de la diagonal de L sean unos. En un ejemplo veamos cu´al es el m´etodo pr´actico para llevar a cabo esta factorizaci´on. Ejemplo 1.20 Calcular una factorizaci´on LU para la matriz 2 1 3 A = −1 1 2 . 1 0 1 Eliminamos los elementos de las posiciones (2, 1) y (3, 1). Los multiplicadores respectivos son −1/2, 1/2. Tras este paso obtenemos 2 1 3 0 3/2 7/2 . 0 −1/2 −1/2 Eliminamos ahora el elemento de la posici´on (3, 2). El nuevo multiplicador es −1/3. Llegamos a: 2 1 3 U = 0 3/2 7/2 . 0 0 2/3 La matriz L es ahora la obtenida a partir de los multiplicadores: 1 0 0 1 0 . L = −1/2 1/2 −1/3 1
1.5. 1.
Ejercicios Discutir y resolver los siguientes sistemas: 2x +8y +6z = 20 4x +2y −2z = −2 a) b) 3x −y +z = 11
x −x
+2y +2y y
+z −z +z
−2t = +t = =
10 6 2
´ TEMA 1. SISTEMAS DE ECUACIONES LINEALES Y ALGEBRA MATRICIAL
14 2.
3.
Discutir y resolver, en ax +y +z x +ay −z a) 3x +y +bz x −y −z
c)
x +y 2x +3y x +y x +2y
d)
λx +y x +y x +y
su caso,los siguientes sistemas de ecuaciones: = a x +2y +z = 2 = 1 x +y +2z = 3 b) = 2 x +2y +z = b = 1
+az +az +2az
+z +λz +2λz
+bt +2bt +2bt +2bt = = =
= a+b+1 = 3a + 2b + 1 = 2b + 2 = a + 2b
λ2 λ 2
e)
(1 + λ)x +y x +(1 + λ)y x +y
+z +z +(1 + λ)z
= 1 = λ = λ2
Probar que el sistema
1 −1 −1
1 1 x α 0 1 y = β α, β, γ ∈ R −1 0 z γ
posee soluci´on u ´nica para cualquier valor de α, β, γ, y hallar ´esta. 4.
De una matriz A ∈ M3×4 (R) se sabe que una 1 U = 0 0
forma escalonada es 0 0 0 2 0 2 . 0 −1 −1
Se sabe que para pasar de la matriz A a la matriz U : Hay pivotaje entre la primera y la tercera fila antes de comenzar el proceso de hacer ceros debajo de los pivotes. Los multiplicadores del proceso valen: −2, 0 (para el primer pivote) y −1 (para el segundo). Determina la matriz A. 5.
Considera el sistema de ecuaciones, escrito en forma matricial: 1 0 µ ¶ a 0 1 x = b . y 2 3 c ¿Para qu´e vectores columna (a, b, c)t el sistema tiene soluci´on? ¿Es u ´nica?
6.
Considera la reacci´on qu´ımica siguiente: PbN6 + CrMn2 O8 → Pb3 O4 + Cr2 O3 + MnO2 + NO, en la que falta el n´ umero de mol´eculas de cada tipo necesarios para que la reacci´on est´e equilibrada. Escribe un sistema de ecuaciones para calcular el n´ umero de mol´eculas de cada tipo necesarias. De las infinitas soluciones del sistema, extrae las que tengan sentido para el problema.
7.
Evaluar las siguientes operaciones con matrices: µ ¶ ¢ ¡ 5 ¡ 2 −6 . a) b) 2 3 µ ¶ 1 1 2 1 −4 −2 5. c) 0 1 −3 −1 0
µ ¶ ¢ 5 . 3
−6
1.5. EJERCICIOS 8.
15
Una empresa fabrica televisores de 14, 21 y 25 pulgadas, en sus f´abricas de Valladolid, Burgos, Soria y Palencia. En la f´abrica de Valladolid fabrica a la semana 400 televisores de 14 pulgadas, 100 de 21 y 500 de 25. En la de Burgos, 300, 150 y 40 de 14, 21 y 25 pulgadas, respectivamente. En la de Soria, 100, 100 y 20, y en la de Palencia, 200, 150 y 300. Los precios de venta de cada uno de los televisores son 110 , 150 y 200 , respectivamente. a) Escribe una matriz A que represente las producciones de televisores en las distintas f´abricas, y un vector columna x que represente los precios. b) ¿Qu´e representa el vector Ax?
9.
Calcular la inversa de las siguientes matrices: −1 1 −1 4 2 5 1 −1 −1 2 −1 a) 2 b) −1 −1 1 0 −1 4 1 1 1 1 1 −2 1 2 −1 1 1 2 0 0 1 3 0 1 0 c) d) −1 1 2 2 1 1 1 1 3 2 1 2 0 0 0 1
1 1 1 1
1 1/2 1/3 e) 1/2 1/3 1/4 1/3 1/4 1/5 10.
Probar que si A, B son matrices cuadradas n × n tales que AB es inversible, entonces A y B son inversibles y A−1 = B(AB)−1 B −1 = (AB)−1 A.
11.
Diremos que una matriz A es antisim´ etrica si At = −A. a) Mostrar que toda matriz antisim´etrica es cuadrada.
12.
b) Probar que si A ∈ Mn (R) es antisim´etrica, entonces los elementos de su diagonal principal son ceros. 1 α α2 /2 α . Se pide: Sea A(α) = 0 1 0 0 1 a) Demostrar que A(α)A(β) = A(α + β). b) Calcular la inversa de A(α). c) Demostrar que A(3α) − 3A(2α) + 3A(α) = I3 .
13.
Sea A(a, h) la familia de matrices dada por ah a a a ah a a ah A(a, h) = a .. .. .. . . . a a a
··· ··· ··· .. .
a a a .. .
···
ah
a) Comprobar si el producto de 2 matrices de esta familia es de nuevo una matriz de la familia b) Estudiar si A(a, h) tiene inversa perteneciente a la familia 14.
Probar que si A es una matriz sim´etrica e inversible, entonces A−1 tambi´en es sim´etrica.
´ TEMA 1. SISTEMAS DE ECUACIONES LINEALES Y ALGEBRA MATRICIAL
16 15.
Sean A ∈ Mn , C ∈ Mm dos matrices inversibles, y B ∈ Mn,m . Calcula una matriz X ∈ Mn,m de manera que la inversa de la matriz por bloques ¶ µ A B M= 0 C sea
16.
µ
A−1 0
¶
X C −1
.
Una matriz A se llama idempotente si A2 = A. a) Prueba que una matriz idempotente es cuadrada. b) ¿Son idempotentes las matrices siguientes? µ ¶ 1 0 ; 0 0 c) Calcula a, b y c para que la matriz
µ ¶ 0 1 ; 1 0 µ a b
0 0 1
1 0 . 0
0 1 0
¶
0 c
sea idempotente. 17.
Calcula A−1 B, sin calcular previamente A−1 , donde A y B son 0 1 3 4 4 ; A = −2 1 B = −2 1 −3 −9 3
18.
Sin calcular A−1 , calcula el producto A−1 x, donde A es 1 2 −7 0 1 −4 A= 1 1 1 2 −1 3
las matrices 1 2 0 3 . 5 −6
la matriz 5 0 , 6 9
y x el vector columna (1, −2, 1, 3)t . 19.
20.
Resuelve simult´aneamente los x1 +x2 +x3 x1 +x2 2x1 +2x2 +3x3 −x1 −x2 −2x3
dos sistemas de ecuaciones lineales siguientes: +x4 = 7 x1 +x2 +x3 +x4 +2x4 = 8 x1 +x2 +2x4 ; = 10 2x1 +2x2 +3x3 +2x4 = 0 −x1 −x2 −2x3 +2x4
Halla una matriz elemental E que transforme la matriz A en 2 1 2 2 1 −1 3 −1 0 4 a) A = B= b) A = 0 4 ; 0 −1 3 . 1 2 1 1 2 2 1 2 1 −1 3 −1 3 c) A = B= 0 4 ; 0 3 . 1 2 1 2
= 7 = 5 = 10 = 0
B, donde: 1 2 1 −1 3 3 ; B = 0 4 . 4 2 5 4
1.5. EJERCICIOS 21.
17
Un vector columna (x1 , . . . , xn )t se llama vector de probabilidad si xi ≥ 0, ∀i y
n P i=1
xi = 1.
Asimismo, una matriz M ∈ Mn,m (R) se llama matriz de probabilidad si sus columnas son vectores de probabilidad. a) Probar que el producto de dos matrices de probabilidad es una matriz de probabilidad. b) Probar que si M ∈ Mn×m (R) es una matriz de probabilidad, y x ∈ Rm es un vector de probabilidad, M x es un vector de probabilidad. 22.
Las matrices de probabilidad, introducidas en el ejercicio anterior, sirven para representar las transiciones entre los diferentes estados de un sistema en una unidad de tiempo. As´ı, por ejemplo, supongamos que un sistema tiene n estados diferentes. Tras una unidad de tiempo, la probabilidad de pasar del estado j al estado i es pij . Formamos la matriz P = (pij )i,j . Esta es una matriz de probabilidad. Veamos un ejemplo. Hay dos empresas de televisi´on por cable, A y B. Tras un mes, un 20 % de los abonados a A se pasan a B, y un 15 % dejan de tener televisi´on por cable. De aquellos abonados a B, un 15 % se pasan a la compa˜ n´ıa A, mientras que otro 15 % deja de tener cable. Por u ´ltimo, de los ciudadanos que no tienen televisi´on por cable, al cabo de un mes un 10 % se abonan a la compa˜ n´ıa A, y un 5 % a la compa˜ n´ıa B. a) Escribe la matriz P de transici´on de este sistema. b) Si en el instante inicial hay 15000 abonados a la compa˜ n´ıa A, 20000 a la compa˜ n´ıa B y 65000 sin cable, calcula matricialmente cu´antos ciudadanos hay en cada una de estas situaciones al cabo de un mes. c) Lo mismo que el apartado anterior, pero al cabo de dos meses, y al cabo de tres meses.
23.
De una poblaci´on de 10000 habitantes, 5000 no fuman, 2500 fuman un paquete al d´ıa o menos, y 2500 fuman m´as de un paquete al d´ıa. Tras un mes, un 5 % de los no fumadores pasan a fumar un paquete o menos, y un 2 %, m´as de un paquete. De aquellos que fuman como mucho un paquete, un 10 % deja de fumar, mientras que otro 10 % pasa a fumar m´as de un paquete. Por u ´ltimo, de los que fuman m´as de un paquete diario, al cabo de un mes un 5 % deja de fumar, y un 10 % pasa a fumar un paquete o menos. a) Escribe una matriz de transici´on P para este sistema. b) Calcula matricialmente cu´anta gente hay en cada una de las situaciones al cabo de un mes, y de dos, y de tres.
24.
Calcula una factorizaci´on LU para las matrices siguientes: −5 2 −1 1 0 3 a) 1 0 3 b) 3 1 6 3 1 6 −5 2 −1
25.
Calcula una factorizaci´on LDU para la matriz 10 7 8
siguiente: 7 8 5 6 6 10
¿Qu´e relaci´on observas entre las matrices L y U ? ¿A qu´e lo atribuyes?