Story Transcript
Tema 2: Matrices, determinantes y sistemas de ecuaciones lineales 1
Matrices
Una matriz con coeficientes sobre un cuerpo K (normalmente K = R) consiste en una colección de escalares del cuerpo K ordenados por filas y columnas. Si la matriz tiene m filas y n columnas se dirá que es de orden m × n. Ejemplo 1.1 Las siguientes son matrices con coeficientes sobre R: √ 5 3 −3 Ã ! Ã ! 0 ³ ´ 2 0 0 0 −1 3 0 0 . A= B= 3 7 C= D = 2 y E = −2 8 −5 0 8 3 0.5 6 8 5 7 0
En este ejemplo las matrices A, B, C, D y E tienen órdenes 2×3, 1×2, 4×3, 3×1 y 2×2, respectivamente.
Sea A una matriz. Para indicar la fila y columna que ocupa cada elemento usaremos la notación A = (aij ), donde el índice i indica la fila y el índice j la columna. De este modo estamos diciendo que el elemento aij de la matriz A es el que ocupa la fila i y la columna j, considerando esto para todos los posibles i y j. Así los elementos de la matriz A = (aij ) del ejemplo anterior son: a11 = 0, a12 = −1, a13 = 3, a21 = 3, a22 = 0.5 y a23 = 6. Para una matriz A de orden m × n denotaremos por Fi la fila i-ésima de la matriz, la cual puede interpretarse como un vector de K n al que llamaremos vector-fila de A; igualmente denotaremos por Cj a la columna j-ésima de la matriz, que puede interpretarse como un vector de K m al que llamaremos vector-columna de A. Una submatriz de otra es una matriz que a partir de la inicial cogiendo unas cuantas filas √ se obtiene 5 −3 y unas cuantas columnas (por ejemplo −2 8 sería una submatriz de la matriz C del ejemplo 5 0 anterior obtenida al coger las filas 1, 3 y 4 y las columnas 1 y 3). Se dice que una matriz es cuadrada si tiene el mismo número de filas que de columnas (como la matriz E del ejemplo anterior). En esta situación si la matriz tiene n filas y n columnas, podremos decir que es de orden n × n o simplemente de orden n. Se llama diagonal principal de una matriz (generalmente cuadrada) a los elementos de la forma aii para todo i posible, es decir, los elementos que tienen el mismo índice fila que columna (la diagonal principal de la matriz E del ejemplo anterior está formada por el a11 = 2 y el a22 = 0). Una matriz cuadrada se dice que es triangular inferior (respectivamente triangular superior) cuando todo elemento que esté situado por encima (respectivamente por debajo) de à la diagonal ! principal es nulo (la matriz E del ejemplo anterior es triangular 8 −1 inferior, mientras que es triangular superior). A una matriz cuadrada que es triangular 0 3 1
tanto inferior como à superior, ! es decir, si cumple que los elementos que no están en la diagonal principal 0 0 son nulos (como ), se le llama matriz diagonal. La matriz diagonal de orden n que tiene 0 −3 todos los elementos de la diagonal principal iguales a 1 se llama matriz identidad (o matriz à unidad) ! 1 0 de orden n, y la denotaremos por In , o simplemente por I si está claro el orden. Por ejemplo, 0 1 es la matriz identidad de orden 2. La matriz nulaÃes la matriz ! que tiene todos sus coeficientes son 0 0 0 nulos. Por ejemplo la matriz nula de orden 2 × 3 es . 0 0 0
1.1 1.1.1
Operaciones con matrices Suma
Sean A = (aij ) y B = (bij ) dos matrices del mismo orden (m× n). Se define la suma de las dos matrices como la matriz A + B = (cij ), también de orden m × n, que cumple que cij = aij + bij para cada par de índices i, j. Esto se traduce en que sumamos A y B coeficiente a coeficiente. Observemos que esto sólo tiene sentido si las dos matrices son del mismo orden. Ã ! Ã ! Ã ! 0 1 3 2 0 −3 2 1 0 Ejemplo 1.2 1. + = −1 5 6 2 0 4 1 5 10 . 1.1.2
Producto de una matriz por un escalar
Sea A = (aij ) una matriz de orden m × n y α ∈ K. Se define el producto del escalar por la matriz como la matriz αA = (dij ) de orden m × n, que cumple que dij = αaij para todo i, j posibles. à ! à ! 0 1 3 0 3 9 Ejemplo 1.3 3 = −1 5 6 −3 15 18 . Fijados m y n, el conjunto de las matrices de orden m × n con coeficientes sobre un cuerpo K, con la suma y el producto por escalares definidos anteriormente, tiene estructura de espacio vectorial. A este espacio vectorial lo denotaremos por Mm×n (K). El cero de este espacio vectorial es la matriz cero, mientras que la opuesta de una matriz es la que tiene todos los coeficientes respectivamente opuestos a los de ella. Este espacio vectorial tiene dimensión m · n. Ejemplo 1.4 Sea V = M2×3 (R), el espacio vectorial de las matrices de orden 2 × 3 sobre R, es decir à ! a11 a12 a13 V ={ : a11 , a12 , a13 , a21 , a22 , a23 ∈ R}. a21 a22 a23 ! à ! à 0 0 0 a11 a12 a13 es −A = La matriz nula será y la matriz opuesta de una matriz A = 0 0 0 a21 a22 a23 à ! −a11 −a12 −a13 . −a21 −a22 −a23 2
1.1.3
Producto de matrices
Dadas dos matrices A = (aij ) y B = (bij ) de orden m × n y n × p, respectivamente, se define el producto de ambas matrices como la matriz A · B = (cij ) (en adelante sin punto AB) de orden m × p que cumple que n P cij = aik bkj = ai1 b1j + ai2 b2j + ... + ain bnj k=1
para todo i, j posibles. Esto se traduce en que para obtener el elemento del producto AB que está situado en la fila i, columna j, hay que ”multiplicar” la fila i de A por la columna j de B. Notemos que si m 6= p no tiene sentido hacer el producto BA. Incluso aunque m = p,y entonces tenga sentido el producto en orden inverso, la matriz AB tendría orden m × m y la matriz BA sería de orden n × n, luego ambas no podrían ser iguales, ya que tendrían distinto orden si m 6= n. Es más, aún poniéndonos en la situación en que n = m = p (así A, B, AB y BA son cuadradas de orden n) el producto no tiene por qué ser conmutativo, es decir, es posible que AB 6= BA. Dada una matriz cuadrada A se define la potencia n-ésima de A como la matriz n veces
z }| { An = A · A · ... · A
es decir, el producto de A consigo misma n veces. Así A1 = A, A2 = A · A, A3 = A · A · A, etc. Ã ! Ã ! 1 −2 3 −1 0 Ejemplo 1.5 Dadas las matrices A = yB= , la matriz producto es 0 −3 4 −2 1 AB = 1.1.4
Ã
1 −2 0 −3
!Ã
3 −1 0 4 −2 1
!
=
Ã
−5 3 −2 −12 6 −3
!
.
Propiedades
1. Asociativa: Dadas matrices A de orden m × n, B de orden n × p y C de orden p × q se tiene (AB)C = A(BC). 2. Relación con el producto por escalares: Dadas matrices A de orden m × n y B de orden n × p y dado cualquier escalar α se tiene α(AB) = (αA)B = A(αB) y entonces lo escribiremos de cualquiera de las formas siguientes αAB = AαB = ABα. 3. Distributivas: (a) Dadas matrices A, B de orden m × n y C de orden n × p se tiene (A + B)C = AC + BC. (b) Dadas matrices A, B de orden m × n y D de orden q × m se tiene D(A + B) = DA + DB. 4. Se tiene que 0·A = 0 y que B·0 = 0 para cualesquier matrices A y B en disposición de multiplicar. 5. Elemento neutro: Dada una matriz A de orden m × n, se cumple que AIn = A = Im A, donde In e Im son las matrices identidad de orden n y m, respectivamente. 3
6. No conmutativa: En general se tiene AB 6= BA, para matrices A y B de órdenes m × n y n × m, respectivamente. 1.1.5
Trasposición de matrices.
Dada una matriz A = (aij ) de orden m × n se llama matriz traspuesta de A, a la matriz At = (bij ) cuyos elementos son bij = aji para cada i, j. Observemos que cualquier matriz tiene traspuesta, no necesita ser cuadrada. En la práctica para calcular la traspuesta de una matriz hay que tener en cuenta que las filas de A son las columnas de At , o las columnas de A las filas de At . Ã ! 2 2 2 0 −3 Ejemplo 1.6 La matriz traspuesta de es 0 0 2 0 4 −3 4 . Una matriz cuadrada A se dice que es simétrica si A = At . Por ejemplo, es simétrica la matriz 1 −3 0 0 4 −3 0 4 −2
1.2
Rango
Al rango de los vectores-fila de una matriz A de orden m × n lo llamaremos rango por filas de la matriz, es decir, dim < F1 , F2 , ..., Fm > (dimensión del subespacio de K n generado por los vectores-fila de la matriz). Análogamente el rango de sus vectores-columna se llamará el rango por columnas de A, es decir, dim < C1 , C2 , ..., Cn > (dimensión del subespacio de K m generado por los vectores-columna de la matriz). Teorema 1.7 Sea A una matriz. Entonces el rango por filas y el rango por columnas de A coinciden. A este número lo llamaremos en adelante rango de la matriz y lo denotaremos por r(A) o R(A). 1.2.1
Método de Gauss para el cálculo del rango
Sea A una matriz. Su rango podemos calcularlo, por ejemplo por filas, aplicando el método de Gauss para escalonar los vectores-fila de A. Recordemos las operaciones que empleamos para ello: 1. Sumar a una fila un múltiplo de otra. 2. Multiplicar una fila por un escalar no nulo. 3. Intercambiar dos filas de orden. A estas operaciones realizadas en las filas de la matriz las llamaremos transformaciones elementalesfila. De modo análogo podemos hacer transformaciones elementales-columna. Estas transformaciones no varían el rango de la matriz (también sabemos que el rango se conserva si eliminamos algún vector que sea CL de los demás). 4
2 2 3 2 0 1 1 2 0 −1 Ejemplo 1.8 Vamos a hallar el rango de la matriz . 1 1 2 0 −1 2 2 2 1 0 En primer lugar cambiamos de orden la primera y segunda filas, para así operar mejor con el 1 1 1 2 0 −1 2 2 3 2 0 que tiene la segunda fila como primer coeficiente. Tendríamos entonces , donde 1 1 2 0 −1 2 2 2 1 0 añadimos la primera fila a las restantes, multiplicándola por números adecuados (a la segunda y cuarta 1 1 2 0 −1 0 0 −1 2 2 se la añadimos multiplicada por −2 y a la tercera por −1). Entonces tenemos . 0 0 0 0 0 0 0 −2 1 2 Ahora procederíamos igual con las tres últimas filas considerando sólo a partir de la segunda columna. En ellas es nulo el primer coeficiente (porque lo hemos eliminado antes) y casualmente el segundo. Empezamos pues por el tercero. Esta vez no hace falta cambiarlas de orden y lo único que tenemos que hacer es añadir un múltiplo de la segunda fila a las demás para hacer ceros. En este caso basta 1 1 2 0 −1 0 0 −1 2 2 añadirle a la cuarta fila −2 veces la segunda para obtener . Ahora procedemos 0 0 0 0 0
0 0 0 −3 −2 con la tercera y cuarta filas, donde nos interesa cambiarlas de orden, pues en la cuarta aparece algún 1 1 2 0 −1 0 0 −1 2 2 coeficiente no nulo: . Eliminando la última fila (pues es nula, CL de las 0 0 0 −3 −2 0 0 0 0 0 1 1 2 0 −1 demás) tenemos la escalonación final de la matriz 0 0 −1 2 2 . Entonces obtenemos que 0 0 0 −3 −2 el rango de nuestra matriz es 3.
1.3
Inversa de una matriz
Una matriz cuadrada A de orden n se dice que es invertible cuando existe otra matriz cuadrada del mismo orden B de modo que AB = BA = In . En esta situación la matriz B es única cumpliendo lo anterior, y se llamará la matriz inversa de A y escribiremos B = A−1 . Observación 1.9 Puede comprobarse que B es la inversa de A si y sólo si AB = In si y sólo si BA = In , es decir, es suficiente con que uno de los dos productos resulte la matriz identidad. Proposición 1.10 Una matriz cuadrada de orden n es invertible si y sólo si tiene rango n. 5
La inversa de una matriz invertible A puede calcularse de varias formas. Una de ellas es directamente, planteando un sistema de ecuaciones, obtenido a partir de la suposición de que los coeficientes de A−1 son indeterminados, y hacer el producto AA−1 = In (o A−1 A = In ). Veamos a continuación un método más adecuado. 1.3.1
Método de Gauss-Jordan para el cálculo de la inversa
Vamos a dar ahora un método para el cálculo de la inversa de una matriz, en general bastante eficiente. Supongamos que tenemos una matriz A, cuadrada de orden n, que se sabe que es invertible. Pongamos la matriz A y a continuación, a la derecha, la matriz identidad de orden n. Usualmente se ponen ambas formando una matriz de orden n × 2n y se separan por una línea vertical, quedando en la forma (A|In ). Aplicamos a la matriz A el método de Gauss-Jordan (variante del método de Gauss), consistente en hacer operaciones por fila hasta obtener la matriz identidad. El resultado de aplicarle a la matriz identidad que hay a la derecha de A esas mismas operaciones nos proporciona precisamente A−1 . Observación 1.11 Si le aplicamos el método de Gauss-Jordan a una matriz no invertible observaremos que es imposible obtener la matriz identidad en la parte izquierda. 1 1 0 Ejemplo 1.12 Hallar la inversa de la matriz A = 2 −1 −2 . 3 0 −1 Pondríamos entonces ¯ 1 1 0 ¯¯ 1 0 0 ¯ 2 −1 −2 ¯ 0 1 0 , y aplicamos transformaciones, por ejemplo por fila. Añadimos a la se¯ 3 0 −1 ¯ 0 0 1 ¯ 1 1 0 ¯¯ 1 0 0 ¯ gunda fila −2 veces la primera y a la tercera fila −3 veces, y obtenemos 0 −3 −2 ¯ −2 1 0 . ¯ 0 −3 −1 ¯ −3 0 1 ¯ 0 0 1 1 0 ¯¯ 1 ¯ Ahora le añadimos a la tercera fila −1 por la segunda: 0 −3 −2 ¯ −2 1 0 . Una vez que ¯ 0 0 1 ¯ −1 −1 1 estamos con una matriz triangular superior, se para hacerla diagonal. Primero ¯ hacen operaciones ¯ 0 0 1 1 0 ¯ 1 ¯ añadimos a la segunda fila 2 veces la tercera: 0 −3 0 ¯ −4 −1 2 . Multiplicando la segun¯ 0 0 1 ¯ −1 −1 1 ¯ 0 0 1 1 0 ¯¯ 1 ¯ 1 da fila por − 13 sale: 0 1 0 ¯ 43 − 23 ; finalmente añadimos a la primera fila −1 por la 3 ¯ 0 0 1 ¯ −1 −1 1
6
¯ 2 1 0 0 ¯¯ − 13 − 13 3 ¯ 2 1 . Entonces la matriz inversa de A es segunda: 0 1 0 ¯ 43 − 3 3 ¯ 0 0 1 ¯ −1 −1 1 − 13 − 13 − 23 1 2 A−1 = 34 3 3 −1 −1 1 1 0 1 Ejemplo 1.13 Hallar la inversa de la matriz A = 2 −1 0 . 3 2 6 Pondríamos entonces ¯ 1 0 1 ¯¯ 1 0 0 ¯ 2 −1 0 ¯ 0 1 0 , y aplicamos transformaciones, por ejemplo por fila. Añadimos a la se¯ 3 2 6 ¯ 0 0 1 ¯ 1 0 1 ¯¯ 1 0 0 ¯ gunda fila −2 veces la primera y a la tercera fila −3 veces y obtenemos 0 −1 −2 ¯ −2 1 0 . ¯ 0 2 3 ¯ −3 0 1 ¯ 1 0 1 ¯¯ 1 0 0 ¯ Añadimos a la tercera fila 2 veces la segunda y llegamos a 0 −1 −2 ¯ −2 1 0 . Una vez ¯ 0 0 −1 ¯ −7 2 1 que estamos con una matriz triangular superior se hacen operaciones diagonal.Primero ¯ para hacerla ¯ 0 0 1 0 1 ¯ 1 ¯ cambiamos el signo de las dos últimas filas, por lo que tenemosc 0 1 2 ¯ 2 −1 0 . Ahora ¯ 0 0 1 ¯ 7 −2 −1 ¯ 0 0 1 0 1 ¯¯ 1 ¯ añadimos a la segunda fila −2 veces la tercera y se obtiene que 0 1 0 ¯ −12 3 2 . Final¯ 0 0 1 ¯ 7 −2 −1 ¯ 1 1 0 0 ¯¯ −6 2 ¯ mente a la primera fila le restamos la tercera y nos sale 0 1 0 ¯ −12 3 2 . Entonces la ¯ 0 0 1 ¯ 7 −2 −1 matriz inversa de A es −6 2 1 A−1 = −12 3 2 7 −2 −1 .
Recordemos los pasos que hemos seguido para transformar A en la matriz identidad: 1. Transformar A en una matriz triangular inferior. 2. Transformar la matriz resultante en una matriz diagonal. 3. Convertir los elementos de la diagonal en 1. (Los dos últimos pasos pueden entremezclarse.) 7
2
Determinantes
El determinante de una matriz cuadrada A de orden n con coeficientes sobre un cuerpo es un escalar del cuerpo. Lo vamos a denotar por |A| (reemplazando los paréntesis usados para delimitar la matriz por líneas verticales), por det(A) o también por det(F1 , F2 , ...., Fn ), donde se supone que F1 , F2 , ..., Fn ∈ K n son los vectores-fila de A (igualmente se podría usar la notación det(C1 , C2 , ..., C2 ) a partir de los vectores columna C1 , C2 , ..., Cn ∈ K n ). Diremos indistintamente que es el determinante de la matriz o de los vectores que están en las filas o columnas. La definición exacta de determinante es un tanto técnica y no se va a incluir aquí (aunque puede verse en buena parte de los textos de Álgebra). Vamos a dar las fórmulas para el cálculo de los determinantes de orden 1, 2 y 3, y a continuación enunciaremos algunas propiedades de los determinantes, que nos permiten calcular también los determinantes de orden superior. Orden 1: Si tenemos una matriz A = (a), es det(A) = a. ¯ ¯ Ã su determinante ! ¯ a b ¯ a b ¯ ¯ Orden 2: Si tenemos una matriz A = su determinante es |A| = ¯ ¯ = ad − bc. ¯ c d ¯ c d a11 a12 a13 Orden 3: Si tenemos una matriz A = a21 a22 a23 su determinante es a31 a32 a33 ¯ ¯ ¯ a11 a12 a13 ¯ ¯ ¯ ¯ ¯ |A| = ¯ a21 a22 a23 ¯ = a11 a22 a33 + a21 a32 a13 + a31 a12 a23 − a13 a22 a31 − a23 a32 a11 − a33 a12 a21 . ¯ ¯ ¯ a31 a32 a33 ¯
Esta fórmula se hace más sencilla de recordar si tenemos en cuenta que aparecen 6 sumandos, 3 de los cuales resultan de multiplicar los elementos que aparecen en la diagonal principal y los de cada una de las 2 diagonales ”paralelas” a ésta, y los otros tres resultan de multiplicar los elementos que aparecen en cada una de las 3 ”diagonales opuestas”. Esto se conoce como Regla de Sarrus.
2.1
Propiedades de los determinantes
Sea A una matriz cuadrada de orden n, y supongamos que sus vectores-fila son F1 , F2 , ..., Fn ∈ K n . Entonces se cumplen las siguientes propiedades: 1. Si Fi = Fi0 + Fi00 , para ciertos vectores Fi0 , Fi00 ∈ K n , entonces det(F1 , ..., Fi , ..., Fn ) = det(F1 , ..., Fi0 , ..., Fn ) + det(F1 , ..., Fi00 , ..., Fn ). 2. Para todo α ∈ K se tiene que det(F1 , ..., αFi , ..., Fn ) = α det(F1 , ..., Fi , ..., Fn ). 3. det(F1 , ..., Fj , ..., Fi , ..., Fn ) = − det(F1 , ..., Fi , ..., Fj , ..., Fn ), para todo i, j ∈ {1, 2, ..., n} (i 6= j). 4. det(F1 , ..., Fi + αFj , ..., Fn ) = det(F1 , ..., Fi , ..., Fn ), para todo i, j ∈ {1, 2, ..., n} (i 6= j) y todo α ∈ K. 8
5. det(F1 , ..., Fn ) = 0 si y sólo si los vectores F1 , F2 , ..., Fn son LD. De esto se deduce que A es invertible si y sólo si det A 6= 0. Además en esta situación det(A−1 ) = det1 A . 6. Si A es una matriz triangular superior o inferior (en particular si es una matriz diagonal) entonces det A es el producto de los elementos de la diagonal. 7. det A = det(At ). 8. det(A · B) = det A · det B para toda matriz cuadrada B de orden n. Observación 2.1 Las 5 primeras propiedades pueden enunciarse también en términos de los vectorescolumna de la matriz. ¯ ¯ ¯ 1 0 2 3 ¯¯ ¯ ¯ 2 −3 2 5 ¯¯ ¯ Ejemplo 2.2 Vamos a calcular el siguiente determinante ¯ ¯. Vamos a hacer ceros ¯ 0 2 2 −3 ¯¯ ¯ ¯ 1 1 2 4 ¯ ¯ ¯ ¯ 1 0 2 3 ¯¯ ¯ ¯ 0 −3 −2 −1 ¯ ¯ ¯ usando el elemento a11 = 1. Así tenemos ¯ ¯ (habiéndole añadido a la segunda, tercera ¯ ¯ 0 2 2 −3 ¯ ¯ ¯ 0 1 0 1 ¯ y cuarta filas la primera multiplicada por −2, 0 y −1). Ahora cambiamos la segunda y cuarta filas para ¯ ¯ ¯ ¯ 1 0 2 3 ¯ ¯ ¯ 0 1 0 1 ¯¯ ¯ simplificar la eliminación, y queda − ¯ ¯. Le añadimos ahora la segunda fila a la tercera ¯ ¯ 0 2 2 −3 ¯ ¯ ¯ 0 −3 −2 −1 ¯ ¯ ¯ ¯ 1 0 2 3 ¯¯ ¯ ¯ 0 1 0 1 ¯¯ ¯ y cuartas, multiplicada por −2 y 3 respectivamente, y llegamos a − ¯ ¯. Finalmente le ¯ 0 0 2 −5 ¯¯ ¯ ¯ 0 0 −2 2 ¯ ¯ ¯ ¯ 1 0 1 3 ¯¯ ¯ ¯ 0 1 0 1 ¯¯ ¯ sumamos la tercera fila a la cuarta y tenemos − ¯ ¯, con lo que el valor del determinante ¯ 0 0 2 −5 ¯ ¯ ¯ ¯ 0 0 0 −3 ¯
es −[1 · 1 · 2 · (−3)] = 6. En la siguiente sección veremos que no es necesario triangularizar la matriz para obtener el determinante.
2.2
Menor, menor complementario, adjunto
Se llama menor de una matriz A (no necesariamente cuadrada) al determinante de cualquier submatriz 2 0 3 −4 cuadrada suya. Por ejemplo, dada la matriz A = 0 6 2 −1 algunos menores suyos son −5 −6 0 7 9
¯ ¯ ¯ ¯ ¯ 2 0 −4 ¯¯ ¯ 2 −4 ¯ ¯ ¯ ¯ ¯ ¯ 6 −1 ¯ = −48 y ¯ ¯ = −6. ¯ 0 ¯ ¯ −5 ¯ ¯ 7 ¯ −5 −6 7 ¯ En una matriz cuadrada A de orden n se llama menor complementario del elemento aij al determinante de orden n − 1 de la submatriz resultante de eliminar en A la fila i y la columna j, que 1 0 −3 son en las que está situado el elemento. En la matriz A = 1 5 0 el menor complementario 3 −3 2 ¯ ¯ ¯ ¯ ¯ 0 −3 ¯ ¯ 0 −3 ¯ ¯ ¯ ¯ ¯ a31 = 3 es ¯ ¯ = 15, y el del a21 = 1 es ¯ ¯ = −9. Finalmente se llama adjunto del ¯ 5 ¯ −3 0 ¯ 2 ¯ elemento aij a su menor complementario multiplicado por (−1)i+j , es decir, se multiplica por 1 o por −1, dependiendo de que la suma de los índices fila y columna del elemento sea par o impar. Al adjunto del elemento ¯ aij en¯ la matriz A lo denotaremos por Aij . En¯ el ejemplo¯ anterior el adjunto de a31 = 3 ¯ 0 −3 ¯ ¯ 0 −3 ¯ ¯ ¯ ¯ ¯ es A31 = ¯ ¯ = 15 y el adjunto de a21 = 1 es A21 = − ¯ ¯ = 9. ¯ 5 ¯ −3 0 ¯ 2 ¯ 2.2.1
Cálculo del determinante desarrollando por adjuntos
Sea A una matriz cuadrada de orden n. Entonces se tiene n n P P det A = alj Alj = al1 Al1 + al2 Al2 + ... + aln Aln = aik Aik = a1k A1k + a2k A2k + ... + ank Ank . j=1
i=1
Lo anterior lo que nos dice es que mediante la Fl o la columna Ck podemos calcular el determinante de la matriz sumando los productos de los elementos de esa fila o columna por sus respectivos adjuntos. Por ejemplo si tenemos una matriz A = (aij ) de orden 3 tendríamos (fijándonos por ejemplo en la primera fila o la segunda columna) det A = a11 A11 + a12 A12 + a13 A13 y también det A = a12 A12 + a22 A22 + a32 A32 . Es muy útil esta regla a la hora de calcular determinantes grandes, sobre todo si aparece alguna fila o columna con muchos elementos nulos (si es posible ¯ todos los elementos excepto uno). Por ejemplo ¯ ¯ 3 0 −4 ¯¯ ¯ ¯ ¯ para calcular el determinante |A| = ¯ −2 0 1 ¯ vamos a desarrollar por los adjuntos de la segunda ¯ ¯ ¯ −5 −2 4 ¯ columna y tendremos ¯ ¯ ¯ 3 −4 ¯ ¯ ¯ |A| = a12 A12 +a22 A22 +a32 A32 = 0A12 +0A22 +(−2)A32 = −2A32 = −2·(− ¯ ¯) = 2(3−8) = −10. ¯ −2 1 ¯
Por supuesto no siempre estaremos en esta situación de tener bastantes ceros, pero aplicando las propiedades de los determinantes ¯ podremos¯ llegar a una matriz con muchos ceros. Por ejemplo para ¯ 4 2 −4 ¯ ¯ ¯ ¯ ¯ calcular el determinante |A| = ¯ 1 3 4 ¯ le añadimos a la última columna −3 veces la primera y ¯ ¯ ¯ 2 0 6 ¯ 10
¯ ¯ ¯ 4 2 −16 ¯ ¯ ¯ ¯ ¯ nos queda |A| = ¯ 1 3 1 ¯, determinante que puede calcularse ahora fácilmente desarrollando por ¯ ¯ ¯ 2 0 0 ¯ los adjuntos de la tercera fila, para obtener ¯ ¯ ¯ 2 −16 ¯ ¯ ¯ |A| = a31 A31 + a32 A32 + a33 A33 = 2 ¯ ¯ + 0A32 + 0A33 = 2(2 + 48) = 100. ¯ 3 1 ¯ 2.2.2
Cálculo del rango de una matriz utilizando menores
Sea A un matriz de orden m × n (no necesariamente cuadrada). El rango de A es el mayor orden para el que existen menores no nulos de ese orden dentro de A. En particular se tiene que si encontramos un menor de orden r no nulo, entonces r(A) ≥ r. 2.2.3
Cálculo de la inversa de una matriz mediante adjuntos
Vamos a dar otro método para calcular la inversa de una matriz. Supongamos que A = (aij ) es una matriz cuadrada invertible. Sabemos que |A| 6= 0. Calculamos ahora lo que vamos a llamar matriz adjunta de A, y que la vamos a denotar por Adj(A) = (bij ), cuyos coeficientes son los adjuntos respectivos de los elementos de A, es decir, bij = Aij para todo i, j posible. Entonces se cumple que 1 A−1 = |A| (Adj(A))t . De este modo la matriz inversa de A resulta de hallar la traspuesta de la adjunta y dividir por el determinante. (Da lo mismo tomar la traspuesta de la adjunta que la adjunta de la 1 traspuesta, así que también tendremos A−1 = |A| (Adj(At )).) Ejemplo 2.3 Hallar la inversa de la
Como |A| = 5 y Adj(A) = A−1
3
3 2 −7
1 1 3 matriz A = 1 2 −1 0 1 1 . −1 1 1 −1 , tenemos que 4 1
2 3 7 − 3 2 −7 5 5 5 1 1 1 4 = Adj(A)t = −1 1 4 = − 15 5 5 |A| 5 1 1 1 1 −1 1 −5 . 5 5
Sistemas de ecuaciones lineales
Un sistema de ecuaciones de la forma a11 x1 + a12 x2 + .... + a1n xn = b1 a x + a x + .... + a x = b 21 1 22 2 2n n 2 (∗) ...... a x + a x + .... + a x = b m1 1 m2 2 mn n m 11
donde los aij y los bi son escalares del cuerpo K y los xj representan las incógnitas del sistema (también escalares del cuerpo K, en este caso, indeterminados), se llamará sistema de ecuaciones lineales o sistema lineal sobre el cuerpo K. Se dirá que el sistema tiene m ecuaciones y n incógnitas. A los aij se les llama coeficientes del sistema, a los bi términos independientes. Agrupando los elementos anteriores en forma de matriz obtenemos la matriz de coeficientes A = (aij ), de orden b1 b 2 m × n, el vector de términos independientes B = y el vector de las incógnitas ...
bm
x1 x 2 X = . Definimos la matriz ampliada (A|B), de orden m × (n + 1), como la que se forma ...
xn añadiendo la columna B a la matriz A. Si ponemos el vector de términos independientes y el de las incógnitas en forma de columna obtenemos la forma matricial del sistema AX = B. Una solución del sistema de ecuaciones lineales (*) es un vector S = (s1 , s2 , ..., sn ) ∈ K n tal que al sustituir cada incógnita xj por el correspondiente sj se verifican todas las ecuaciones, o equivalentemente, si se cumple la relación matricial AS t = B (S t denota el traspuesto del vector-fila S, es decir, lo hemos puesto en forma de vector-columna). Según el número de soluciones los sistemas pueden ser compatibles (SC), si tienen alguna solución, o incompatibles (SI), si no tienen ninguna solución. Un sistema compatible puede tener solución única, en cuyo caso se dice que es compatible determinado (SCD), o tener más de una solución, en cuyo caso se dice que es compatible indeterminado (SCI). De hecho cuando el cuerpo es infinito (como ocurre con el caso K = R) los SCI no sólo tienen más de una solución sino que tienen infinitas. En los SCI al conjunto de todas las soluciones se le llama solución general y ésta quedará en función de una serie de parámetros, obteniendo algo parecido a las ecuaciones paramétricas de un subespacio, sólo que en este caso puede haber coeficientes constantes que no multipliquen a los parámetros. Al menor número de parámetros que se necesitan para expresar la solución general lo llamaremos grado de indeterminación o grados de libertad del sistema. Diremos que un sistema AX = B es homogéneo si B es el vector nulo, es decir, si todos los términos independientes son nulos. Éstos siempre serán SC pues el vector cero es siempre una solución (la solución que se obtiene al coger todas las incógnitas con valor 0). Entonces un sistema homogéneo es SCI si y sólo si tiene alguna solución no nula. De hecho los sistemas homogéneos con coeficientes sobre K corresponden a ecuaciones implícitas de subespacios vectoriales de algún K n . Y el único sistema homogéneo con solución nula es el que representa al subespacio cero.
12
3.1
Sistemas equivalentes. Método de Gauss para resolver sistemas lineales
Diremos que dos sistemas de ecuaciones con el mismo número de incógnitas son equivalentes cuando tienen las mismas soluciones. Para que esto ocurra deben ser ambos SI, o ambos SCD con la misma solución única o ambos SCI con el mismo conjunto de soluciones. Las transformaciones que usualmente hemos hecho en vectores o matrices son válidas también aquí en sistemas de ecuaciones, en el sentido de que aplicadas a un sistema lo transforman en otro equivalente. Recordemos estas transformaciones: 1. Cambiar de orden las ecuaciones. 2. Multiplicar una ecuación por un escalar no nulo. 3. Sumar a una ecuación un múltiplo de otra. Además, aquí es posible también: 4. Cambiar de orden las incógnitas. En la práctica lo que podemos hacer es utilizar el método de Gauss que en otras ocasiones hemos empleado con vectores o matrices, que consiste en aplicar estas transformaciones hasta ”escalonar” el sistema, en el sentido de que en cada paso tengamos solamente una ecuación con una nueva incógnita que tiene coeficiente no nulo. A estas incógnitas las llamaremos pivotes. Una vez escalonado el sistema se resuelve de forma sencilla, pues: 1. Si al final (o en algún momento previo) nos sale un absurdo, es decir, una ecuación que no es posible que se cumpla (como 0 = 1, o algo similar) entonces estamos con un SI. Si no estamos en la situación anterior, estaremos con un SC y puede ocurrir que: 2. Todas las incógnitas sean pivotes, en cuyo caso tenemos un SCD en el que la solución del sistema se puede hallar despejando el valor de las incógnitas, de abajo hacia arriba. 3. Haya alguna incógnita del espacio que no sea un pivote. En este caso tenemos un SCI, y las incógnitas que no sean pivotes van a ser los parámetros del sistema. El número de parámetros (que por el método de Gauss son ya el número mínimo necesario para expresar la solución general del sistema) será el grado de indeterminación del sistema. Durante este proceso también pueden ir eliminándose ecuaciones ”triviales” de la forma 0 = 0 (porque estas ecuaciones siempre se cumplen y no aportan nada nuevo) o bien ecuaciones que sean CL de otras. Veamos los siguientes ejemplos:
13
Ejemplo 3.1
1. Discutir y resolver (en su caso) el siguiente sistema lineal x1 + 2x2 + 5x3 = 3 3x1 + 6x2 + 15x3 = 5 − 2x2 + x3 = −4.
Añadiéndole a la segunda y tercera filas la primera (multiplicada por −3 y por 0, respectivamente) obtenemos x1 + 2x2 + 5x3 = 3 0 = −4 − 2x2 + x3 = −4.
En este caso hemos obtenido una ecuación contradictoria (un absurdo) 0 = −4, con lo que deducimos que es un SI. A la hora de resolver sistemas de ecuaciones lineales por el método de Gauss puede emplearse otra variante: en vez de hacer las operaciones directamente con el sistema podemos hacerlo de forma matricial, utilizando la matriz ampliada del sistema. El ahorro de esta variante es que sólo trabajaríamos con los coeficientes del sistema, sin escribir ni las incógnitas, ni los símbolos de igualdad.
2. Discutir y resolver (en su caso) el siguiente sistema lineal x1 + 2x2 + 5x3 = 3 3x1 + 6x2 + 15x3 = 9 − 2x2 + x3 = −6. Obtenemos que la matriz ampliada del sistema es 1 2 5 3 6 15 9 3 0 −2 1 −6 .
Multiplicamos la primera fila por −3 y se la añadimos a la segunda, y multiplicada por 0 se la añadimos a la tercera y obtenemos 1 2 5 3 0 0 0 0 0 −2 1 −6 .
Eliminando entonces la segunda ecuación llegamos a la matriz à ! 1 2 5 3 0 −2 1 −6 , que representa al sistema
(
x1 + 2x2 + 5x3 = 3 − 2x2 + x3 = −6 14
,
que es equivalente al sistema inicial. Como ya está escalonado y no nos ha aparecido ninguna ecuación contradictoria estamos con un SC. Además sólo hay 2 pivotes, x1 y x2 , con lo que sobra un incógnita, x3 , que será el único parámetro en este caso, de manera que tenemos un SCI (ya que hay algún parámetro). Así, poniendo x3 = α y despejando en las ecuaciones obtenemos que x2 = − 12 (−6 − x3 ) = 3 + α2 . Y sustituyendo esto en la primera ecuación tenemos que x1 = 3 − 5x3 − 2x2 = 3 − 5α − 2(3 + α2 ) = −3 − 6α. Así la solución general de este SCI es x1 = −3 − 6α con α ∈ R. x2 = 3 + α2 x3 = α
Si observamos es similar a la forma que tenían las ecuaciones paramétricas de los subespacios de los K n ; la única diferencia está en que pueden aparecer constantes que no multipliquen a los parámetros (como ocurre con el −3 de x1 o el 3 de x2 ).
También es posible utilizar el método de Gauss-Jordan (recordemos que fue usado para hallar la inversa de una matriz). Lo único que hay que hacer es transformar la matriz de coeficientes en una matriz ”diagonal”: 3. Discutir y resolver (en su caso) el siguiente sistema lineal x1 + 2x2 + 5x3 = 3 3x1 + 6x2 + 14x3 = 9 − 2x2 + x3 = −4.
De nuevo le añadimos a la segunda y tercera filas un múltiplo adecuado de la primera y obtenemos x1 + 2x2 + 5x3 = 3 − x3 = 0 − 2x2 + x3 = −4. Cambiando de orden las dos últimas filas tenemos x1 + 2x2 + 5x3 = 3 − 2x2 + x3 = −4 − x3 = 0,
sistema que ya está escalonado. Como no hemos obtenido ninguna ecuación absurda estamos con un SC. Y como los pivotes son las tres variables, no va a haber ningún parámetro, de modo que tenemos un SCD. El valor de las incógnitas se halla despejando de abajo a arriba las variables, o, si empleamos Gauss-Jordan transformando previamente la matriz en una matriz ”diagonal”. Así, le añadimos la tercera fila a la segunda y primera multiplicada por 1 y 5, respectivamente y tenemos x1 + 2x2 = 3 − 2x2 = −4 ; − x3 = 0. 15
Finalmente le sumamos la segunda ecuación a la primera y tenemos = −1 x1 − 2x2 = −4 − x3 = 0,
de donde obtenemos que x1 = 1, x2 = 2 y x3 = 0.
3.2
Teorema de Rouché-Fröbenius
Teorema 3.2 Un sistema de ecuaciones lineales es compatible si y sólo si el rango de la matriz de coeficientes coincide con el de la matriz ampliada. En este caso, el sistema es compatible determinado si este rango coincide con el número de incógnitas del espacio. Cuando el sistema es compatible indeterminado el grado de indeterminación será la diferencia entre el número de incógnitas y el rango. Como consecuencia del Teorema de Rouché-Fröbenius obtenemos que un sistema homogéneo AX = 0 tiene solución no nula si y sólo si r(A) < n. Además, el sistema representa las ecuaciones implícitas de algún subespacio W de K n para el que se tiene que dim W = n − r(A).
3.3
Método de Cramer
Teorema 3.3 Supongamos que tenemos un sistema de ecuaciones lineales AX = B con matriz de coeficientes A cuadrada de orden n, y del que se sabe que es SCD. Entonces la solución del sistei| ma (x1 , x2 , ..., xn ) cumple que xi = |M para todo i, donde Mi es la matriz obtenida a partir de A |A| sustituyendo la columna i-ésima por la columna de términos independientes B. El método de Cramer también puede utilizarse para resolver un SCI del siguiente modo: Supongamos que r(A) = r(A|B) = k < n y elegimos un menor no nulo de A de orden k. Se dejan a la izquierda las incógnitas que forman parte del menor; el resto de incógnitas se pasarán a la derecha y serán los parámetros. Las ecuaciones que no forman parte del menor pueden eliminarse pues son CL de las restantes. La solución general del sistema puede obtenerse por Cramer, imaginando que tenemos el SCD en el que se consideran como incógnitas únicamente las que están a la izquierda, es decir, los pivotes (la matriz de coeficientes de este sistema será de orden k × k pues no formarán parte de ella los coeficientes de las incógnitas que van a ser ahora parámetros, ni tampoco los de las ecuaciones que hemos eliminado). El método de Cramer es en general poco útil en la práctica, pues cuando el orden del sistema es relativamente grande hay que hacer demasiadas operaciones para resolverlo (ya cuando estamos con 3 ecuaciones y 3 incógnitas no es recomendable). Ejemplo 3.4 Discutir y resolver (en su caso) los siguientes sistemas lineales utilizando el método de Cramer:
16
x1 + x2 − x3 = 2 1. 3x1 − x2 + 2x3 = 2 −x1 − x2 − 3x3 = −2 ¯ ¯ ¯ 1 1 −1 ¯¯ ¯ ¯ ¯ Como ¯ 3 −1 2 ¯ = 16 6= 0 se tiene que el rango tanto de la matriz de coeficientes como ¯ ¯ ¯ −1 −1 −3 ¯ el ¯de la matriz ampliada valen 3. Por ¯ello estamos con ¯ ¯ un SCD. Entonces la ¯ solución es x1¯ = ¯ ¯ ¯ 2 ¯ 1 ¯ 1 1 −1 2 −1 1 2 ¯¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯ 1 ¯ 1 ¯ 1 ¯ = 1, x2 = 16 = 1 y x3 = 16 2 −1 2 ¯ = 16 2 2 ¯ = 16 2 ¯= ¯ 3 ¯ 3 −1 16 ¯¯ 16 16 ¯ ¯ ¯ ¯ ¯ ¯ −2 −1 −3 ¯ ¯ −1 −2 −3 ¯ ¯ −1 −1 −2 ¯ 0 = 0. 16 x1 − x2 + 3x3 = −1 2. 2x1 + x2 − x3 = 2 3x1 + 2x3 = 1
Es fácil comprobar que el rango tanto de la matriz de coeficientes como de la matriz ampliada es 2. Por ello estamos con un SCI. Como las dos primeras filas de la matriz ampliada son LI la última es necesariamente CL de ellas dos. De este modo podemos eliminar la última y quedarnos ( x1 − x2 + 3x3 = −1 con el sistema que es equivalente al primero. Podemos quedarnos con un 2x1 + x2 − x3 = 2 menor de orden dos no nulo (por ejemplo el que corresponde a las dos primeras filas y columnas) ( x1 − x2 = −1 − 3x3 , para el que imaginamos que tiene y poniendo el sistema en la forma 2x1 + x2 = 2 + x3 sólo dos ecuaciones y dos incógnitas, y cuyas soluciones podemos ¯ ¯ ¯ ¯ hallarlas en función de x3 por ¯ ¯ ¯ ¯ ¯ −1 − 3x3 −1 ¯ ¯ 1 −1 − 3x3 ¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯ 2 + x3 ¯ 2 2 + x3 ¯ 1 ¯ 1−2x 3 3 ¯ ¯ ¯ ¯ Cramer: x1 = = y x = = 4+7x . 2 ¯ ¯ ¯ ¯ 3 3 ¯ 1 −1 ¯ ¯ 1 −1 ¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯ 2 ¯ 2 1 ¯¯ 1 ¯¯
Ejemplo 3.5 Discutir y resolver (en su caso) el siguiente sistema de ecuaciones lineales en función del parámetro a x1 + 2x2 + 5x3 = 3 x1 + 3x2 + 8x3 = 5 − 2x2 + ax3 = 4. Añadiéndole la primera fila a las demás obtenemos x1 + 2x2 + 5x3 = 3 x2 + 3x3 = 2 − 2x2 + ax3 = 4. 17
Le añadimos ahora la segunda fila a la tercera y tenemos x1 + 2x2 + 5x3 = 3 x2 + 3x3 = 2 (a + 6)x3 = 8.
Entonces la discusión se hace teniendo en cuenta que el parámetro aparece en alguno de los pivotes una vez que el sistema está escalonado. x1 y x2 son pivotes. El coeficiente a + 6 puede ser nulo (si a = −6) con lo que en ese caso la variable x3 no sería un pivote, es más tendríamos una ecuación de la forma 0 = 8. Así que en ese caso (a = −6) tenemos un SI. Y cuando a 6= −6 tendremos que la variable x3 sí que es un pivote (pues su coeficiente a + 6 es no nulo) y estamos con un SC. Además al no sobrar ninguna variable, ya que todas son pivotes, tendríamos un SCD, cuya solución (dependiente de a) se 8 8 8 8 hallaría despejando como hacemos habitualmente: x3 = a+6 , x2 = 2−3 a+6 y x1 = 3−2(2−3 a+6 )−5 a+6 . Otro modo de discutir este sistema es utilizando el Teorema de Rouché-Froebenius, calculando los rangos de las matrices asociadas. Para esto puede ser útil el determinante (que en este caso tiene sentido pues la matriz de coeficientes es cuadrada; en el caso de que sea cuadrada la matriz ampliada también se puede utilizar; pero en cualquier otro caso no), de manera que hallando el determinante de la matriz de coeficientes ¯ ¯ ¯ ¯ ¯ ¯ ¯ 1 2 5 ¯¯ 2 5 ¯¯ ¯¯ 1 ¯ 1 3 ¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯ |A| = ¯ 1 1 3 ¯ = 1¯ 3 8 ¯=¯ 0 ¯ = a + 6. ¯ −2 a ¯ ¯ ¯ ¯ ¯ ¯ 0 −2 a ¯ ¯ 0 −2 a ¯
Entonces tenemos que si |A| 6= 0 (a 6= −6) el rango de la matriz A es 3, y como el rango de la matriz ampliada no puede ser mayor (al tener 3 filas) tendríamos r(A) = r(A|B) = 3 =número de incógnitas. En este caso tendríamos un SCD, cuya única solución, dependiente de cada valor a 6= −6, se podrá hallar por el método anterior o utilizando la fórmula de Cramer (éste es uno de los pocos casos en los que puede resultar útil este método). Y en el caso en que |A| = 0 (a = −6) tenemos que hacerlo de forma directa. Pero se ve fácilmente que r(A) = 2 y r(A|B) = 3, con lo que tendríamos un SI. El resultado de la discusión ha sido entonces: Si a 6= −6 SCD y si a = −6 SI.
18