Tema 1: Matrices, determinantes y sistemas de ecuaciones lineales

Tema 1: Matrices, determinantes y sistemas de ecuaciones lineales 1 Matrices Una matriz con coeficientes sobre un cuerpo K (normalmente K = R) consi

0 downloads 111 Views 218KB Size

Recommend Stories


SISTEMAS DE ECUACIONES LINEALES. MATRICES Y DETERMINANTES
Sistemas de ecuaciones lineales. Matrices y determinantes. SISTEMAS DE ECUACIONES LINEALES. MATRICES Y DETERMINANTES. 1.- Introducción a los sistemas

Matrices y determinantes. Sistemas de ecuaciones lineales
UNIVERSIDAD DE JAÉN ESCUELA POLITÉCNICA SUPERIOR Departamento de Matemáticas (Área de Álgebra) Curso 2014/15 PRÁCTICA Nº 9 Matrices y determinantes.

Tema 2: Matrices, determinantes y sistemas de ecuaciones lineales
Tema 2: Matrices, determinantes y sistemas de ecuaciones lineales 1 Matrices Una matriz con coeficientes sobre un cuerpo K (normalmente K = R) consi

Tema 3: Matrices, determinantes y sistemas de ecuaciones lineales
Tema 3: Matrices, determinantes y sistemas de ecuaciones lineales 1 Matrices Una matriz con coeficientes sobre un cuerpo K (normalmente K = R) consi

Story Transcript

Tema 1: Matrices, determinantes y sistemas de ecuaciones lineales 1

Matrices

Una matriz con coeficientes sobre un cuerpo K (normalmente K = R) consiste en una colección de números (o escalares) del cuerpo K ordenados por filas y columnas. Si la matriz tiene m filas y n columnas se dirá que es de orden m × n. Ejemplo 1.1 Las siguientes son matrices con coeficientes sobre R:

A=

Ã

0 −1 3 3 0.5 6

⎛ √ 5 ⎜ 0 ⎜ C=⎜ ⎝ −2 5 E=

Ã

!

de orden 2 × 3

B=

⎞ 3 −3 0 0 ⎟ ⎟ ⎟ de orden 4 × 3 8 8 ⎠ 7 0 2 1 0 −3

!

³

3 7

´

de orden 1 × 2

⎞ 0 ⎜ ⎟ D = ⎝ 2 ⎠ de orden 3 × 1 8 ⎛

⎞ 3 0 0 ⎟ ⎜ F = ⎝ 5 −4 0 ⎠ de orden 3 × 3 1 −8 0 ⎛

de orden 2 × 2

Sea A una matriz. Para indicar la fila y columna que ocupa cada elemento usaremos la notación A = (aij ), donde el índice i indica la fila y el índice j la columna. De este modo estamos diciendo que el elemento aij de la matriz A es el que ocupa la fila i y la columna j, considerando esto para todos los posibles i y j. Así los elementos de la matriz A = (aij ) del ejemplo anterior son: a11 = 0

a12 = −1

a13 = 3

a21 = 3

a22 = 0.5

a23 = 6

Recordemos que Rn está formado por todos los vectores de n coordenadas, todas ellas números reales. Similarmente ocurre con K n tomando esta vez escalares del cuerpo K en vez de números de R. Para una matriz A de orden m × n denotaremos por Fi la fila i-ésima de la matriz, la cual puede interpretarse como un vector de K n al que llamaremos vector-fila de A; igualmente denotaremos por Cj a la columna j-ésima de la matriz, que puede interpretarse como un vector de K m al que llamaremos vector-columna de A. Una submatriz de otra es una matriz que se obtiene a partir de la inicial cogiendo unas cuantas filas y unas cuantas columnas. Se dice que una matriz es cuadrada si tiene el mismo número de filas que de columnas (como la matriz E del ejemplo anterior). En esta situación si la matriz tiene n filas y n columnas, podremos decir que es de orden n × n ó simplemente de orden n. Se llama diagonal principal de una matriz (generalmente cuadrada) a los elementos de la forma aii para todo i posible, es decir, los elementos que tienen el mismo índice fila que columna (la diagonal principal de la matriz E del ejemplo anterior está formada por el a11 = 2 y el a22 = 0). Una matriz cuadrada se dice que es triangular inferior (respectivamente triangular superior) cuando todo elemento que esté situado por encima (respectivamente por debajo) de la diagonal principal es nulo (la matriz E del ejemplo anterior es triangular superior, mientras que la matriz F es triangular inferior). A una matriz cuadrada que es triangular tanto inferior como superior, es decir, si cumple que los elementos que no están en la diagonal principal son nulos, se le llama matriz diagonal. La matriz diagonal de orden n que tiene todos los elementos de la diagonal principal iguales a 1 se llama matriz identidad (o matriz unidad) de orden n, y la denotaremos por In , o simplemente por I si está claro el tamaño. La matriz nula es la matriz que tiene todos sus coeficientes son nulos. La matriz opuesta de una matriz A se denota

1

por −A y consiste en cambiar de signo todos sus coeficientes. Veamos algunos ejemplos: ⎞ ⎛ ⎞ 5 7 −3 5 −3 ⎜ 6 −5 0 ⎟ ⎟ ⎟ ⎜ ⎜ 5 ⎠ es submatriz de ⎜ ⎟ al coger las filas 1, 3 y 4 y las columnas 1 y 3 ⎝ −3 ⎝ −3 8 5 ⎠ −5 7 −5 0 7 ⎛

Ã

−3 0 0 4

!

Ã

es una matriz diagonal Ã

0 0 0 0 0 0

!

es la matriz identidad de orden 2

es la matriz nula de orden 2 × 3

La opuesta de la matriz

1.1

!

1 0 0 1

Ã

0 4 −3 −1 2 0

!

es

Ã

0 −4 3 1 −2 0

!

Operaciones con matrices

Fijados m y n, al conjunto de las matrices de orden m × n con coeficientes sobre un cuerpo K lo denotaremos por Mm×n (K). 1.1.1

Suma

Sean A = (aij ) y B = (bij ) dos matrices del mismo orden (m × n). Se define la suma de las dos matrices como la matriz A + B = (cij ), también de orden m × n, que cumple que cij = aij + bij para cada par de índices i, j. Esto se traduce en que sumamos A y B coeficiente a coeficiente. Observemos que esto sólo tiene sentido si las dos matrices son del mismo orden. Por ejemplo à ! à ! à ! 0 1 3 2 0 −3 2 1 0 + = −1 5 6 2 0 4 1 5 10 Propiedades: • Propiedad asociativa: ∀A, B, C ∈ Mm×n (K) se tiene que (A + B) + C = A + (B + C) • (Propiedad conmutativa) ∀ A, B ∈ Mm×n (K) se tiene que A+B =B+A • (Elemento neutro) La matriz nula 0 ∈ Mm×n (K), cumple que dada cualquier otra matriz B ∈ Mm×n (K) se tiene que B+0=B • (Elemento opuesto) Dada A ∈ Mm×n (K) se cumple que A + (−A) = 0 Entonces Mm×n (K) es un grupo abeliano con la suma ”+”, por cumplir estas propiedades.

2

1.1.2

Producto de una matriz por un escalar

Sea A = (aij ) una matriz de orden m × n y α ∈ R. Se define el producto del escalar por la matriz como la matriz α · A = (dij ) (o simplemente αA, omitiendo el símbolo de multiplicar) de orden m × n, que cumple que dij = αaij para todo i, j posibles. Por ejemplo à ! à ! 0 1 3 0 3 9 3 = −1 5 6 −3 15 18

−4

Ã

2 −1 3 9 0 8

!

=

Ã

−8 4 −12 −36 10 −32

!

Propiedades • Pseudodistributivas: 1. ∀A, B ∈ Mm×n (K), ∀λ ∈ K se tiene que λ(A + B) = λA + λB 2. ∀A ∈ Mm×n (K), ∀λ, μ ∈ K se tiene que (λ + μ)A = λA + μA • Pseudoasociativa: ∀A ∈ Mm×n (K), ∀λ, μ ∈ K se tiene que (λ · μ)A = λ(μA) • Pseudoelemento neutro: ∀A ∈ Mm×n (K) se tiene que 1·A=A (donde 1 es el neutro para la multiplicación en el cuerpo K). Observación 1.2 Como veremos en el Tema 2 el conjunto Mm×n (K) está dotado, con la suma y el producto por escalares que aquí se han detallado, de estructura de espacio vectorial. 1.1.3

Producto de matrices

Dadas dos matrices A = (aij ) y B = (bij ) de orden m × n y n × p, respectivamente, se define el producto de ambas matrices como la matriz A · B = (cij ) (en adelante AB, sin punto) de orden m × p que cumple que cij =

n P

aik bkj = ai1 b1j + ai2 b2j + ... + ain bnj

k=1

para todo i, j posibles. Recordando que el producto escalar (euclídeo) de dos vectores (a1 , a2 , ..., an ), (b1 , b2 , ..., bn ) de Rn está dado por n P (a1 , a2 , ..., an ) · (b1 , b2 , ..., bn ) = ak bk = a1 b1 + a2 b2 + ... + an bn k=1

el producto matricial puede interpretarse del siguiente modo: para obtener el elemento del producto AB que está situado en la fila i, columna j, hay que hacer el producto escalar del vector-fila Fi de A por el vectorcolumna Cj de B (esto vale también para matrices consideradas sobre un cuerpo arbitrario K, no necesariamente R). Notemos que si m 6= p no tiene sentido hacer el producto BA. Incluso aunque m = p, y entonces tenga sentido el producto en orden inverso, la matriz AB tendría orden m × m y la matriz BA sería de orden n × n, luego ambas no podrían ser iguales, ya que tendrían distinto orden, si m 6= n. Es más, aún poniéndonos en la situación en que n = m = p (así A, B, AB y BA son cuadradas de orden n) el producto no tiene por qué ser conmutativo, es decir, es posible que AB 6= BA. Dada una matriz cuadrada A se define la potencia n-ésima de A como la matriz n veces A

z }| { A =A · A · ... · A n

es decir, el producto de n veces A. Así A1 = A, A2 = A · A, A3 = A · A · A, etc. 3

Ejemplo 1.3

1. Dadas A=

la matriz producto es AB =

Ã

Ã

!

1 −2 0 −3 1 −2 0 −3



3 −1 0 4 −2 1

!

B=

Ã

3 −1 0 4 −2 1

!

Ã

−5 3 −2 −12 6 −3

=

!

2. Para la matriz A anterior se tiene que ! ! Ã !Ã ! Ã !Ã !Ã !Ã Ã 1 40 1 4 1 4 1 −2 1 −2 1 −2 1 −2 4 = = A =A·A·A·A= 0 81 0 9 0 9 0 −3 0 −3 0 −3 0 −3 Propiedades 1. Asociativa: Dadas matrices A de orden m × n, B de orden n × p y C de orden p × q se tiene (AB)C = A(BC) y entonces podremos escribir simplemente ABC. 2. Relación con el producto por escalares: Dadas matrices A de orden m × n y B de orden n × p y dado cualquier escalar α se tiene α(AB) = (αA)B = A(αB) y entonces lo escribiremos de cualquiera de las formas siguientes αAB = AαB = ABα. 3. Distributivas: Dadas matrices A, B de orden m × n, C de orden n × p y D de orden q × m se tiene (A + B)C = AC + BC

y

D(A + B) = DA + DB

4. Se tiene que A·0=0

y

0·A=0

para cualquier matriz A, tomando la matriz nula del tamaño correspondiente en cada caso. 5. Elemento neutro: Para cualquier matriz A se cumple que IA = A

y

AI = A

tomando I la matriz identidad del tamaño adecuado en cada caso. 6. No conmutativa: En general se tiene AB 6= BA, para matrices A y B de órdenes m×n y n×m, respectivamente. 1.1.4

Trasposición de matrices

Dada una matriz A = (aij ) de orden m × n se llama matriz traspuesta de A, a la matriz At = (bij ) de orden n × m cuyos elementos son bij = aji para cada i, j. Observemos que cualquier matriz tiene traspuesta, no necesita ser cuadrada. En la práctica para calcular la traspuesta de una matriz hay que tener en cuenta que las filas de A son las columnas de At , o equivalentemente, las columnas de A las filas de At . ⎞ ⎛ Ã ! 2 2 2 0 −3 ⎟ ⎜ A= −→ At = ⎝ 0 0 ⎠ 2 0 4 −3 4 Una matriz cuadrada A se dice que es simétrica si

A = At Por ejemplo, es simétrica la matriz

⎞ 1 −3 0 ⎟ ⎜ 0 4 ⎠ ⎝ −3 0 4 −2 ⎛

4

1.2

Sistemas escalonados. Método de Gauss

En toda la parte de Álgebra Lineal nos van a aparecer con frecuencia (en matrices, sistemas de ecuaciones, sistemas de vectores de algunos de los espacios Rn , espacios vectoriales....) sistemas escalonados. Estos sistemas se caracterizan porque se puede elegir una ordenación en la que cada fila (ecuación o vector) tiene más ceros iniciales que la/el anterior, exceptuando las filas (ecuaciones o vectores) nulas que pudieran aparecer al final. ⎞ ⎛ 1 −3 0 3 7 ⎜ 0 0 4 5 0 ⎟ ⎟ ⎜ ⎟ matriz escalonada ⎜ ⎝ 0 0 0 1 −4 ⎠ 0 0 0 0 0 Ejemplo 1.4 El sistema de ecuaciones lineales ⎧ = 3 ⎪ ⎨ x1 + 2x2 = −4 − 2x2 ⎪ ⎩ − x3 = 0

está escalonado, pues si representamos los coeficientes de modo matricial vemos que la matriz ⎞ ⎛ 1 2 0 3 ⎟ ⎜ 0 −4 ⎠ ⎝ 0 −2 0 0 −1 0

está escalonada. Resolver un sistema de ecuaciones escalonado es bien sencillo. Para éste en concreto obtenemos en la última ecuación x3 = 0, de la segunda x2 = 2, y sustituyendo esto en la primera que x1 = −1. Nota: Un sistema de ecuaciones lineales se caracteriza porque las incógnitas del sistema (en este caso x1 , x2 y x3 ) aparecen en cada una de las ecuaciones del sistema sumando, restando o multiplicadas por un número (no aparecen ni multiplicando ni dividiendo ni realizando otro tipo de operaciones diferentes de la suma, resta o multiplicación por números). Ejemplo 1.5 El sistema de vectores de R6 v1 = (0, 0, 3, 4, 5, 4)

v2 = (0, 2, 3, 4, 5, −3)

es escalonado si se elige el orden v2 , v1 , v3 , v4 . vectores: ⎛ 0 ⎜ 0 ⎜ ⎜ ⎝ 0 0

v3 = (0, 0, 0, 0, 1, −6)

v4 = (0, 0, 0, 0, 0, 2)

Observemos la representación matricial con esta ordenación de los 2 0 0 0

3 3 0 0

4 4 0 0

⎞ 5 −3 5 4 ⎟ ⎟ ⎟ 1 −6 ⎠ 0 2

El método de triangulación o escalonación de Gauss, que utilizaremos en estos temas, se utiliza para pasar de un estado inicial (sea en forma de matriz, de sistema de ecuaciones lineales, o de sistema de vectores) a otro estado que se denomina la escalonación del sistema inicial. Se hace uso de 3 tipos de transformaciones (denominadas transformaciones elementales) para la escalonación. Éstas son: 1. Cambiar el orden de las filas, ecuaciones o vectores. 2. Añadirle a una fila, ecuación o vector múltiplos de otras/os. 3. Multiplicar una fila, ecuación o vector por algún escalar no nulo. Observación 1.6 Podemos utilizar las siguientes notaciones cuando realicemos alguna trasformación elemental (usaremos preferentemente notación para matrices): 1. Si intercambiamos las filas Fi y Fj pondremos Fi ←→ Fj 5

2. Si le añadimos a la fila Fj α veces la fila Fi pondremos Fj + αFi 3. Si multiplicamos la fila Fi por α pondremos αFi Observación 1.7 Estas transformaciones también pueden hacerse sobre las columnas, al menos para el caso de matrices, sobreentendiendo las notaciones correspondientes (cambiando la F de fila por la C de columna). Ejemplo 1.8 Escalonemos (por filas) la matriz ⎛

⎞ 2 1 −1 0 ⎟ ⎜ 0 −3 1 ⎠ ⎝ 1 −1 −1 −2 1

En primer lugar cambiamos de orden las dos primeras filas: ⎛ F1 ←→ F2

⎞ 1 0 −3 1 ⎟ ⎜ 1 −1 0 ⎠ ⎝ 2 −1 −1 −2 1

Después le añadimos la primera fila a la segunda y a la tercera (a la segunda multiplicada por −2 y la tercera por 1) y obtenemos ⎞ ⎛ 1 0 −3 1 F2 − 2F1 ⎟ ⎜ 1 5 −2 ⎠ ⎝ 0 F3 + F1 0 −1 −5 2 Ahora nos fijamos únicamente en las dos últimas filas y le sumamos a la tercera la segunda. Nos da ⎞ ⎛ 1 0 −3 1 ⎟ ⎜ F3 + F2 5 −2 ⎠ ⎝ 0 1 0 0 0 0

Ya tenemos escalonada la matriz inicial.

Ejemplo 1.9 Escalonar el siguiente sistema de ecuaciones lineales ⎧ ⎪ ⎨ x1 + 2x2 + 5x3 = 3 3x1 + 6x2 + 15x3 = 9 ⎪ ⎩ − 2x2 + x3 = −6

Matricialmente se tiene

⎞ 1 2 5 3 ⎟ ⎜ 6 15 9 ⎠ ⎝ 3 0 −2 1 −6 ⎛

Le añadimos la primera fila multiplicada por −3 a la segunda y obtenemos ⎞ ⎛ 1 2 5 3 ⎟ ⎜ F2 − 3F1 0 0 0 ⎠ ⎝ 0 0 −2 1 −6 Cambiando las dos últimas llegamos a la matriz

F3 ←→ F2 que representa al sistema

el cual está ya escalonado.

⎞ 1 2 5 3 ⎟ ⎜ ⎝ 0 −2 1 −6 ⎠ 0 0 0 0 ⎛

⎧ ⎪ ⎨ x1 + 2x2 + 5x3 = 3 − 2x2 + x3 = −6 ⎪ ⎩ 0=0 6

Ejemplo 1.10 Escalonemos el sistema de vectores {(−1, 0, 1, 1), (1, 0, 3, 2), (2, 1, −1, 0)} Para ello hagamos operaciones sobre la matriz cuyas filas son estos vectores: ⎞ ⎛ −1 0 1 1 ⎟ ⎜ 3 2 ⎠ ⎝ 1 0 2 1 −1 0 En primer lugar le añadimos la primera fila a la segunda (multiplicada ⎛ −1 0 1 F2 + F1 ⎜ ⎝ 0 0 4 F3 + 2F1 0 1 1

por 1) y a la tercera (multiplicada por 2), ⎞ 1 ⎟ 3 ⎠ 2

Después cambiamos de orden la segunda y tercera filas y obtenemos la escalonación ⎞ ⎛ −1 0 1 1 ⎟ ⎜ F2 ←→ F3 ⎝ 0 1 1 2 ⎠ 0 0 4 3

Entonces el sistema de vectores escalonado obtenido es

{(−1, 0, 1, 1), (0, 1, 1, 2), (0, 0, 4, 3)} Una variante del método de Gauss es el de Gauss-Jordan, que consigue, además de ceros por debajo de la diagonal como lo hace el método de Gauss, también ceros por encima y unos en la misma diagonal. Ejemplo 1.11 Escalonar el siguiente sistema de ecuaciones lineales mediante el método de Gauss-Jordan: ⎧ ⎪ ⎨ x1 + 2x2 + 5x3 = 3 3x1 + 6x2 + 14x3 = 9 ⎪ ⎩ − 2x2 + x3 = −4 Le añadimos a la segunda −3 veces la primera y obtenemos ⎧ ⎪ ⎨ x1 + 2x2 + 5x3 = 3 − x3 = 0 F2 − 3F1 ⎪ ⎩ − 2x2 + x3 = −4

Cambiando de orden las dos últimas filas tenemos F2 ←→ F3

⎧ ⎪ ⎨ x1 + 2x2 + 5x3 = 3 − 2x2 + x3 = −4 ⎪ ⎩ − x3 = 0

sistema que ya está escalonado. Ahora le añadimos la tercera fila a la segunda y primera multiplicada por 1 y 5, respectivamente y tenemos ⎧ =3 ⎪ ⎨ x1 + 2x2 F2 + F3 = −4 − 2x2 ⎪ F1 + F5 ⎩ − x3 = 0 Finalmente le sumamos la segunda ecuación a la primera y tenemos ⎧ = −1 ⎪ ⎨ x1 = −4 − 2x2 F1 + F2 ⎪ ⎩ − x3 = 0 Finalmente se multiplica la segunda ecuación por − 12 y la tercera por ⎧ ⎪ ⎨ x1 1 − 2 F2 x2 ⎪ −F3 ⎩ x3 7

−1 para quedar así:

= −1 = 2 = 0

1.3

Rango

El rango de una matriz A es un número que será denotado por r(A) ó R(A). Esto podemos calcularlo, aplicando el método de Gauss para escalonar las filas (o columnas) de A, teniendo en cuenta que r(A) es el número de filas (o columnas) no nulas que resultan después de escalonar la matriz. Esto se debe a que las transformaciones elementales que se realizan a las filas o columnas de una matriz no varían su rango. Definición 1.12 Se dice que un vector v es combinación lineal (en adelante CL) de otros vectores {v1 , v2 , ..., vn } si n P v= αi vi es decir v = α1 v1 + α2 v2 + ... + αn vn i=1

para ciertos números α1 , α2 , ..., αn .

Ejemplo 1.13 En la situación de una matriz A con cuatro filas si: 1. F2 = α1 F1 + α3 F3 + α4 F4 se diría que F2 es CL de F1 , F3 y F4 . 2. F1 = 3F2 − 2F3 + F4 se diría que F1 es combinación lineal (CL) de F2 , F3 y F4 . 3. F3 = F2 − 7F4 (observemos que α1 = 0) se diría que F3 es combinación lineal (CL) de F1 , F2 y F4 . Definición 1.14 Se dice los vectores {v1 , v2 , ..., vn } son linealmente dependientes (en adelante LD), o que hay una relación de dependencia lineal entre ellos, si alguno de los vectores del sistema es CL de los demás. Esto significa que para uno de ellos, por ejemplo vi , sucede que vi =

P

αj vj

j6=i

para ciertos números {αj : j 6= i}. En caso contrario se dirá que son linealmente independientes (LI). En el proceso del cálculo del rango de una matriz mediante el método de escalonación de Gauss podemos, o bien dejar las filas nulas que nos vayan apareciendo al final (tal y como está concebido inicialmente el método de Gauss) o bien ir eliminando estas filas (pues luego éstas no cuentan para el rango). Lo mismo podemos hacer con las filas entre las que haya alguna relación de dependencia lineal, eliminando alguna que sea combinación lineal de las demás Ejemplo 1.15 Vamos a hallar el rango de la matriz ⎛ ⎜ ⎜ ⎜ ⎝

2 1 1 2

2 1 1 2

⎞ 2 0 0 −1 ⎟ ⎟ ⎟ 0 −1 ⎠ 1 0

3 2 2 2

En primer lugar cambiamos de orden la primera y segunda filas, para así operar mejor con el 1 que tiene la segunda fila como primer coeficiente. Tendríamos entonces

F1 ←→ F2

⎛ ⎜ ⎜ ⎜ ⎝

1 2 1 2

1 2 1 2

2 3 2 2

⎞ 0 −1 2 0 ⎟ ⎟ ⎟ 0 −1 ⎠ 1 0

donde añadimos la primera fila a las restantes, multiplicándola por números adecuados (a la segunda y cuarta se la añadimos multiplicada por −2 y a la tercera por −1). Entonces tenemos F2 − 2F1 F3 − F1 F4 − 2F1

⎛ ⎜ ⎜ ⎜ ⎝

1 0 0 0

8

⎞ 1 2 0 −1 0 −1 2 2 ⎟ ⎟ ⎟ 0 0 0 0 ⎠ 0 −2 1 2

Ahora procederíamos igual con las tres últimas filas. En ellas es nulo el primer coeficiente (porque lo hemos eliminado antes) y casualmente el segundo. Empezamos pues por el tercero. Esta vez no hace falta cambiarlas de orden y lo único que tenemos que hacer es añadir un múltiplo de la segunda fila a las demás para hacer ceros. En este caso basta añadirle a la cuarta fila −2 veces la segunda para obtener ⎛ ⎜ ⎜ ⎜ ⎝

F4 − 2F2

1 0 0 0

⎞ 1 2 0 −1 0 −1 2 2 ⎟ ⎟ ⎟ 0 0 0 0 ⎠ 0 0 −3 −2

Ahora procedemos con la tercera y cuarta filas, donde nos interesa cambiarlas de orden: ⎛ ⎜ ⎜ ⎜ ⎝

F3 ←→ F4

1 0 0 0

⎞ 1 2 0 −1 0 −1 2 2 ⎟ ⎟ ⎟ 0 0 −3 −2 ⎠ 0 0 0 0

Así, tenemos la escalonación final de la matriz, de donde obtenemos que el rango de nuestra matriz es 3.

1.4

Inversa

Una matriz cuadrada A de orden n se dice que es invertible cuando existe otra matriz cuadrada del mismo orden B de modo que AB = BA = In En esta situación la matriz B es única cumpliendo lo anterior, y se llamará la matriz inversa de A y escribiremos B = A−1 Observación 1.16 Puede comprobarse que B es la inversa de A si y sólo si AB = In si y sólo si BA = In , es decir, es suficiente con que uno de los dos productos resulte la matriz identidad. Propiedad: Una matriz cuadrada de orden n es invertible si y sólo si tiene rango n. La inversa de una matriz invertible A puede calcularse de varias formas. Una de ellas es directamente, planteando un sistema de ecuaciones (que se puede resolver escalonándolo por Gauss), obtenido a partir de la suposición de que los coeficientes de A−1 son indeterminados, y hacer el producto AA−1 = In (ó A−1 A = In ). Este método no es muy adecuado, pues hay que resolver n sistemas de n ecuaciones con n incógnitas. Es mejor el método de Gauss-Jordan que se explica a continuación. 1.4.1

Método de Gauss-Jordan para el cálculo de la inversa

Este método para el cálculo de la inversa de una matriz es en general bastante eficiente. Supongamos que tenemos una matriz A, cuadrada de orden n, que se sabe que es invertible. Pongamos la matriz A y a continuación, a la derecha, la matriz identidad de orden n. Usualmente se ponen ambas formando una matriz de orden n × 2n y se separan por una línea vertical, quedando en la forma (A|In ). Aplicamos a la matriz A el método de Gauss-Jordan (variante del método de Gauss), consistente en hacer operaciones por fila hasta obtener la matriz identidad. El resultado de aplicarle a la matriz identidad que hay a la derecha de A esas mismas operaciones nos proporciona precisamente A−1 . Observación 1.17 Si le aplicamos el método de Gauss-Jordan a una matriz no invertible observaremos que es imposible obtener la matriz identidad en la parte izquierda. Ejemplo 1.18 Hallar la inversa de la matriz ⎞ 1 1 0 ⎟ ⎜ A = ⎝ 2 −1 −2 ⎠ 3 0 −1 ⎛

9

Pondríamos entonces

¯ ⎞ ¯ 1 0 0 ¯ ⎟ ¯ ¯ 0 1 0 ⎠ ¯ ¯ 0 0 1



1 1 0 ⎜ ⎝ 2 −1 −2 3 0 −1

y aplicamos transformaciones, por ejemplo por fila. Añadimos a la segunda fila −2 veces la primera y a la tercera fila −3 veces, y obtenemos ¯ ⎞ ⎛ 1 1 0 ¯¯ 1 0 0 F2 − 2F1 ⎟ ¯ ⎜ ⎝ 0 −3 −2 ¯ −2 1 0 ⎠ ¯ F3 − 3F1 0 −3 −1 ¯ −3 0 1 Ahora le añadimos a la tercera fila −1 por la segunda: ¯ ⎞ ⎛ 0 0 1 1 0 ¯¯ 1 ⎟ ¯ ⎜ F3 − F2 1 0 ⎠ ⎝ 0 −3 −2 ¯ −2 ¯ 0 0 1 ¯ −1 −1 1

Una vez que estamos con una matriz triangular superior, se hacen operaciones mos a la segunda fila 2 veces la tercera: ¯ ⎛ 0 1 1 0 ¯¯ 1 ¯ ⎜ F2 + 2F3 ⎝ 0 −3 0 ¯ −4 −1 ¯ 0 0 1 ¯ −1 −1

Multiplicando la segunda fila por − 13 sale:

para hacerla diagonal. Primero añadi⎞ 0 ⎟ 2 ⎠ 1

¯ ⎞ 0 0 1 1 0 ¯¯ 1 ¯ ⎟ ⎜ 1 − 23 ⎠ ⎝ 0 1 0 ¯ 43 3 ¯ 0 0 1 ¯ −1 −1 1 ⎛

− 13 F2

finalmente añadimos a la primera fila −1 por la segunda: ¯ ⎞ ⎛ 2 1 0 0 ¯¯ − 13 − 13 3 ¯ ⎟ ⎜ 1 F1 − F2 − 23 ⎠ ⎝ 0 1 0 ¯ 43 3 ¯ 0 0 1 ¯ −1 −1 1 Entonces la matriz inversa de A es



⎜ A−1 = ⎝

− 13

− 13

−1

−1

4 3

1 3

2 3 − 23

1

Ejemplo 1.19 Hallar la inversa de la matriz

⎞ ⎟ ⎠

⎞ 1 0 1 ⎟ ⎜ B = ⎝ 2 −1 0 ⎠ 3 2 6 ⎛

Pondríamos entonces ⎛

1 0 1 ⎜ ⎝ 2 −1 0 3 2 6

¯ ⎞ ¯ 1 0 0 ¯ ⎟ ¯ ¯ 0 1 0 ⎠ ¯ ¯ 0 0 1

y aplicamos transformaciones, por ejemplo por fila. Añadimos a la segunda fila −2 veces la primera y a la tercera fila −3 veces y obtenemos ¯ ⎞ ⎛ 1 0 1 ¯¯ 1 0 0 F2 − 2F1 ⎟ ¯ ⎜ ⎝ 0 −1 −2 ¯ −2 1 0 ⎠ ¯ F3 − 3F1 0 2 3 ¯ −3 0 1 10

Añadimos a la tercera fila 2 veces la segunda y llegamos a ¯ ⎞ ⎛ 1 0 1 ¯¯ 1 0 0 ⎟ ¯ ⎜ F3 + 2F2 ⎝ 0 −1 −2 ¯ −2 1 0 ⎠ ¯ 0 0 −1 ¯ −7 2 1 Una vez que estamos con una matriz triangular superior se biamos el signo de las dos últimas filas, por lo que tenemos ⎛ 1 0 −F2 ⎜ ⎝ 0 1 −F3 0 0

hacen operaciones para hacerla diagonal. Primero cam¯ ⎞ ¯ 1 0 0 ¯ ⎟ ¯ 0 ⎠ ¯ 2 −1 ¯ ¯ 7 −2 −1

1 2 1

Ahora añadimos a la segunda fila −2 veces la tercera y se obtiene que ¯ ⎞ ⎛ 1 0 0 1 0 1 ¯¯ ⎟ ¯ ⎜ F2 − 2F3 3 2 ⎠ ⎝ 0 1 0 ¯ −12 ¯ 7 −2 −1 0 0 1 ¯ Finalmente a la primera fila le restamos la tercera y nos ⎛ 1 ⎜ F1 − F3 ⎝ 0 0

Entonces la matriz inversa de B es

B −1

sale

¯ ⎞ 2 1 0 0 ¯¯ −6 ⎟ ¯ 3 2 ⎠ 1 0 ¯ −12 ¯ 7 −2 −1 0 1 ¯

⎞ −6 2 1 ⎟ ⎜ = ⎝ −12 3 2 ⎠ 7 −2 −1 ⎛

Recordemos los pasos que se siguen para transformar una matriz A en la matriz identidad: 1. Transformar A en una matriz triangular inferior. 2. Convertir los elementos de la diagonal en 1. 3. Transformar la matriz resultante en una matriz diagonal. Nota: Los dos últimos pasos pueden entremezclarse.

2

Determinantes

La definición rigurosa del concepto de determinante requiere una serie de herramientas matemáticas que no creemos necesario tratar. El determinante está englobado dentro de lo que se denominan las aplicaciones multilineales. El determinante de una matriz cuadrada A de orden n con coeficientes sobre un cuerpo K es un escalar del cuerpo. Lo vamos a denotar por |A| (reemplazando los paréntesis usados para delimitar la matriz por líneas verticales), por det(A) o también por det(F1 , F2 , ...., Fn ), donde se supone que F1 , F2 , ..., Fn ∈ K n son los vectores-fila de A (igualmente se podría usar la notación det(C1 , C2 , ..., C2 ) a partir de los vectores-columna C1 , C2 , ..., Cn ∈ K n ). Diremos indistintamente que es el determinante de la matriz o de los vectores que están en las filas o columnas. La definición exacta de determinante es un tanto técnica y no se va a incluir aquí (aunque puede verse en buena parte de los textos de Álgebra). Vamos a dar las fórmulas para el cálculo de los determinantes de orden 1, 2 y 3, y a continuación enunciaremos algunas propiedades de los determinantes que nos permiten calcular también los determinantes de orden superior. Orden 1 −→ |a| = a ¯ ¯ a b ¯ Orden 2 −→ ¯ ¯ c d 11

¯ ¯ ¯ ¯ = ad − bc ¯

¯ ¯ a11 ¯ ¯ Orden 3 −→ ¯ a21 ¯ ¯ a31

a12 a22 a32

a13 a23 a33

¯ ¯ ¯ ¯ ¯= ¯ ¯

= a11 a22 a33 + a21 a32 a13 + a31 a12 a23 − a13 a22 a31 − a23 a32 a11 − a33 a12 a21 Esta fórmula se hace más sencilla de recordar si tenemos en cuenta que aparecen 6 sumandos, 3 de los cuales resultan de multiplicar los elementos que aparecen en la diagonal principal y los de cada una de las 2 diagonales ”paralelas” a ésta, y los otros tres resultan de multiplicar los elementos que aparecen en cada una de las 3 ”diagonales opuestas”. Esto se conoce como Regla de Sarrus. Ejemplo 2.1 ¯ ¯ ¯ 2 −3 0 ¯ ¯ ¯ ¯ ¯ ¯ 1 −1 4 ¯ = ¯ ¯ ¯ −2 3 5 ¯

= 2 · (−1) · 5 + 1 · 3 · 0 + (−2) · (−3) · 4 − 0 · (−1) · (−2) − 4 · 3 · 2 − 5 · (−3) · 1 = = −10 + 0 + 24 − 0 − 24 + 15 = 5

2.1

Propiedades de los determinantes

Sea A una matriz cuadrada de orden n, y supongamos que sus filas son F1 , F2 , ..., Fn ∈ K n . Entonces se cumplen las siguientes propiedades: 1. Si Fi = Fi0 + Fi00 , para ciertas filas Fi0 , Fi00 ∈ K n , entonces det(F1 , ..., Fi , ..., Fn ) = det(F1 , ..., Fi0 , ..., Fn ) + det(F1 , ..., Fi00 , ..., Fn ) 2. Para todo α ∈ K se tiene que det(F1 , ..., αFi , ..., Fn ) = α det(F1 , ..., Fi , ..., Fn ) 3. Para todo i, j ∈ {1, 2, ..., n} (i 6= j) se tiene que det(F1 , ..., Fj , ..., Fi , ..., Fn ) = − det(F1 , ..., Fi , ..., Fj , ..., Fn ) 4. Para todo i, j ∈ {1, 2, ..., n} (i 6= j) se tiene que det(F1 , ..., Fi + αFj , ..., Fn ) = det(F1 , ..., Fi , ..., Fn ) para todo i, j ∈ {1, 2, ..., n} (i 6= j) y todo α ∈ K. 5. det(F1 , ..., Fn ) = 0 si y sólo si los vectores F1 , F2 , ..., Fn son LD. De esto se deduce que: 6. A es invertible si y sólo si det A 6= 0. Además en esta situación det(A−1 ) =

1 det A

7. Si A es una matriz triangular superior o inferior (en particular si es una matriz diagonal) entonces det A es el producto de los elementos de la diagonal. 8. 9.

det A = det(At ) det(A · B) = det A · det B

para toda matriz cuadrada B de orden n.

Observación 2.2 Las 5 primeras propiedades pueden enunciarse también en términos de las columnas de la matriz. 12

Ejemplo 2.3 Vamos a calcular el siguiente determinante ¯ ¯ 1 0 ¯ ¯ 2 −3 ¯ ¯ ¯ 0 2 ¯ ¯ 1 1

¯ 2 3 ¯¯ 2 5 ¯¯ ¯ 2 −3 ¯¯ 2 4 ¯

Vamos a hacer ceros usando el elemento a11 = 1. Así tenemos ¯ ¯ ¯ 1 0 2 3 ¯¯ ¯ ¯ 0 −3 −2 −1 ¯ F2 − 2F1 ¯ ¯ ¯ ¯ ¯ ¯ 0 2 2 −3 F4 − F1 ¯ ¯ ¯ 0 1 0 1 ¯

(habiéndole añadido a la segunda, tercera y cuarta filas la primera multiplicada por −2, 0 y −1). Ahora cambiamos la segunda y cuarta filas para simplificar la eliminación, y queda ¯ ¯ ¯ 1 0 2 3 ¯¯ ¯ ¯ 0 1 0 1 ¯¯ ¯ −¯ F2 ←→ F4 ¯ ¯ 0 2 2 −3 ¯¯ ¯ ¯ 0 −3 −2 −1 ¯

Le añadimos ahora la segunda fila a la tercera y cuarta, multiplicada por −2 y 3 respectivamente, y llegamos a ¯ ¯ ¯ 1 0 2 3 ¯¯ ¯ ¯ 0 1 F3 − 2F2 0 1 ¯¯ ¯ −¯ ¯ ¯ 0 0 2 −5 ¯¯ F4 + 3F2 ¯ ¯ 0 0 −2 2 ¯

Finalmente le sumamos la tercera fila a la cuarta y tenemos ¯ ¯ ¯ ¯ ¯ −¯ F4 + F3 ¯ ¯ ¯

1 0 0 0

con lo que el valor del determinante es −[1 · 1 · 2 · (−3)] = 6.

0 1 0 0

¯ 1 3 ¯¯ 0 1 ¯¯ ¯ 2 −5 ¯¯ 0 −3 ¯

En la siguiente sección veremos que no es necesario escalonar la matriz para obtener el determinante.

2.2

Menor, menor complementario, adjunto

Se llama menor de una matriz A (no necesariamente cuadrada) al determinante de cualquier submatriz cuadrada suya. En una matriz cuadrada A de orden n se llama menor complementario del elemento aij al determinante de orden n − 1 de la submatriz resultante de eliminar en A la fila i y la columna j, que son en las que está situado el elemento. Finalmente se llama adjunto del elemento aij a su menor complementario multiplicado por (−1)i+j , es decir, se multiplica por 1 o por −1, dependiendo de que la suma de los índices fila y columna del elemento sea par o impar. Al adjunto aij en la matriz A lo denotaremos por Aij . En el ejemplo anterior el adjunto de ¯ ¯ del elemento ¯ 0 −3 ¯ ¯ ¯ a31 = 3 es A31 = ¯ ¯ = 15 y el adjunto de ¯ 5 0 ¯ ⎞ 2 0 3 −4 ⎟ ⎜ Algunos menores de la matriz A = ⎝ 0 6 2 −1 ⎠ son −5 −6 0 7 ⎛

¯ ¯ ¯ 2 0 −4 ¯¯ ¯ ¯ ¯ 6 −1 ¯ = −48 ¯ 0 ¯ ¯ ¯ −5 −6 7 ¯

y

13

¯ ¯ ¯ 2 −4 ¯ ¯ ¯ ¯ = −6 ¯ ¯ −5 7 ¯

⎞ 1 0 −3 ⎟ ⎜ En la matriz ⎝ 1 5 0 ⎠ 3 −3 2 ⎛

el menor complementario de a31

Y el menor complementario de a21

2.2.1

¯ ¯ ¯ ¯ ¯ 0 −3 ¯ ¯ 0 −3 ¯ ¯ ¯ ¯ ¯ = 3 es ¯ ¯ = 15 y su adjunto vale A31 = ¯ ¯ = 15 ¯ 5 ¯ 5 0 ¯ 0 ¯

¯ ¯ ¯ ¯ ¯ 0 −3 ¯ ¯ 0 −3 ¯ ¯ ¯ ¯ ¯ = 1 es ¯ ¯ = −9 su adjunto vale A21 = − ¯ ¯=9 ¯ ¯ −3 ¯ 2 −3 2 ¯

Cálculo del determinante desarrollando por adjuntos

Sea A una matriz cuadrada de orden n. Entonces se tiene n n P P alj Alj = al1 Al1 + al2 Al2 + ... + aln Aln = aik Aik = a1k A1k + a2k A2k + ... + ank Ank det A = j=1

i=1

Lo anterior lo que nos dice es que mediante la Fl o la columna Ck podemos calcular el determinante de la matriz sumando los productos de los elementos de esa fila o columna por sus respectivos adjuntos. Por ejemplo si tenemos una matriz A = (aij ) de orden 3 tendríamos (fijándonos por ejemplo en la primera fila o la segunda columna) det A = a11 A11 + a12 A12 + a13 A13 = a12 A12 + a22 A22 + a32 A32 Es muy útil esta regla a la hora de calcular determinantes grandes, sobre todo si aparece alguna fila o columna con muchos elementos nulos (si es posible todos los elementos excepto uno). Por ejemplo si queremos calcular el determinante ¯ ¯ ¯ 3 0 −4 ¯¯ ¯ ¯ ¯ |A| = ¯ −2 0 1 ¯ ¯ ¯ ¯ −5 −2 4 ¯ vamos a desarrollar por los adjuntos de la segunda columna y tendremos |A| = a12 A12 + a22 A22 + a32 A32 = 0A12 + 0A22 + (−2)A32 = −2A32

¯ ¯ ¯ 3 −4 ¯ ¯ ¯ = −2 · (− ¯ ¯) = 2(3 − 8) = −10 ¯ −2 1 ¯

Por supuesto no siempre estaremos en esta situación de tener bastantes ceros, pero aplicando las propiedades de los determinantes podremos llegar a una matriz con muchos ceros. Por ejemplo si queremos calcular ahora el determinante ¯ ¯ ¯ 4 2 −4 ¯ ¯ ¯ ¯ ¯ |A| = ¯ 1 3 4 ¯ ¯ ¯ ¯ 2 0 6 ¯

le añadimos a la última columna −3 veces la primera y ¯ ¯ 4 ¯ ¯ ¯ 1 ¯ ¯ 2

nos queda ¯ 2 −16 ¯¯ ¯ 3 1 ¯ ¯ 0 0 ¯

determinante que puede calcularse ahora fácilmente desarrollando por los adjuntos de la tercera fila, para obtener ¯ ¯ ¯ 2 −16 ¯ ¯ ¯ |A| = a31 A31 + a32 A32 + a33 A33 = 2 ¯ ¯ + 0A32 + 0A33 = 2(2 + 48) = 100 ¯ 3 1 ¯ 2.2.2

Rango de una matriz utilizando menores

En el apéndice estará explicado con más detalle la relación entre los menores de una matriz y su rango. Lo que nos interesa fundamentalmente es la siguiente propiedad: Proposición 2.4 Sea A un matriz de orden m × n (no necesariamente cuadrada). El rango de A es el mayor orden para el que existen menores no nulos de ese orden dentro de A. En particular se tiene que si encontramos un menor de orden r no nulo, entonces r(A) ≥ r. 14

2.3

Cálculo de la inversa de una matriz mediante adjuntos

Vamos a dar otro método para calcular la inversa de una matriz. Supongamos que A = (aij ) es una matriz cuadrada invertible. Sabemos que |A| 6= 0. Calculamos ahora lo que vamos a llamar matriz adjunta de A, y que la vamos a denotar por Adj(A) = (bij ) cuyos coeficientes son los adjuntos respectivos de los elementos de A, es decir, bij = Aij para todo i, j posible. Entonces se cumple que 1 A−1 = (Adj(A))t |A| De este modo la matriz inversa de A resulta de hallar la traspuesta de la adjunta y dividir por el determinante. Da lo mismo tomar la traspuesta de la adjunta que la adjunta de la traspuesta, así que también tendremos A−1 =

1 (Adj(At )) |A|

Ejemplo 2.5 Hallar la inversa de la matriz ⎞ 1 1 3 ⎟ ⎜ A = ⎝ 1 2 −1 ⎠ 0 1 1 ⎛

Como |A| = 5 y



A11 ⎜ Adj(A) = ⎝ A21 A31



A12 A22 A32

tenemos que A−1

3

A13 A23 A33

¯ ¯ ¯ 2 −1 ¯ ¯ ¯ ¯ ¯ ¯ 1 1 ¯

¯ ¯ ¯ 1 −1 ¯ ¯ ¯ −¯ ¯ ¯ 0 1 ¯

⎜ ⎜ ⎜ ⎜ ⎞ ⎜ ¯ ⎜ ¯ ¯ ⎜ ¯ ⎟ ⎜ ¯ 1 3 ¯ ¯ ⎠ = ⎜ −¯ ⎜ ¯ 1 1 ¯ ⎜ ⎜ ⎜ ¯ ¯ ⎜ ¯ 3 ¯¯ ⎜ ¯ 1 ⎝ ¯ ¯ ¯ 2 −1 ¯

¯ ¯ 1 3 ¯ ¯ ¯ 0 1

¯ ¯ ¯ ¯ ¯

¯ ¯ 1 3 ¯ −¯ ¯ 1 −1

¯ ¯ ¯ ¯ ¯

¯ ¯ 1 1 ¯ −¯ ¯ 0 1

⎞ ⎛ 3 3 2 −7 5 1 1⎜ ⎟ ⎜ 1 t = Adj(A) = ⎝ −1 1 4 ⎠ = ⎝ −5 |A| 5 1 1 −1 1 5 ⎛

¯ ¯ 1 2 ¯ ¯ ¯ 0 1 ¯ ¯ 1 1 ¯ ¯ ¯ 1 2 2 5 1 5 1 −5

¯ ¯ ¯ ¯ ¯

¯ ¯ ¯ ¯ ¯

¯ ¯ ¯ ¯ ¯



⎟ ⎟ ⎟ ⎟ ⎟ ⎛ ⎞ ⎟ 3 −1 1 ⎟ ⎟ ⎟ ⎜ 1 −1 ⎠ ⎟=⎝ 2 ⎟ ⎟ −7 4 1 ⎟ ⎟ ⎟ ⎟ ⎠

− 75 4 5 1 5

⎞ ⎟ ⎠

Sistemas de ecuaciones lineales

Un sistema de ecuaciones de la forma

(∗)

⎧ a11 x1 + a12 x2 + .... + a1n xn = b1 ⎪ ⎪ ⎪ ⎨ a x + a x + .... + a x = b 21 1 22 2 2n n 2 ⎪ ...... ⎪ ⎪ ⎩ am1 x1 + am2 x2 + .... + amn xn = bm

donde los aij y los bi son escalares del cuerpo K y los xj representan las incógnitas del sistema (también escalares del cuerpo K, en este caso, indeterminados), se llamará sistema de ecuaciones lineales o sistema lineal sobre el cuerpo K. Se dirá que el sistema tiene m ecuaciones y n incógnitas. A los aij se les llama coeficientes del sistema,

15

a los bi términos independientes. Agrupando los elementos anteriores tenemos A = (aij ) −→ matriz de coeficientes, de orden m × n ⎞ ⎛ b1 ⎜ b ⎟ ⎜ 2 ⎟ B=⎜ ⎟ −→ vector de términos independientes, de orden m × 1 ⎝ ... ⎠ bm ⎛

⎜ ⎜ X =⎜ ⎝

x1 x2 ... xn



⎟ ⎟ ⎟ −→ vector de las incógnitas, de orden n × 1 ⎠

Definimos la matriz ampliada (A|B), de orden m × (n + 1), como la que se forma añadiendo la columna B a la matriz A. Si ponemos el vector de términos independientes y el de las incógnitas en forma de columna obtenemos la forma matricial del sistema AX = B. Una solución del sistema de ecuaciones lineales (*) es un vector S = (s1 , s2 , ..., sn ) ∈ K n tal que al sustituir cada incógnita xj por el correspondiente sj se verifican todas las ecuaciones, o equivalentemente, si se cumple la relación matricial AS t = B (S t denota el traspuesto del vector-fila S, es decir, lo hemos puesto en forma de vector-columna). Según el número de soluciones los sistemas pueden ser compatibles (SC), si tienen alguna solución, o incompatibles (SI), si no tienen ninguna solución. Un sistema compatible puede tener solución única, en cuyo caso se dice que es compatible determinado (SCD), o tener más de una solución, en cuyo caso se dice que es compatible indeterminado (SCI). De hecho cuando el cuerpo es infinito (como ocurre con el caso K = R) los SCI no sólo tienen más de una solución sino que tienen infinitas. En los SCI al conjunto de todas las soluciones se le llama solución general y ésta quedará en función de una serie de parámetros. Al menor número de parámetros que se necesitan para expresar la solución general lo llamaremos grado de indeterminación o grados de libertad del sistema. Diremos que un sistema AX = B es homogéneo si B es el vector nulo, es decir, si todos los términos independientes son nulos. Éstos siempre serán SC pues el vector nulo es siempre una solución (la solución que se obtiene al coger todas las incógnitas con valor 0). Entonces un sistema homogéneo es SCI si y sólo si tiene alguna solución no nula. Al conjunto de las soluciones de un sistema homogéneo AX = 0 lo denotaremos por ker A y lo llamaremos núcleo de la matriz A.

3.1

Sistemas equivalentes. Método de Gauss para resolver sistemas lineales

Llamaremos discutir un sistema a determinar si es SI, SCD o SCI. Por discutir y resolver se entenderá que hay además que dar la solución o soluciones, si es SC. Para ello lo que podemos hacer es utilizar el método de Gauss que consiste en aplicar transformaciones elementales hasta escalonar el sistema. Recordemos las transformaciones elementales que utilizábamos sobre matrices, sistemas o vectores: 1. Cambiar de orden las ecuaciones. 2. Multiplicar una ecuación por un escalar no nulo. 3. Sumar a una ecuación un múltiplo de otra. Además, aquí es posible también: 4. Cambiar de orden las incógnitas. Estas transformaciones convierten el sistema lineal inicial en otro equivalente, es decir, con las mismas soluciones. Una vez escalonado el sistema se resuelve de forma sencilla, pues: • Si al final (o en algún momento previo) nos sale un absurdo, es decir, una ecuación que no es posible que se cumpla (como 0 = 1, o algo similar) entonces estamos con un SI. 16

• Si no estamos en la situación anterior (podremos escalonar hasta el final), estaremos con un SC y puede ocurrir que: ∗ Todas las incógnitas sean pivotes (se llaman pivotes a las incógnitas que quedan en primer lugar de cada ecuación, una vez escalonado el sistema. De modo matricial sus coeficientes se caracterizan porque se pueden poner en la diagonal principal de la matriz, o de otro modo, porque cada uno de ellos es el primer coeficiente no nulo de su fila). En definitiva lo que ocurrirá es que, después de escalonar y eliminar las ecuaciones (o filas) nulas, tendremos igual número de ecuaciones que de incógnitas. En tal caso tenemos un SCD en el que la solución del sistema se puede hallar despejando el valor de las incógnitas, de abajo hacia arriba. ∗ Haya alguna incógnita del espacio que no sea un pivote. En este caso tenemos un SCI, y las incógnitas que no sean pivotes van a ser los parámetros del sistema. El número de parámetros (que por el método de Gauss son ya el número mínimo necesario para expresar la solución general del sistema) serán los grados de libertad del sistema. Durante este proceso también pueden ir eliminándose ecuaciones ”triviales” de la forma 0 = 0 (porque estas ecuaciones siempre se cumplen y no aportan nada nuevo) o bien ecuaciones que sean CL de otras. Veamos los siguientes ejemplos: Ejemplo 3.1

1. Discutir y resolver (en su caso) el siguiente sistema lineal ⎧ ⎪ ⎨ x − y + 3z3 = −1 5x − 3y + 10z = 2 ⎪ ⎩ 2y − 5z = 3

Añadiéndole a la segunda fila la primera multiplicada por −5 obtenemos ⎧ ⎪ ⎨ x − y + 3z3 = −1 2y − 5z = 7 F2 − 5F1 ⎪ ⎩ 2y − 5z = 3

Si ahora le restamos a la tercera la segunda se tiene

F3 − F2

⎧ ⎪ ⎨ x − y + 3z3 = −1 2y − 5z = 7 ⎪ ⎩ 0 = −4

En este caso hemos obtenido una ecuación contradictoria (un absurdo) 0 = −4, con lo que deducimos que es un SI. 2. Discutir y resolver (en su caso) el siguiente sistema lineal ⎧ ⎪ − z = −1 ⎨ x −2x + y + z = −5 ⎪ ⎩ 4x − y − 3z = 3

Obtenemos que la matriz ampliada del sistema es ⎞ ⎛ 1 0 −1 −1 ⎟ ⎜ 1 1 −5 ⎠ ⎝ −2 4 −1 −3 3

Le añadimos a la segunda fila la primera multiplicada por 2, y a la tercera multiplicada por −4 y obtenemos ⎞ ⎛ 1 0 −1 −1 F2 + 2F1 ⎟ ⎜ 1 −1 7 ⎠ ⎝ 0 F3 − 4F3 0 −1 1 −7 17

Eliminando entonces la tercera ecuación (es proporcional a la segunda) llegamos a la matriz à ! 1 0 −1 −1 0 1 −1 7 que representa al sistema

(

x

− z = −1 y−z =7

que es equivalente al sistema inicial. Como ya está escalonado y no nos ha aparecido ninguna ecuación contradictoria estamos con un SC. Además sólo hay 2 pivotes (x en la primera ecuacion e y en la segunda), con lo que sobra un incógnita, z, que será el único parámetro en este caso, de manera que tenemos un SCI (ya que hay algún parámetro). Así, poniendo z = α y despejando en las ecuaciones obtenemos que y = 7 + z = 7 + α. Y en la primera ecuación tenemos que x = z − 1 = α − 1. Así la solución general de este SCI es ⎧ ⎪ ⎨ x=α−1 y = 7 + α con α ∈ R. ⎪ ⎩ z=α

3. Discutir y resolver (en su caso) el siguiente sistema lineal ⎧ ⎪ ⎨ x1 + 2x2 + 5x3 = 3 3x1 + 6x2 + 14x3 = 9 ⎪ ⎩ − 2x2 + x3 = −4

De nuevo le añadimos a la segunda y tercera filas un múltiplo adecuado de la primera y obtenemos ⎧ ⎪ ⎨ x1 + 2x2 + 5x3 = 3 − x3 = 0 F2 − 3F1 ⎪ ⎩ − 2x2 + x3 = −4 Cambiando de orden las dos últimas filas tenemos

F2 ←→ F3

⎧ ⎪ ⎨ x1 + 2x2 + 5x3 = 3 − 2x2 + x3 = −4 ⎪ ⎩ − x3 = 0

sistema que ya está escalonado. Como no hemos obtenido ninguna ecuación absurda estamos con un SC. Y como los pivotes son las tres variables (x1 en la primera ecuacion, x2 en la segunda y x3 en la tercera), no va a haber ningún parámetro, de modo que tenemos un SCD. El valor de las incógnitas se halla despejando de abajo a arriba las variables, o, si empleamos Gauss-Jordan transformando previamente la matriz en una matriz ”diagonal”. Así, le añadimos la tercera fila a la segunda y primera multiplicada por 1 y 5, respectivamente y tenemos ⎧ =3 ⎪ ⎨ x1 + 2x2 F2 + F3 = −4 − 2x2 ⎪ F1 + 5F3 ⎩ − x3 = 0 Finalmente le sumamos la segunda ecuación a la primera y tenemos ⎧ = −1 ⎪ ⎨ x1 = −4 − 2x2 F1 + F2 ⎪ ⎩ − x3 = 0 de donde obtenemos que x1 = 1, x2 = 2 y x3 = 0.

18

3.2

Teorema de Rouché-Fröbenius

Teorema 3.2 Un sistema de ecuaciones lineales es compatible si y sólo si el rango de la matriz de coeficientes coincide con el de la matriz ampliada. En este caso, el sistema es compatible determinado si este rango coincide con el número de incógnitas del espacio. Cuando el sistema es compatible indeterminado los grados de libertad se calculan como la diferencia entre el número de incógnitas y el rango. Como consecuencia del Teorema de Rouché-Fröbenius obtenemos que un sistema homogéneo AX = 0 tiene solución no nula (es decir, ker A 6= 0) si y sólo si r(A) < n.

3.3

Método de Cramer

Teorema 3.3 Supongamos que tenemos un sistema de ecuaciones lineales AX = B con matriz de coeficientes A cuadrada de orden n, y del que se sabe que es SCD. Entonces la solución del sistema (x1 , x2 , ..., xn ) cumple que i| xi = |M |A| para todo i, donde Mi es la matriz obtenida a partir de A sustituyendo la columna i-ésima por la columna de términos independientes B. El método de Cramer también puede utilizarse para resolver un SCI del siguiente modo: Supongamos que r(A) = r(A|B) = k < n y elegimos un menor no nulo de A de orden k. Se dejan a la izquierda las incógnitas que forman parte del menor; el resto de incógnitas se pasarán a la derecha y serán los parámetros. Las ecuaciones que no forman parte del menor pueden eliminarse pues son CL de las restantes. La solución general del sistema puede obtenerse por Cramer, imaginando que tenemos el SCD en el que se consideran como incógnitas únicamente las que están a la izquierda, es decir, los pivotes (la matriz de coeficientes de este sistema será de orden k × k pues no formarán parte de ella los coeficientes de las incógnitas que van a ser ahora parámetros, ni tampoco los de las ecuaciones que hemos eliminado). El método de Cramer es en general poco útil en la práctica, pues cuando el orden del sistema es relativamente grande hay que hacer demasiadas operaciones para resolverlo (ya cuando estamos con 3 ecuaciones y 3 incógnitas es más recomendable el de Gauss). Ejemplo 3.4 Discutir y resolver (en su caso) los siguientes sistemas lineales utilizando el método de Cramer: 1.

Como

⎧ ⎪ ⎨ x1 + x2 − x3 = 2 3x1 − x2 + 2x3 = 2 ⎪ ⎩ −x1 − x2 − 3x3 = −2 ¯ ¯ 1 1 −1 ¯ ¯ 2 ¯ 3 −1 ¯ ¯ −1 −1 −3

¯ ¯ ¯ ¯ ¯ = 16 6= 0 ¯ ¯

se tiene que el rango tanto de la matriz de coeficientes como el de la matriz ampliada valen 3. Por ello estamos con un SCD. Entonces la solución es ¯ ¯ ¯ 2 1 −1 ¯¯ ¯ 1 ¯ ¯ 16 x1 = =1 2 ¯= ¯ 2 −1 ¯ 16 16 ¯ ¯ −2 −1 −3 ¯ ¯ ¯ 1 2 −1 1 ¯¯ x2 = 2 2 ¯ 3 16 ¯ ¯ −1 −2 −3 ¯ ¯ 1 1 2 1 ¯¯ x3 = 2 ¯ 3 −1 16 ¯ ¯ −1 −1 −2 19

¯ ¯ ¯ ¯ ¯= ¯ ¯ ¯ ¯ ¯ ¯ ¯= ¯ ¯

16 =1 16

0 =0 16

2. ⎧ ⎪ ⎨ x1 − x2 + 3x3 = −1 2x1 + x2 − x3 = 2 ⎪ ⎩ 3x1 + 2x3 = 1

Es fácil comprobar que el rango tanto de la matriz de coeficientes como de la matriz ampliada es 2. Por ello estamos con un SCI. Como las dos primeras filas de la matriz ampliada son LI la última es necesariamente CL de ellas dos. De este modo podemos eliminar la última y quedarnos con el sistema ( x1 − x2 + 3x3 = −1 2x1 + x2 − x3 = 2 que es equivalente al primero. Podemos quedarnos con un menor de orden dos no nulo (por ejemplo el que corresponde a las dos primeras filas y columnas) y poniendo el sistema en la forma ( x1 − x2 = −1 − 3x3 2x1 + x2 = 2 + x3 para el que imaginamos que tiene sólo dos ecuaciones y dos incógnitas, y cuyas soluciones podemos hallarlas en función de x3 por Cramer: ¯ ¯ ¯ −1 − 3x −1 ¯ ¯ ¯ 3 ¯ ¯ ¯ 2 + x3 1 ¯ 1 − 2x3 ¯ ¯ = x1 = ¯ 1 −1 ¯ 3 ¯ ¯ ¯ ¯ ¯ 2 1 ¯ ¯ ¯ ¯ 1 −1 − 3x ¯ ¯ 3 ¯ ¯ ¯ ¯ 2 2 + x3 ¯ 4 + 7x3 ¯ ¯ = x2 = ¯ 1 −1 ¯ 3 ¯ ¯ ¯ ¯ ¯ 2 1 ¯

Ejemplo 3.5 Discutir y resolver (en su caso) el siguiente sistema de ecuaciones lineales en función del parámetro a ⎧ ⎪ ⎨ x1 + 2x2 + 5x3 = 3 x1 + 3x2 + 8x3 = 5 ⎪ ⎩ − 2x2 + ax3 = 4

Añadiéndole la primera fila a las demás obtenemos ⎧ ⎪ ⎨ x1 + 2x2 + 5x3 = 3 x2 + 3x3 = 2 ⎪ ⎩ − 2x2 + ax3 = 4 Le añadimos ahora la segunda fila a la tercera y tenemos ⎧ ⎪ ⎨ x1 + 2x2 + 5x3 = 3 x2 + 3x3 = 2 ⎪ ⎩ (a + 6)x3 = 8

Entonces la discusión se hace teniendo en cuenta que el parámetro aparece en alguno de los pivotes una vez que el sistema está escalonado. x1 y x2 son pivotes. El coeficiente a + 6 puede ser nulo (si a = −6) con lo que en ese caso la variable x3 no sería un pivote, es más tendríamos una ecuación de la forma 0 = 8. Así que en ese caso (a = −6) tenemos un SI. Y cuando a 6= −6 tendremos que la variable x3 sí que es un pivote (pues su coeficiente a + 6 es no nulo) y estamos con un SC. Además al no sobrar ninguna variable, ya que todas son pivotes, tendríamos un SCD, 8 8 cuya solución (dependiente de a) se hallaría despejando como hacemos habitualmente: x3 = a+6 , x2 = 2 − 3 a+6 y 8 8 x1 = 3 − 2(2 − 3 a+6 ) − 5 a+6 . 20

Otro modo de discutir este sistema es utilizando el Teorema de Rouché-Froebenius, calculando los rangos de las matrices asociadas. Para esto puede ser útil el determinante (que en este caso tiene sentido pues la matriz de coeficientes es cuadrada; en el caso de que sea cuadrada la matriz ampliada también se puede utilizar; pero en cualquier otro caso no), hallando el de la matriz de coeficientes ¯ ¯ ¯ ¯ ¯ ¯ ¯ 1 2 5 ¯¯ 2 5 ¯¯ ¯¯ 1 ¯ 1 3 ¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯ |A| = ¯ 1 1 3 ¯ = 1¯ 3 8 ¯=¯ 0 ¯=a+6 ¯ ¯ −2 a ¯ ¯ ¯ ¯ ¯ 0 −2 a ¯ ¯ 0 −2 a ¯

Cuando |A| 6= 0 (para a 6= −6) el rango de la matriz A es 3, y como el rango de la matriz ampliada no puede ser mayor (al tener 3 filas) tendríamos r(A) = r(A|B) = 3 =número de incógnitas. Entonces tenemos que si |A| 6= 0 (a 6= −6) el rango de la matriz A es 3, y como el rango de la matriz ampliada no puede ser mayor (al tener 3 filas) tendríamos r(A) = r(A|B) = 3 =número de incógnitas. En este caso tendríamos un SCD, cuya única solución, dependiente de cada valor a 6= −6, se podrá hallar por el método anterior o utilizando la fórmula de Cramer (éste es uno de los pocos casos en los que puede resultar útil este método). Y en el caso en que |A| = 0 (a = −6) tenemos que hacerlo de forma directa. Pero se ve fácilmente que r(A) = 2 y r(A|B) = 3, con lo que tendríamos un SI. El resultado de la discusión ha sido entonces: Si a 6= −6 SCD y si a = −6 SI.

21

Get in touch

Social

© Copyright 2013 - 2024 MYDOKUMENT.COM - All rights reserved.