Tema 5: Sistemas de Ecuaciones Lineales

Tema 5: Sistemas de Ecuaciones Lineales Eva Ascarza-Mondrag´on Helio Catal´an-Mogorr´on Manuel Vega-Gordillo ´Indice 1. Definici´ on 3 2. Soluci´ o

2 downloads 155 Views 87KB Size

Recommend Stories


TEMA 4: SISTEMAS DE ECUACIONES LINEALES SISTEMA DE ECUACIONES LINEALES
TEMA 4: SISTEMAS DE ECUACIONES LINEALES SISTEMA DE ECUACIONES LINEALES 1 TEMA 4: SISTEMAS DE ECUACIONES LINEALES SISTEMAS DE ECUACIONES LINEALES

Tema 2. Sistemas de ecuaciones lineales
Tema 2. Sistemas de ecuaciones lineales Estructura del tema. • Definiciones b´ asicas • Forma matricial de un sistema de ecuaciones lineales • Clasif

Tema 4. SISTEMAS DE ECUACIONES LINEALES
1 Tema 4. SISTEMAS DE ECUACIONES LINEALES Sistemas de tres ecuaciones con tres incógnitas  a11 x1 + a12 x 2 + a13 x3 = b1  Son de la forma: a 21 x

Story Transcript

Tema 5: Sistemas de Ecuaciones Lineales Eva Ascarza-Mondrag´on Helio Catal´an-Mogorr´on Manuel Vega-Gordillo

´Indice 1. Definici´ on

3

2. Soluci´ on de un sistema de ecuaciones lineales

4

2.1. Tipos de sistemas ecuaciones lineales . . . . . . . . . . . . . . . . . . . . .

5

3. Aplicaci´ on lineal asociada a un sistema de ecuaciones lineales

5

4. Sistemas equivalentes

6

5. Discusi´ on de un sistema de ecuaciones. Teorema de Rouch´ e-Frobenius

7

5.1. Teorema de Rouch´e-Frobenius . . . . . . . . . . . . . . . . . . . . . . . . .

8

6. Resoluci´ on de un sistema de ecuaciones lineales

8

6.1. Sistemas Compatibles Determinados . . . . . . . . . . . . . . . . . . . . .

8

6.1.1. Regla de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . .

8

6.1.2. M´etodo de la matriz inversa . . . . . . . . . . . . . . . . . . . . . . 10 6.1.3. M´etodo de triangularizaci´on de Gauss . . . . . . . . . . . . . . . . . 11 6.2. Sistema compatible indeterminado . . . . . . . . . . . . . . . . . . . . . . . 12

1

7. Sistemas de ecuaciones lineales homog´ eneas

2

13

1.

Definici´ on Consideremos un sistema en k con m ecuaciones y n inc´ognitas x1 , x2 ,..., xn , de la

forma:

a11 x1 + a12 x2 + ... + a1n xn = b1 a21 x1 + a22 x2 + ... + a2n xn = b2 ...

.

...

.

...

.

am1 x1 + am2 x2 + ... + amn xn = bm cuya expresi´on matricial es   a11 a12   a21 a22    ... ...   am1 am2

 ... a1n     ... a2n     ... ...    ... amn





x1      x2    =  .      xn

b1   b2    .    bm



y que, por lo tanto, podemos expresar en la siguiente forma reducida A · X = B. Este sistema se denomina sistema de ecuaciones lineales. Diremos que A es la matriz asociada al sistema; X es la matriz n × 1 de inc´ognitas y B es la matriz m × 1 de los coeficientes o t´erminos independientes. En el caso particular de que la matriz B sea igual a la matriz nula, esto es, B = 0, entonces diremos que el sistema AX = B es un sistema homog´eneo. Los n´ umeros aij , donde 1 ≤ i ≤ m y 1 ≤ j ≤ n, se denominan coeficientes del sistema, mientras que los n´ umeros bi , 1 ≤ i ≤ m, son los t´erminos independientes del sistema de ecuaciones. Cuando nos enfrentamos a un sistema de ecuaciones lineales podemos o bien resolverlo o bien discutirlo. Resolver un sistema es demostrar todas sus soluciones. Discutir un sistema es analizar si posee ninguna, una o varias soluciones. 3

2.

Soluci´ on de un sistema de ecuaciones lineales Una soluci´ on de un sistema de m ecuaciones con n inc´ognitas es una n-upla de

n´ umeros (r1 , r2 , ..., rn ), tales que cuando se reemplaza x1 por r1 , x2 por r2 , etc´etera, se satisfacen todas las ecuaciones del sistema. Esto es, de una matriz columna   λ  1     λ2       .       .         .    λn diremos que es la soluci´on del sistema AX = B si verifica    b λ1   1          a11 a12 ... a1n   λ2   b2      a21 a22 ... a2n   .   .       =   ...   ... ... ...   .     .        am1 am2 ... amn  .   .    λn bm Si la matriz columna

              

λ1 λ2 . . . λn

              

es soluci´on del sistema se verificar´a que x1 = λ1 , x2 = λ2 ,..., xn = λn . Por lo tanto, vamos a intentar resolver el sistema AX = B 4

        .      

es decir, estudiaremos las condiciones que debe cumplir para que admita alguna soluci´on y analizaremos el conjunto de las posibles soluciones.

2.1.

Tipos de sistemas ecuaciones lineales

Aludiendo al n´ umero de soluciones, los sistemas se clasifican en : (i) Ninguna soluci´on: sistemas incompatibles. (ii) Alguna soluci´on: sistemas compatibles. (ii.a) Una soluci´on: determinados. (ii.b) Varias soluciones: indeterminado.

3.

Aplicaci´ on lineal asociada a un sistema de ecuaciones lineales Dado el sistema de m ecuaciones y n inc´ognitas AX = B consideremos la aplicaci´on lineal f : kn → km can´onicamente asociada a la matriz A,

esto es f

kn → km e¯j → a ¯j con 1 ≤ j ≤ m. Diremos que f es la aplicaci´on lineal asociada al sistema AX = B. Dado que f es la aplicaci´on lineal can´onicamente asociada a la matriz A se tiene que AX = B ⇐⇒ f (x) = b donde x y b son los vectores columna de X y B, respectivamente.

5

Una matriz columna de orden (n × 1), X1 , es soluci´on del sistema AX = B si y s´olo si f (x1 ) = b1 . Corolario Una condici´on necesaria y suficiente para que el sistema AX = B tenga soluci´on es que el vector b sea combinaci´on lineal de los vectores columna de A. Corolario Una condici´on necesaria y suficiente para que el sistema AX = B admita alguna soluci´on es que rg (A) = rg (A | B) donde (A | B) se denomina matriz ampliada del sistema AX = B y que podemos expresar como (notaci´on en columnas) (A | B) = (A1 | A2 | ... | An | B) donde Ai , con 1 ≤ i ≤ n, es la columna j-´esima de la matriz A.

4.

Sistemas equivalentes Dados dos sistemas de ecuaciones lineales en k AX = B CZ = D diremos que son equivalentes si tienen el mismo conjunto de soluciones. 6

Proposici´ on Sea AX = B un sistema en k de m ecuaciones y n inc´ognitas. Si T es una matriz cuadrada de orden m y su rango es igual a m entonces los sistemas de m ecuaciones con n inc´ognitas AX = B y (T A) X = T B son equivalentes. Corolario Considerando el sistema AX = B si A1 y B1 son el resultado de aplicar a las matrices A y B, respectivamente, una misma transformaci´on elemental, entonces los sistemas AX = B y A1 X = B1 son equivalentes. Si en un sistema de ecuaciones lineales se multiplica una de las ecuaciones por un n´ umero, el sistema obtenido es equivalente al primero. Si se a˜ nade a una ecuaci´on de un sistema lineal una combinaci´on de las restantes, es sistema resultante es equivalente al primero. Si en un sistema de ecuaciones lineales, una ecuaci´on es combinaci´on lineal de las restantes, el sistema que resulta de suprimir dicha ecuaci´on es equivalente al primero.

5.

Discusi´ on de un sistema de ecuaciones. Teorema de Rouch´ e-Frobenius Consideremos el sistema de m ecuaciones lineales con n inc´ognitas en k

AX = B el n´ umero de soluciones del sistema est´a totalmente determinado por los rangos de la matriz de coeficientes, A y de la matriz ampliada A | B. 7

5.1.

Teorema de Rouch´ e-Frobenius

Un sistema de m ecuaciones lineales con n inc´ognitas en k tiene alguna soluci´on si y s´olo si el rango de la matriz de coeficientes es igual al rango de la matriz ampliada rg (A) = rg (A | B) . Si los dos rangos son iguales e iguales al n´ umero de inc´ognitas, el sistema tendr´a una soluci´on u ´nica. Si los dos rangos son iguales pero menores que el n´ umero de inc´ognitas, el sistema tendr´a infinitas soluciones. En resumidas cuentas Si rg (A) = rg (A | B), el sistema es compatible • Si rg (A) = rg (A | B) = n, sistema compatible determinado (soluci´on u ´nica). • Si rg (A) = rg (A | B) < n, sistema compatible indeterminado (infinitas soluciones). Si rg (A) 6= rg (A | B), sistema incompatible.

6.

Resoluci´ on de un sistema de ecuaciones lineales

6.1. 6.1.1.

Sistemas Compatibles Determinados Regla de Cramer

Si un sistema es compatible determinado puede reducirse a un conjunto de n ecuaciones con n inc´ognitas cuya matriz de coeficientes A tiene determinante no nulo, esto es: AX = B,

A ∈ Mn×n , |A| = 6 0,

por tanto, A admite matriz inversa y la soluci´on del sistema ser´a: X = A−1 B,

8

cuya expresi´on matricial es la siguiente               

x1 x2 . . . xn





a a .   11 12     a21 a22 .       . . .    =    . . .       . .   .   an1 an2 .  A11 A21  |A| |A|   A12 A22   |A| |A|   .  . =    . .    . .   A1n A2n |A| |A|

. a1n . . . . .

−1 

  a2n    .    .     .   ann

An1 |A| An2 . . |A| . .

. .

.

. .

.

. .

. Ann . . |A|

             

b1 b2 . . . bn

        =      

                



b1   b2    .     .   bn

por lo cual xı =

A1i bı + A2i b2 + ... + Ani bn ; 1≤i≤n |A|

el numerador de esta fracci´on es el desarrollo por la columna i-´esima del determinante: a11 ... b1 . ... a1n a21 ... b2 ... a2n . . . . . . . . . . an1 ... bn ... ann lo que nos lleva a la regla de Cramer: la soluci´on de un sistema compatible determinado es igual a

9

a11 a21 . . an1 xi = a11 a21 . . an1

... b1 ... ... b2 ... ...

.

...

...

.

...

... bn ... ... a1i ... ... a2i ... ...

.

...

...

.

...

... ani ...

a1n a2n . . ann , 1 ≤ i ≤ n. a1n a2n . . ann

Por lo tanto, el denominador corresponde al determinante de la matriz de coeficientes, mientras que el numerador es el determinante de la matriz que resulta de sustituir la columna de los coeficientes de la variable que queremos calcular por la columna de t´erminos independientes. 6.1.2.

M´ etodo de la matriz inversa

Este m´etodo consiste en la aplicaci´on del c´alculo matricial al sistema dado en forma matricial. Si el sistema viene dado por AX = B donde si |A| 6= 0, existir´a la matriz inversa de A, es decir, A−1 . Operando con esta matriz inversa sobre el sistema anterior A−1 · AX = A−1 · B luego por la propiedad asociativa del producto  A−1 · A X = I · X = A−1 · B por consiguiente X = A−1 · B. 10

Si representamos el sistema de la siguiente manera X 0C = D donde si |C| = 6 0 existir´a la matriz inversa de C, C −1 , lo que nos permite operar de la siguiente manera X 0 C · C −1 = D · C −1  X 0 C · C −1 = X 0 · I = D · C −1 luego X 0 = D · C −1 . 6.1.3.

M´ etodo de triangularizaci´ on de Gauss

Este m´etodo consiste en la aplicaci´on de transformaci´on elementales (tal como vimos en el estudio del rango de una matriz) a los sistemas de ecuaciones. Este procedimiento lo podremos entender mejor a partir del siguiente ejemplo: 3x1 + 2x2 + x3 = 1 −2x1 + x2 − 2x3 = −1 . x1 + x2 − x3 = −2 Primera transformaci´on elemental: cambiamos la ecuaci´on 1 por la ecuaci´on 3         

x1 + x2 − x3 = −2 −2x1 + x2 − 2x3 = −1 3x1 + 2x2 + x3 = 1

    

;

   

sumamos a la segunda ecuaci´on la primera multiplicada por 2 y restamos a la tercera la primera multilplicada por 3   x + x2 − x3 = −2    1 3x2 − 4x3 = −5     −x2 + 4x3 = 7 11

        

;

cambiamos de signo la tercera ecuaci´on y la intercambiamos con la segunda    x + x2 − x3 = −2       1  3x2 − 4x3 = −5         x2 − 4x3 = −7     x + x − x = −2   2 3    1  ; x2 − 4x3 = −7         3x2 − 4x3 = −5 por u ´ltimo restamos a la tercera ecuaci´on la primera multilplicada por 3     x + x − x = 2  1  2 3     x2 − 4x3 = −7         8x3 = 16 Luego la soluci´on de este sistema ser´a 

x1





−1



         x2  =  1      x3 2

6.2.

Sistema compatible indeterminado

Si un sistema compatible es indeterminado se extrae del mismo un subsistema que sea compatible determinado. El subsistema elegido lo determinan los componentes del menor que define el rango de la matriz del sistema.    x1 − x2 + x3 = 1       4x1 + 5x2 − 5x3 = 4   2x1 + x2 − x3 = 2       x1 + 2x2 − 2x3 = 1

12

                





 1 −1 1     4 5 −5    rg (A) = rg  =2  2 1 −1      1 2 −2   1   1 −1 1    4 5 −4 −5    rg (A | B) = rango  =2  2 1 −1 2      1 2 −2 1  rango A = rango A, ¯b = 2 < 3 = no de inc´ognitas. Compatible indeterminado. Por consiguiente 3 − 2 = 1, una inc´ognita, de las tres del sistema, deber´a desempe˜ nar el papel del producto.   x1 − x2 = 1 − x3

    x1 = 1    x1 = 1   x2 = λ  4x + 5x = 4 + 5x   x = x     2 3 1 2 3  x3 = λ

7.

        

Sistemas de ecuaciones lineales homog´ eneas Se llama sistema lineal homog´eneo a todo sistema lineal de ecuaciones en el que los

t´erminos independientes o segundos miembros de cada ecuaci´on son cero, es decir: a11 x1 + a12 x2 + ... + a1n xn = 0 a12 x1 + a22 x2 + ... + a2n xn = 0 .................................................. .................................................. am1 x1 + am2 x2 + ... + amn xn = 0 En los sistemas lineales homog´eneos, el rango de la matriz ampliada es siempre igual al rango de la matriz de coeficientes, puesto que estas dos matrices se diferencia tan s´olo en una columna de ceros. Por lo tanto, los sistemas homog´ eneos son siempre compatibles, evidentemente, siempre tienen alguna soluci´on, pues al menos xi = 0, 1 ≤ i ≤ n, es una soluci´on que se denomina soluci´ on trivial. 13

En un sistema homog´eneo caben dos posibilidades: El rango de la matriz de coeficientes es igual al n´ umero de inc´ognitas, entonces el sistema es compatible determinado y no tiene otra soluci´on m´as que la trivial. El rango de la matriz de coeficientes es menor que el n´ umero de inc´ognitas, entonces el sistema tiene infinitas soluciones. Para resolver un sistema homog´eneo en estas condiciones es preciso expresar unas variables en funci´on de las otras. Teorema El conjunto de soluciones de un sistema homog´eneo de ecuaciones lineales con n inc´ognitas es un subespacio vectorial de Rn , cuya dimensi´on es igual a n menos el n´ umero de ecuaciones linealmente independientes del sistema (el n´ umero de ecuaciones linealmente independientes coincide con el rango de la matriz de coeficientes del sistema). Por lo tanto, (a) El conjunto de soluciones de un sistema lineal de ecuaciones homog´eneas es un subespacio vectorial de dimensi´on igual a la dimensi´on del espacio menos el n´ umero de ecuaciones linealmente independientes. (b) Todo subespacio vectorial est´a caracterizado por un sistema lineal homog´eneo de ecuaciones que se denominan ecuaciones impl´ıcitas del subespacio, el n´ umero de ecuaciones es igual a la dimesi´on del espacio menos la dimensi´on del subespacio. Otro procedimiento para caracterizar un subespacio vectorial consiste en hallar las ecuaciones param´ etricas del mismo. Para entender estas ecuaciones, supongamos que U es un espacio vectorial n-dimensional y sea S un subespacio m-dimensional que tiene como base los vectores {¯ s1 , s¯2 , ..., s¯m } de coordenadas respectivas s¯i = (si1 , si2 , ..., sin ) donde i = 1, ..., m, entonces los vectores de S se caracterizan por ser una combinaci´on lineal u ´nica de los vectores {¯ s1 , s¯2 , ..., s¯m }, esto es, dado cualquier vector x¯ ∈ S existen m escalares 14

α1 , ..., αm que satisfacen la siguiente relaci´on x¯ = α1 v¯1 + α2 v¯2 + ... + αm v¯m ecuaci´on impl´ıcita que, coordenada a coordenada podemos escribir como x1 = α1 v¯11 + α2 v¯21 + ... + αm v¯m1 x2 = α1 v¯12 + α2 v¯22 + ... + αm v¯m2 . . . xm = α1 v¯1m + α2 v¯2m + ... + αm v¯mm que son ecuaciones que caracterizan al subespacio S y que se denominan ecuaciones param´etricas. El n´ umero de par´ametros de las ecuaciones param´etricas es igual a la dimensi´on del subespacio.

15

Get in touch

Social

© Copyright 2013 - 2024 MYDOKUMENT.COM - All rights reserved.