Matrices y Determinantes

Tema 2 Matrices y Determinantes 2.1 Introducci´ on Presentaremos en este tema las matrices y los determinantes, centr´ andonos en particualar en el

370 downloads 167 Views 192KB Size

Recommend Stories


MATRICES Y DETERMINANTES
1 MATRICES Y DETERMINANTES 1.1 x + y + z + t =1  a) Resolver el siguiente sistema de ecuaciones lineales  x + t=2 x + y =0  empleando el método

Matrices y determinantes
Matrices y determinantes LINCOLN, Y. & GUBA, E. (1985) Naturalistic inquiry. California: SAGE Publications. 416 p. MACHADO, N. (1995) Epistemologia e

Story Transcript

Tema 2

Matrices y Determinantes 2.1

Introducci´ on

Presentaremos en este tema las matrices y los determinantes, centr´ andonos en particualar en el caso de matrices constituidas por n´ umeros reales.

2.2

Matrices. Conceptos Fundamentales

Definici´ on: Dado un conjunto C, una matriz A de orden m × n de elementos de C es toda colecci´on de mn elementos de C colocados en m filas y n columnas, de la forma:   a11 a12 ... a1n  a   21 a22 ... a2n  A = (aij ) =    ..  .. ... .. am1 am2 ... amn Donde i = 1, . . . , m, y j = 1, . . . , n. La notaci´on usual es por tanto aij para representar la componente fila-i columna-j de la matriz. Al conjunto de las matrices de orden m×n con componentes en el conjunto C se le denota por Mm×n (C). Consideraremos en este tema esencialmente matrices de n´ umero reales, es decir el conjunto Mm×n (R), si bien la mayor parte de las propiedades y definiciones que expondremos ser´an v´alidas para cualquier otro tipo de conjunto. Definiciones b´ asicas: Sea A una matriz de orden m × n de n´ umeros reales, A ∈ Mm×n (R), A = (aij ), i = 1, . . . , m, j = 1, . . . , n. 1. Si n = 1, entonces A es una matriz columna. Si m = 1, A es una matriz fila. 2. Si aij = 0, ∀i, j, entonces A es la matriz nula de orden m × n. 13

14

MATRICES Y DETERMINANTES

3. Si m = n la matriz A es cuadrada, en caso contrario es una matriz rectangular. 4. La matriz opuesta de A = (aij ), que denotamos por: −A, es la que tiene como componentes a los opuestos de los de A, es decir −A = (−aij ). 5. Dada una matriz A de orden m × n se llama matriz traspuesta de A a la matriz At de orden n × m en la que se intercambian las filas de A con sus columnas. Es decir el elemento que ocupa la posici´on (ij) en A pasa ocupar la posici´on (ji) en At . De esta forma: si A = (aij ), entonces At = (atij ) = (aji ). Evidentemente (At )t = A. Para el caso particular de las matrices cuadradas, A ∈ Mn×n (R), definiremos a su vez: 1. La diagonal principal de A son los elementos de la forma aii , con i = 1, . . . , n, es decir: a11 , a22 ,..., ann . 2. A es triangular superior si aij = 0 para todas las componentes tales que i > j. 3. A es triangular inferior si aij = 0, ∀i < j. 4. A es una matriz diagonal si aij = 0 para i 6= j. Las matrices diagonales a veces se presentan especificando u ´nicamente los elementos no necesariamente nulos, es decir: A = diag {a11 , a22 , . . . , ann }. 5. A es sim´etrica si para cualquier i, j se verifica que aij = aji . Equivalentemente, A ser´a sim´etrica si At = A. 6. A es antisim´etrica si para cualquier i, j se verifica que aij = −aji . Equivalentemente: At = −A. 7. Se denomina traza de una matriz A a la suma de los elementos de la diagonal principal, es decir: n X tr A = aii i=1

2.3

El Espacio Vectorial (Mm×n (R), +, · R)

El conjunto de matrices de n´ umero reales de m filas y n columnas, Mm×n (R), tiene estructura de espacio vectorial real (de dimensi´on m n) con las operaciones suma y producto por escalares definidas de la forma siguiente: Suma: Dadas dos matrices A = (aij ) y B = (bij ) de orden m × n, se define la matriz suma: A + B, como la matriz m × n cuyos elemento ij es: aij + bij , A + B = (aij + bij ). Es decir, la suma se realiza elemento a elemento.

15

MATRICES Y DETERMINANTES

Producto por un escalar: Dados λ ∈ R y una matriz A ∈ Mm×n (R), A = (aij ), se define λA ∈ Mm×n (R) como la matriz cuyos elementos son: λ A = (λaij ), es decir la matriz que se obtiene al multiplicar por λ todos y cada uno de los elementos de A. Es trivial comprobar que con estas definiciones (Mm×n (R), +, · R) verifica las ocho propiedades de la definici´on de espacio vectorial. Evidentemente el elemento neutro de la suma ser´a la matriz nula, mientras que el elemento opuesto de una matriz no es m´as que su matriz opuesta. La dimensi´on del espacio vectorial real (Mm×n (R), +, · R) es obviamente igual a mn. Desde otro punto de vista, una matriz A ∈ Mm×n (R) puede ser interpretada como un sistema de m vectores (vectores fila) del espacio vectorial Rn , o bien como un sistema de n vectores (vectores columna), de Rm , veamos:     a11 . . . a1n f~1 ³ ´  .   ..  ..  =  ...  = ~c1 . . . ~cn .. A = (aij ) =  . .     am1 . . . amn f~m n o siendo Sc = {~c1 , ~c2 , . . . , ~cn } y Sf = f~1 , . . . , f~m los sistemas de vectores columna y de vectores fila de A respectivamente. ~c1 , . . . , ~cn ∈ Rm , f~1 , . . . , f~n ∈ Rn . ~cj = (a1j , a2j , . . . , amj ) , f~i = (ai1 , ai2 , . . . , ain ) ,

2.4

j = 1, . . . , n i = 1, . . . , m

Producto de Matrices. Matrices Invertibles

En el conjunto de las matrices es posible definir una operaci´on de tipo multiplicaci´ on, el producto de matrices, cuando el n´ umero de filas de una matriz coincide con el n´ umero de columnas de la otra. Veamos: Producto de matrices: Sea A una matriz de m filas y p columnas, A ∈ Mm×p (R), y sea B con p filas y n columnas, B ∈ Mp×n (R), es decir el n´ umero de columnas de A coincide con el n´ umero de filas de B. En tal situaci´on, se define la matriz producto C = A · B, con C ∈ Mm×n (R), como la matriz C = (cij ) con elementos: cij =

p X

aih bhj = ai1 b1j + ai2 b2j + ... + aip bpj

h=1

Desde el punto de vista citado en el apartado anterior, mediante el cual “vemos” una matriz de n´ umeros reales como un sistema de vectores fila (o de vectores columna), el producto de matrices puede interpretarse de la siguiente forma: para construir el

16

MATRICES Y DETERMINANTES

producto A · B consideremos A como un sistema de vectores fila y B como un sistema de vectores columna:   f~1A ´  .  ³ B ..  · ~cB = (cij ) C = A·B =  . . . ~ c n 1   A f~m Dadas las condiciones del producto, tanto las filas de A como las columnas de B son vectores del espacio vectorial Rp . Introduciremos ahora el producto escalar est´andar en Rp , al que nos referiremos con mucho m´as detalle en un tema pr´oximo. Si ~v1 = (x1 , . . . , xp ) y ~v2 = (x01 , . . . , x0p ) son dos vectores del espacio vectorial Rp , entonces llamaremos producto escalar est´andar (o simplemente producto escalar) de ~v1 y ~v2 , y lo denotamos por ~v1 · ~v2 , (o alternativamente: h~v1 |~v2 i) al n´ umero real: ~v1 · ~v2 = x1 x01 + x2 x02 + . . . + xp x0p De esta forma, concluimos con que el producto de las matrices A y B puede expresarse de la siguiente forma: cij = f~iA · ~cB j

C = A · B = (cij ) , Ã

Ejemplo: Sean A =

1 2 0 1

!

à yB=

1 2 0 1

3 2

! .

En primer lugar, es f´acil concluir que no existe B · A, pues el n´ umero de columnas de B no coincide con el n´ umero de filas de A. Sin embargo A · B s´ı que est´a bien definido y ser´a una matriz de orden 2 × 3 (n´otese que: A2×2 · B2×3 = C2×3 ). Aplicando la definici´on: Ã !Ã ! Ã ! 1 2 1 2 3 1 4 7 = AB = 0 1 0 1 2 0 1 2

Propiedades del producto de matrices: 1. Asociativa. El producto de matrices es asociativo. Sean A ∈ Mm×p (R), B ∈ Mp×q (R) y C ∈ Mq×n (R), entonces (A · B) · C = A · (B · C). 2. El producto de matrices no es conmutativo. Evidentemente, tal y como se ha definido el producto, no puede ser conmutativo pues puede existir la matriz A · B y no hacerlo la correspondiente B · A (ver el ejemplo anterior donde se presenta esta situaci´on). Aunque existieran ambos productos, ser´an matrices de diferentes tama˜ nos (excepto en el caso de tratarse de matrices cuadradas). Finalmente, incluso en el caso de matrices cuadradas: A ∈ Mn×n (R), B ∈ Mn×n (R), entonces existen A · B y B · A, y ambas son matrices n × n, pero no tienen porqu´e ser iguales.

17

MATRICES Y DETERMINANTES

3. Distributiva. Se verifica la propiedad distributiva del producto con respecto a la suma. Sean A ∈ Mm×p (R), B ∈ Mp×n (R), C ∈ Mp×n (R), entonces: A · (B + C) = A · B + A · C Y an´alogamente para el producto: (A + B 0 ) · C = A · C + B 0 · C, siendo B 0 ∈ Mm×p (R). 4. Matriz Identidad. Se llama matriz identidad In ∈ Mn×n (R) a la matriz diagonal In = diag{1, 1, . . . , 1}. Otra notaci´on habitual es In = (δij ), siendo δij la delta de Kronecker, s´ımbolo que representa: ( 1 si i = j δij = i, j = 1, . . . , n 0 si i 6= j La matriz identidad verifica, para cualquier matriz A ∈ Mm×n (R): Im · A = A

,

A · In = A

Normalmente se escribe simplemente I para la matriz identidad, sobre-entendi´endose el sub-´ındice que determina el tama˜ no en cada caso. Teniendo en cuenta las propiedades anteriores, el conjunto de matrices cuadradas Mn×n (R) con las operaciones suma y producto de matrices es un anillo unitario no conmutativo. 5. Sean A ∈ Mm×p (R) y B ∈ Mp×n (R). Entonces: (A · B)t = B t · At 6. Si A y B son dos matrices cuadradas triangulares superiores (o inferiores), entonces su producto A · B tambi´en es triangular superior (respectivamente inferior). 7. Si A ∈ Mn×n (R) es una matriz cuadrada, entonces tiene sentido plantear el concepto de potencias de dicha matriz: A2 = A · A ,

A3 = A · A · A ,

...

de manera que se verifican trivialmente las propiedades habituales de la exponencianci´on: Aa · Ab = Aa+b , etc. Por definici´on tomaremos: A0 = In .

Matrices Invertibles Definici´ on: Una matriz cuadrada A ∈ Mn×n (K) es invertible si existe otra matriz de igual tama˜ no, llamada inversa de A y que denotaremos A−1 , que verifica: A · A−1 = A−1 · A = In

18

MATRICES Y DETERMINANTES

Propiedades de las matrices invertibles: 1. Si A es una matriz invertible, entonces su inversa es u ´nica. 2. Si A es invertible, entonces A−1 tambi´en lo es, y obviamente: (A−1 )−1 = A, es decir la inversa de la matriz inversa de A es la propia matriz A. 3. Si A y B son invertibles, entonces su producto A·B tambi´en es invertible, verific´ andose: (A · B)−1 = B −1 · A−1 4. Si A es invertible, entonces su traspuesta At tambi´en lo es, y adem´as: (At )−1 = (A−1 )t . 5. Para las matrices invertibles tiene sentido definir las potencias negativas, de forma evidente: A−2 = A−1 · A−1 , A−3 = A−1 · A−1 · A−1 . . . 6. El conjunto de las matrices invertibles con la operaci´on producto de matrices tiene estructura de grupo no conmutativo. Nota: Es interesante comentar que en la pr´actica, para comprobar que dos matrices dadas son una inversa de la otra, basta con hacerlo u ´nicamente en uno de las dos ordenaciones posibles. Es decir: Si A y B son matrices cuadradas del mismo orden y adem´as A·B = I, entonces necesariamente B = A−1 , no es necesario por tanto comprobar que B · A = I. Bastar´ıa as´ı con definir matriz inversa por la derecha (o por la izquierda) para que una matriz fuera invertible. Existe una demostraci´on ingeniosa de este hecho, partiendo de que existe B tal que A · B = I, y dando por demostrado que la inversa por la derecha es u ´nica, se define: C = B · A − I + B, y se calcula A · C, concluy´endose que B · A = I necesariamente.

2.5

Transformaciones elementales. Matrices elementales.

En el tema anterior se definieron las transformaciones elementales en un sistema de vectores. Gracias a ellas pod´ıamos aplicar el m´etodo de eliminaci´on Gaussiana en los sistemas de vectores de Rn , con los consiguientes resultados pr´acticos de gran utilidad. Las transformaciones elementales por filas o por columnas en una matriz van a ser exactamente las mismas, sin m´as que interpretar a la matriz A ∈ Mm×n (R) como un sistema de vectores fila o un sistema de vectores columna, respectivamente. Tendremos por tanto que las transformaciones elementales por filas en una matriz son las siguientes: • Intercambiar el orden entre las filas i-´esima y j-´esima de la matriz. Se denota por Fij .

19

MATRICES Y DETERMINANTES

• Multiplicar la fila i-´esima por un n´ umero real escalar k 6= 0. Fi (k). • Sumar a la fila i-´esima la fila j-´esima multiplicada por k ∈ R. Fij (k). y an´alogamente para las columnas, es decir: Cij , Ci (k) y Cij (k). Centraremos todo el an´alisis que viene a continuaci´ on en las transformaciones elementales por filas, si bien es completamente equivalente el an´alisis de las transformaciones elementales por columnas (salvo peque˜ nos detalles que se especificar´an). Definici´ on: Se llama matriz elemental a la que resulta de aplicar una transformaci´on elemental a la matriz identidad. Si la transformaci´on es por filas, tendremos una matriz elemental por filas, y an´alogamente para el caso de columnas. Dado que hay tres tipos de transformaciones elementales, tendremos entonces tres diferentes tipos de matrices elementales, que denotaremos: Eij , Ei (k), Eij (k), con notaci´on heredada de la transformaci´on elemental correspondiente. Ejemplo: Algunas matrices elementales por filas para el caso de n = 3: 

E23

1 0  = 0 0 0 1

 0  1 , 0



7  E1 (7) =  0 0

0 1 0

 0  0 , 1



 1 0 0   E31 (−5) =  0 1 0  −5 0 1

Proposici´ on: Sea A una matriz A ∈ Mm×n (R). Sea E una matriz elemental (por filas) de orden m × m. Entonces la matriz producto E · A es igual a la matriz que se obtiene al realizar en A la transformaci´on elemental por filas correspondiente a la matriz E. Nota: Esta proposici´on es cierta para transformaciones por columnas, pero en ese caso el producto debe realizarse por la derecha, es decir: A · E. Proposici´ on: Las matrices elementales son invertibles y sus inversas son de nuevo matrices elementales del mismo tipo. Es f´acil deducir (utilizando la proposici´on anterior) cu´ales son las inversas de las matrices elementales (tal y como se ha especificado antes nos referiremos siempre, salvo que se especifique lo contrario, a matrices elementales por filas). - Matrices Eij . Si a la matriz Eij se le aplica la transformaci´on elemental Fij se obtiene obviamente la identidad, as´ı tendremos: −1 Eij · Eij = I ⇒ Eij = Eij

- Matrices Ei (k). De manera an´aloga, aplicando Fi ( k1 ) a la matriz Ei (k) se obtiene la identidad (recordemos que k 6= 0 necesariamente). Entonces: 1 1 Ei ( ) · Ei (k) = I ⇒ Ei (k)−1 = Ei ( ) k k

20

MATRICES Y DETERMINANTES

- Matrices Eij (k). Si se aplica Fij (−k) a Eij (k) resulta nuevamente la identidad. Eij (k))−1 = Eij (−k) Definici´ on: Una matriz A0 es equivalente por filas a otra matriz A si A0 se obtiene aplicando un n´ umero finito de transformaciones elementales por filas en A. De esta forma, si A0 se obtiene aplicando p transformaciones elementales por filas en A, tendremos que existen p matrices elementales: E1 , E2 , . . . , Ep de tal manera que: A0 = Ep · Ep−1 · . . . · E1 · A La matriz: P = Ep · Ep−1 · . . . · E1 recibe el nombre de “matriz de paso” de A a A0 . En general, por tanto, una matriz de paso no es m´as que una matriz producto de matrices elementales (evidentemente nos referimos a matrices de paso por filas, de manera an´aloga se definir´ıan las matrices de paso por columnas). Proposici´ on: Si P es una matriz de paso, entonces es invertible, y su inversa es la matriz de paso de la transformaci´on inversa. Es decir: A0 = P.A ⇔ A = P −1 .A0 Teniendo en cuenta las propiedades de las matrices invertibles, se obtiene de manera directa: P = Ep · Ep−1 · . . . · E1 ⇔ P −1 = E1−1 · E2−1 · . . . · Ep−1 La consecuencia inmediata de los razonamientos anteriores es que si A0 es equivalente por filas a A, entonces A tambi´en lo es a A0 . De hecho se trata de una relaci´on de equivalencia (como puede comprobarse trivialmente) en el conjunto de las matrices de un tama˜ no dado, y lo denotaremos de la forma: A ∼ A0 . Definici´ on: Sea A ∈ Mm×n (R) una matriz n´ umero de filas menor o igual que de columnas, es decir: m ≤ n. Se dice que A es una matriz escalonada por filas si cada vector fila de A comienza con un n´ umero de ceros superior a la fila anterior. En el caso de matrices con mayor n´ umero de filas que de columnas, m > n, la definici´on anterior es v´alida para las primeras n filas, siendo necesariamente nulas las m − n filas restantes. Para el caso particular de matrices cuadradas, de la definici´on anterior se deduce que una matriz escalonada por filas es necesariamente triangular superior. El concepto de matriz escalonada por filas es completamente an´alogo al de sistema de vectores escalonado que fue introducido en el tema anterior. De hecho una matriz es

21

MATRICES Y DETERMINANTES

escalonada por filas si su sistema de vectores fila es un sistema escalonado. Las t´ecnicas de eliminaci´on gaussiana que planteamos entonces para los sistemas de vectores son ahora igualmente v´alidas, y as´ı, trivialmente, toda matriz (del tama˜ no que sea) es equivalente por filas a una matriz escalonada por filas. Teorema: Sea A ∈ Mn×n (R) una matriz cuadrada. La condici´on necesaria y suficiente para que A sea una matriz invertible es que sea equivalente po filas a la matriz identidad. Demostraci´ on: Como es l´ogico, separaremos la demostraci´on en dos partes: • A es invertible ⇒ A es equivalente por filas a la matriz identidad. Por medio de elimaci´on gaussiana la matriz A es equivalente por filas a una matriz escalonada U (dado que es cuadrada, de hecho es triangular superior). Demostremos que entonces los elementos diagonales de U deben ser no nulos necesariamente. Si alguno de los elementos diagonales fuera nulo, entonces la u ´ltima fila de U ser´ıa completamente nula, dado que est´a escalonada por filas. Pero entonces U no podr´ıa ser una matriz invertible (una matriz invertible no puede tener una fila nula, pues su producto con otra matriz cualquiera generar´ıa siempre una fila nula en el resultado, lo cual impide la obtenci´on de la matriz identidad). Sin embargo, tenemos que: U = Ep · Ep−1 · . . . · E1 · A y as´ı U es igual al producto de p + 1 matrices invertibles, luego es invertible. Concluimos por tanto que uii 6= 0, ∀i = 1, . . . , n. Aplicando enotnces las n transformaciones elementales por filas Fi ( u1ii ) a U , convertiremos la matriz en una cuya diagonal principal sea enteramente de unos. A continuaci´on, basta con utilizar la eliminaci´on gaussiana “hacia arriba” (habitualmente llamado remonte), comenzando por la u ´ltima fila y eligiendo como pivotes los elementos de la diagonal. El proceso concluir´a al obtenerse la matriz identidad. • A es equivalente por filas a la matriz identidad ⇒ A es invertible. Si A ∼ I, entonces existen r matrices elementales de manera que: I = Er · Er−1 · . . . · E1 · A ⇔ I = P · A ,

P = Er · Er−1 · . . . · E1

pero entonces es evidente que la matriz de paso P no es m´as que la matriz inversa de A, y en consecuencia A es invertible. Q.E.D.

M´ etodo de C´ alculo de la Matriz Inversa: Una posible manera de calcular la matriz inversa de una matriz invertible A se deduce directamente del Teorema anterior. La matriz inversa es simplemente la matriz de paso que lleva de A a la identidad mediante transformaciones elementales por filas. Si escribimos (I|A), es decir la matriz identidad y la matriz A como si constituyeran una matriz n × (2n), y aplicamos transformaciones elementales a dicha matriz “doble” hasta llegar a que A se convierta en la identidad, entonces, trivialmente, la matriz identidad original, bajo las mismas transformaciones, se convertir´a en la matriz de paso, es decir, la matriz inversa de A (I|A) ∼ . . . ∼ (A−1 |I)

22

MATRICES Y DETERMINANTES

Ejemplo: Obtener la inversa de la matriz:  1  2  1



1 0  A= 1 2 0 1 Se tiene que: ¯  1 0 1 ¯¯  ¯  1 2 2 ¯ ¯ 0 1 1 ¯ ¯  1 0 1 ¯¯  ¯ ∼ 0 1 1 ¯ ¯ 0 0 −1 ¯

  0 1 0   0 ∼ 0 1 1 1 2   1 0 0 1   0 0 1 ∼ 0 −1 1 −2 0

1 0 0 1 0 0

1 1 2

¯ ¯ 1 ¯ ¯ ¯ 0 ¯ ¯ 0

  0 1 0   1 ∼ 0 1 0 0 2 ¯   1 ¯¯ 1 0 0 ¯   0 1 ∼ 1 ¯ 0 ¯ 1 ¯ 1 −1 2

0 1 0 

A−1

0  =  −1 1

0 0 1

1 1 −1

1 1 1

¯ ¯ 1 ¯ ¯ 0 ¯ ¯ ¯ −1

1 0 0 1 0 0

0 0 1

0 0 1

 0  1 ∼ 0

¯ ¯ 0 ¯ ¯ ¯ −1 ¯ ¯ 1

1 1 −1

 −2  −1  2

 −2  −1  2

Factorizaci´ on L · U Una interesante aplicaci´on de las matrices elementales es la descomposici´on L · U de una matriz cuadrada A. Se trata de encontrar dos matrices, una triangular inferior, L, y otra triangular superior, U , de tal manera que A = L · U . Esta descomposici´on tiene especial utilidad en la resoluci´on de sistemas de ecuaciones lineales, que veremos en un tema posterior. Como veremos a continuaci´on, no siempre es posible esta descomposici´on. Analicemos el caso A ∈ M3×3 (R): buscamos una matriz L = (lij ) triangular inferior, lij = 0, ∀i < j, y tal que todos los elementos diagonales sean igual a 1: lii = 1, ∀i = 1, 2, 3:       a11 a12 a13 1 0 0 u11 u12 u13        a21 a22 a23  =  l21 1 0  ·  0 u22 u23  a31 a32 a33 l31 l32 1 0 0 u33 Desarrollando el producto tendremos, para la primera fila: a11 = u11

;

a12 = u12

;

a13 = u13

es decir, la primera fila de U coincide con la primera de A. Si observamos ahora la primera columna del producto, y suponemos que a11 6= 0, tendremos: a21 = l21 u11 ⇒ l21 =

a21 a11

;

a31 = l31 u11 ⇒ l31 =

a31 a11

23

MATRICES Y DETERMINANTES

y as´ı l21 y l31 son calculables en t´erminos de los coeficientes aij (siempre y cuando a11 6= 0). Pasemos a la segunda fila: a22 = l21 u12 + u22 ⇒ u22 = a22 − l21 u12

;

a23 = l21 u13 + u23 ⇒ u23 = a23 − l31 u13

y conoceremos entonces la segunda fila de U como funci´on de cantidades conocidas. Continuando con el razonamiento, para la segunda columna de L y posteriormente para la tercera de U , obtendremos todos los coeficientes de L y U con el u ´nico requisito de que a11 y a22 sean no nulos. Sin embargo, si por ejemplo a11 = 0 la descomposici´on ya no ser´a posible. En la pr´actica aplicaremos el siguiente razonamiento: Si la matriz A puede ser convertida en una matriz triangular superior utilizando exclusivamente transformaciones elementales de los tipos: Fi (λ) y Fij (λ), siempre con i > j, entonces las matrices elementales involucradas son necesariamente triangulares inferiores, y sus inversas tambi´en, de esta manera: U = Ep · Ep−1 · ... · E1 · A

A = (Ep · Ep−1 · ... · E1 )−1 · U



y dado que el producto de matrices triangulares inferiores es tambi´en triangular inferior, tendremos que L viene dadad directamente por el producto: L = (Ep · Ep−1 · ... · E1 )−1 Para el caso general pueden demostrarse los siguientes resultados interesantes: Proposici´ on 1: Si A es una matriz invertible y factorizable como producto L · U (con lii = 1, ∀i), entonces esa factorizaci´on es u ´nica. Proposici´ on 2: Si A es invertible, siempre es posible encontrar una matriz de permutaci´on de filas P tal que P A sea factorizable LU . Finalmente, anticiparemos un u ´ltimo resultado importante, que utiliza el concepto de menor principal que ser´a definido en una pr´oxima secci´on de este tema: Proposici´ on 3: Una condici´on necesaria y suficiente para que una matriz invertible sea factorizable LU es que todos los menores principales de la matriz sean no nulos. Ejemplo: Encontrar la factorizaci´on LU de la matriz 

1  A1 =  −1 0 

1  A =  −1 0

−1 2 −1

  0 1  F21 (1)  ∼ −1   0 2 0

−1 1 −1

−1 2 −1

 0  −1  2

  0 1  F32 (1)  ∼ −1   0 2 0

−1 1 0

 0  −1  = U 1

24

MATRICES Y DETERMINANTES −1 −1 A1 = (F32 (1)F21 (1))−1 U = F21 (1)F32 (1)U = F21 (−1)F32 (−1)U ⇒ L = F21 (−1)F32 (−1)



 0 0 1  1 0  0 −1 1 0

1  A = L · U =  −1 0

2.6

 0  −1  1

−1 1 0

Rango de una matriz

Definici´ on: Se llama rango por filas de una matriz A ∈ Mm×n (R) al rango del sistema de vectores fila de A, rf (A) = rango(Sf ) = dim L(Sf ), con Sf = {f~1 , . . . , f~m }. Evidentemente, coincide con el n´ umero de filas linealmente independientes que aparecen en la matriz A. De manera equivalente se define el rango por columnas de A, considerando ahora, l´ogicamente, el sistema de vectores columna de A: Sc = {~c1 , . . . , ~cn }. rc (A) = rango(Sc ) = dim L(Sc ). Teorema del Rango: (primera versi´ on). Dada una matriz A ∈ Mm×n (R), su rango por filas y su rango por columnas coinciden. Demostraci´ on. Demostraremos que si el rango por filas de una matriz A es rf (A) = r, y el rango por columnas es rc (A) = r0 , entonces se cumple necesariamente que: r0 ≤ r. Supongamos que la matriz A est´a presentada de manera que son precisamente las r primeras filas las que son linealmente independientes (intercambiando filas si fuera necesario, lo que obviamente no afecta al rango por filas). 

a11 a21

     A=  ar1  a  r+1,1   am,1

a12 a22

··· ··· ··· ··· ··· ··· ···

ar2 ar+1,2 am,2

a1r a2r

a1,r+1 a2,r+1

arr ar+1,r

ar,r+1 ar+1,r+1

am,r

am,r+1

··· ··· ··· ··· ··· ··· ···

a1n a2n arn ar+1,n am,n

Entonces el resto de filas, m − r, son combinaci´on lineal de las anteriores: f~i =

r X

(i) λk f~k ,

i = r + 1, ..., m

k=1

o equivalentemente, para las componentes de dichas filas: aij =

r X k=1

(i)

λk akj ,

i = r + 1, ..., m ;

j = 1, ..., n

           

25

MATRICES Y DETERMINANTES

Consideremos ahora un vector columna gen´erico de A, ~cj , j = 1, . . . , n. Se tiene: ~cj

= = =

(a1j , a2j , ..., arj , ar+1,j , ..., amj ) = r r X X (r+1) (m) (a1j , a2j , ..., arj , λk akj , ..., λk akj ) = k=1 k=1 (r+1) (m) (r+1) (m) a1j (1, 0, ..., 0, λ1 , ..., λ1 ) + a2j (0, 1, ..., 0, λ2 , ..., λ2 ) +arj (0, 0, ..., 1, λ(r+1) , ..., λ(m) r r )

+ ... +

y por tanto cualquier columna puede expresarse como una combinaci´on lineal de r vectores. Esto significa que el rango del sistema de columnas, es decir r0 , es necesariamente menor o igual que r, puesto que todas las columnas pertenecen a un subespacio generado por r vectores. Repitiendo el mismo razonamiento pero comenzando el mismo con las columnas deducir´ıamos que r0 ≥ r, y as´ı, en definitiva, tendremos que r = r0 . Q.E.D.

2.7

Determinantes. Definici´ on

Dada una matriz cuadrada Mn×n (R), definiremos su determinante como un n´ umero real asociado a ella. Para el caso de matrices 2 × 2, el determinante puede ser definido de una forma muy sencilla: ¯ ¯ Ã ! ¯ a b ¯ a b ¯ ¯ det = ¯ ¯ = ad − bc ¯ c d ¯ c d Sin embargo, para tama˜ nos superiores, la definici´on no es tan trivial, de manera que debemos recordar como paso previo algunos conceptos acerca del conjunto de permutaciones posibles de los elementos de un conjunto dado.

Grupo Sim´ etrico Denominemos N al conjunto de los n primero n´ umero naturales: N = {1, 2, ..., n}. Llamaremos Sn al conjunto de todas las permutaciones posibles de dichos n´ umeros. Definici´ on: Llamaremos permutaci´ on σ de n elementos a toda aplicaci´on biyectiva del conjunto N = {1, 2, ..., n} en s´ı mismo: Ã ! 1 2 ... n σ:N →N , σ≡ σ(1) σ(2) ... σ(n) se trata por tanto de todo reordenamiento posible de los elementos que pertenecen al conjunto N . Suele utilizarse una notaci´on abreviada, escribiendo: σ = (σ(1) . . . σ(n)). Ejemplo: El grupo sim´etrico S3 tiene los siguientes elementos: ³ σ1 =

´ 1

2

3

³ σ2 =

´ 1 3

2

³ σ3 =

´ 2

1

3

26

MATRICES Y DETERMINANTES

³ σ4 =

´ 2 3

³ σ5 =

1

´ 3

1

2

³ σ6 =

´ 3 2

1

Recordemos que el n´ umero de permutaciones de n elementos, es decir el cardinal de Sn , es el factorial de n, n!. Composici´ on (Producto) de permutaciones: Dadas dos permutaciones σ1 y σ2 de los elementos del conjunto N , se define el producto de permutaciones, que denotaremos como σ2 ◦σ1 , como la simple composici´on de ambas aplicaciones, es decir, la permutaci´ on: Ã

σ2 ◦ σ1

1 2 ... n σ2 (1) σ2 (2) ... σ2 (n)

! Ã

1 2 ... n = ◦ σ1 (1) σ1 (2) ... σ1 (n) Ã ! 1 2 ... n = σ2 (σ1 (1)) σ2 (σ1 (2)) ... σ2 (σ1 (n))

!

Obviamente a partir de la operaci´on producto de permutaciones se puede definir la permutaci´ on inversa σ −1 como aquella que verifica que σ −1 ◦ σ = σ ◦ σ −1 = Id, siendo Id la permutaci´on identidad. Es f´acil dmostrar que el conjunto de las permutaciones Sn de un conjunto N con la composici´on posee estructura de Grupo, el cual recibe el nombre de Grupo sim´etrico. Trasposiciones: Se llama trasposici´on a la permutaci´ on consistente en el intercambio de s´olo dos elementos en el conjunto N . De forma gen´erica se tiene que, Ã τ :N →N

,

τ≡

1 ... i ... j ... n 1 ... j ... i ... n

!

Con cierta frecuencia se utiliza la notaci´on τij para denotar la trasposici´on anterior. Proposici´ on: Toda permutaci´on puede escribirse como el producto (composici´on) de trasposiciones, esto es, ∀σ ∈ Sn se verifica que σ = τp τp−1 · ... · τ1 . Proposici´ on: Si una permutaci´on σ puede descomponerse en el producto de p trasposiciones, con p par, entonces todas las descomposiciones posibles de σ requieren un n´ umero par de trasposiciones, y an´alogamente si p es impar. Se dice que una permutaci´on es par si descompone en un n´ umero par de trasposiciones. En caso de que dicho n´ umero sea impar hablaremos de permutaciones impares. Definici´ on: El signo de una permutaci´ on, que denotaremos por sign(σ) es, ( sign(σ) =

+1 si σ es par −1 si σ es impar

27

MATRICES Y DETERMINANTES

Definicion de Determinante Definici´ on: Dada una matriz cuadrada A de n´ umeros reales, A = (aij ), se llama determinante de A, |A| o det(A), al n´ umero real: X sign(σ) a1σ(1) · a2σ(2) · ... · anσ(n) det(A) = |A| = σ∈Sn

En la definici´on anterior se ha elegido que en cada t´ermino de la suma est´en fijadas las filas y se permuten los n´ umeros de columna. Es posible definir alternativamente el determinate intercambiando dichos papeles entre filas y columnas. Aclararemos esta idea a continuaci´on, en las propiedades de los determinantes. En cualquier caso, la definici´on alternativa ser´ıa: X det(A) = |A| = sign(σ) aσ(1)1 · aσ(2)2 · ... · aσ(n)n σ∈Sn

Determinantes de orden 2: Si A es de orden 2, es evidente que la definici´on nos conduce a la expresi´on que ya hab´ıa sido introducida en el apartado anterior: X |A| = sign(σ) a1σ(1) a2σ(2) = 1 · a11 a22 + (−1) · a12 a21 = a11 a22 − a12 a21 σ∈S2

Determinantes de orden 3: De manera an´aloga, para el caso 3 × 3 se tiene: X |A| = sign(σ) a1σ(1) a2σ(2) a3σ(3) = σ∈S3

= 1a11 a22 a33 − 1a11 a23 a32 − 1a12 a21 a32 + 1a12 a23 a31 − 1a13 a22 a31 + 1a13 a21 a32 = = a11 a22 a33 + a12 a23 a31 + a13 a21 a32 − (a13 a21 a32 + a12 a21 a33 + a11 a23 a32 ) que frecuentemente es llamada “Regla de Sarrus”.

2.8

Propiedades de los determinantes

Presentaremos a continuaci´on una serie de propiedades b´asicas de los determinantes, cuyas demostraciones son sencillas (aunque no las incluiremos): Sea A una matriz cuadrada de orden n × n. Denotaremos:   f~1  ~   f2   A = (aij ) =   ..   .  f~n y as´ı f~1 , . . . , f~n son los vectores fila de A.

28

MATRICES Y DETERMINANTES

1. El determinante de la matriz A y el de su traspuesta At coinciden, es decir: |A| = |At |. Esta propiedad tiene como consecuencia que todo lo que se exponga a continuaci´ on relativo a las filas de un determinante ser´a v´alido tambi´en para las columnas. 2. El determinante es lineal en cada fila y cada columna (suele utilizarse entonces el t´ermino “multilineal”). Esto significa que se verifican las siguientes relaciones: ¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯ f~ ¯ ¯ λ f~ ¯ ¯ f~ ¯ ¯ f~0 ¯ ¯ f~ + f~0 ¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯ 1 1 1 1 1 ¯ . ¯ ¯ . ¯ ¯ ¯ . ¯ ¯ .1 ¯ ¯ . ¯ .. ¯ = λ ¯ .. ¯ ¯ = ¯ .. ¯ + ¯ .. ¯ , ¯ .. ¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯ ~ ¯ ¯ ¯ ~ ¯ ¯ ¯ ¯ ¯ ¯ ¯ fn ¯ ¯ fn ¯ ¯ ¯ f~n ¯ ¯ f~n ¯ ¯ f~n y an´alogamente para cualquiera de las restantes filas. 3. Si la matriz A tiene una fila nula, entonces |A| = 0. 4. Si la matriz A0 se obtiene intercambiando en A el orden de dos filas, entonces |A0 | = −|A|, es decir el determinante cambia de signo bajo una transformaci´on elemental por filas de tipo Fij . Como consecuencia directa de esta propiedad, si una matriz tiene dos filas iguales autom´aticamente su determinante es nulo. 5. Si la matriz A0 se obtiene aplicando una transformaci´on elemental por filas de tipo Fi (k) en la matriz A, entonces: |A0 | = k |A|. N´otese que esta propiedad est´a incluida en la anteriormente expuesta Propiedad 2. 6. Si la matriz A0 se obtiene aplicando en A una transformaci´on elemental de tipo Fij (k), entonces sus determinantes coinciden, es decir: |A0 | = |A|. 7. Si A es una matriz triangular (superior o inferior), entonces el determinante de A es igual al producto de los elementos de la diagonal principal de A. En particular, evidentemente, esta propiedad se aplica a las matrices diagonales. 8. El determinante del producto de dos matrices A y B es igual al producto de los determinantes de cada matriz, es decir: |A · B| = |A| |B|. 9. Si una de las filas de la matriz A depende linealmente de las dem´as, entonces |A| = 0. Entonces evidentemente, si |A| 6= 0, el sistema de vectores fila de A es un sistema libre. 10. Una matriz A es invertible si y s´olo si su determinante es distinto de cero. Adem´as, el determinante de la matriz inversa es igual al inverso del determinante de la matriz A.

2.9

Menores, adjuntos y Matriz adjunta

Definici´ on: Dada una matriz A de orden m × n, llamaremos menor de orden p de A al determinante de cualquier submatriz que se obtenga a partir de A por la intersecci´ on de p filas y p columnas.

29

MATRICES Y DETERMINANTES

Definici´ on: Dada una matriz cuadrada A se llama menor complementario αij de la posici´on ij al menor de orden n − 1 que se obtiene al eliminar en A la fila i−´esima y la columna j−´esima. Definici´ on: Sea A una matriz cuadrada de orden n, se llama adjunto del elemento ij al n´ umero real: Aij = (−1)i+j αij Definici´ on: Sea A una matriz cuadrada de orden n. Se llama matriz adjunta de la matriz A, y de denota por Ad(A) a la matriz que tiene como elementos a los adjuntos de los elementos de la matriz A: Ad(A) = (Aij ) Proposici´ on: Sea A ∈ Mn×n (R) una matriz invertible, entonces se verifica: A−1 =

1 1 Ad(At ) = (Ad(A))t |A| |A|

Proposici´ on. Desarrollo de un determinante por una fila o columna. Sea A ∈ Mn×n (R) una matriz cuadrada, entonces se verifica: |A| = |A| =

n X i=1 n X

aij Aij

∀j = 1, . . . , n

aij Aij

∀i = 1, . . . , n

j=1

La primera expresi´on es lo que se conoce como desarrollo del determinante por la columna j−´esima, mientras que la segunda es el desarrollo por la fila i−´esima. Esta propiedad de los determinantes (llamada a veces Desarrollo de Lagrange) nos indica que es posible reducir el c´alculo de un determinante de orden n a una combinaci´ on lineal de determinantes de orden n − 1 (los que aparecen en los adjuntos correspondientes). En particular, una elecci´ on adecuada de la fila o columna por la que se va a desarrollar permite simplificar mucho el c´alculo final.

2.10

Teorema del Rango

En una secci´on anterior se defici´o el rango por filas y el rango por columnas de una matriz A ∈ Mm×n (R). Definiremos ahora una tercera posibilidad, el rango por menores: Definici´ on: Se llama rango por menores de una matriz A ∈ Mm×n (R) al mayor de los ordenes de los menores no nulos contenidos en dicha matriz. Teorema del Rango. Dada una matriz A ∈ Mm×n (R), su rango por filas, su rango por columnas y su rango por menores coinciden. Gracias a este Teorema toda matriz de n´ umeros reales tiene un u ´nico rango definido que puede ser calculado independientemente por filas, por columnas o por menores.

Get in touch

Social

© Copyright 2013 - 2024 MYDOKUMENT.COM - All rights reserved.