TEMAS DE MATEMÁTICAS (Oposiciones de Secundaria)

TEMAS DE MATEMÁTICAS (Oposiciones de Secundaria) TEMA 19 DETERMINANTES. PROPIEDADES. APLICACIÓN AL CALCULO DEL RANGO DE UNA MATRIZ. 1. Introducción.

0 downloads 88 Views 133KB Size

Recommend Stories


TEMAS DE MATEMÁTICAS (Oposiciones de Secundaria)
TEMAS DE MATEMÁTICAS (Oposiciones de Secundaria) TEMA 20 EL LENGUAJE ALGEBRAICO. SÍMBOLOS Y NÚMEROS. IMPORTANCIA DE SU DESARROLLO Y PROBLEMAS QUE RESU

TEMAS DE MATEMÁTICAS (Oposiciones de Secundaria)
TEMAS DE MATEMÁTICAS (Oposiciones de Secundaria) TEMA 38 TRIGONOMETRÍA PLANA. RESOLUCIÓN DE TRIÁNGULOS 1. .Conceptos sobre trigonometría. 1.1. Definic

TEMAS DE MATEMÁTICAS (Oposiciones de Secundaria)
TEMAS DE MATEMÁTICAS (Oposiciones de Secundaria) TEMA 15 ECUACIONES DIOFANTICAS 1. Introducción. 2. Ecuaciones Diofánticas Lineales. 2.1. Ecuaciones

TEMAS DE MATEMÁTICAS (Oposiciones de Secundaria)
TEMAS DE MATEMÁTICAS (Oposiciones de Secundaria) TEMA 40 GEOMETRÍA DE LA CIRCUNFERENCIA. 1. Generalidades. 1.1. Teorema fundamental. 2. Posiciones re

TEMAS DE MATEMÁTICAS (Oposiciones de Secundaria)
TEMAS DE MATEMÁTICAS (Oposiciones de Secundaria) TEMA 43 PROYECCIONES EN EL PLANO. MAPAS. PLANISFERIOS TERRESTRES: PRINCIPALES SISTEMAS DE REPRESENTAC

TEMAS DE MATEMÁTICAS (Oposiciones de Secundaria)
TEMAS DE MATEMÁTICAS (Oposiciones de Secundaria) TEMA 39 GEOMETRÍA DEL TRIÁNGULO 1. Generalidades. 1.1. Conceptos Elementales. 1.2. Clases de Triángu

TEMAS DE MATEMÁTICAS (OPOSICIONES DE SECUNDARIA) TEMA 8
TEMAS DE MATEMÁTICAS (OPOSICIONES DE SECUNDARIA) TEMA 8 SUCESIONES. TÉRMINO GENERAL Y FORMA PROGRESIONES ARITMÉTICAS Y GEOMÉTRICAS. 1. 2. 3. 4. 5. R

Story Transcript

TEMAS DE MATEMÁTICAS (Oposiciones de Secundaria) TEMA 19 DETERMINANTES. PROPIEDADES. APLICACIÓN AL CALCULO DEL RANGO DE UNA MATRIZ.

1. Introducción. 1.1. Resultados previos. 2. Formas multilineales alternadas. 3. Determinantes. 3.1. Determinantes de N vectores. 3.2. Determinantes de un Endomorfismo. 3.2.1. Aplicación Adjunta de un Endomorfismo. 3.3. Determinante de una matriz. 3.3.1. Matriz Asociada a Ad(ϕ). 3.3.2. Desarrollo de un determinante por los adjuntos de una línea. 4. Aplicación al cálculo del rango de una matriz. Bibliografía Recomendada.

1/26

TEMA 19 DETERMINANTES. PROPIEDADES. APLICACIÓN AL CALCULO DEL RANGO DE UNA MATRIZ.

1. INTRODUCCIÓN. El concepto de determinante es posible introducirlo de diferentes formas: Por medio de aplicaciones multilineales alternadas, por inducción o mediante sumas de n! sumandos para un determinante de orden n. El tema se va a desarrollar utilizando la primera forma, ya que es la más rigurosa de las tres. Tiene como ventaja sobre las otras que nos permite relacionar diversos conceptos y presentar de forma sencilla pero rigurosa las propiedades de los determinantes. Hemos de destacar que a lo largo del tema la letra K denotará un cuerpo conmutativo con característica de dos. 1.2. Resultados Previos. En este apartado vamos a refrescar una serie de resultados sobre permutaciones que necesitaremos para desarrollar el tema. Para encontrar las demostraciones y evitar reiteración, remitimos al lector al tema 3 del temario. DEF Llamaremos Sn al conjunto formado por todas las permutaciones posibles de los elementos del conjunto {a 1 , a2 ,…., an }. 1→3 Sea {1, 2, 3} un conjunto. Una permutación de dicho conjunto puede ser 2 → 1 3→ 2 que se puede expresar como 1 2 3   3 1 2 El conjunto Sn podemos definir como una operación como sigue (la representaremos en S3 )  1 2 3  1 2 3   1 2 3   ·  =    3 1 2  1 3 2   2 1 3  PROP El conjunto Sn junto con la operación de producto de permutaciones tiene estructura de grupo. DEF Una transposición es una permutación en la que todos los elementos quedan fijos menos dos que intercambian su posición.

2/26

Las trasposiciones se pueden representar mediante una matriz de orden 1x2, indicando los dos únicos elementos que intercambian su posición 1 2 3  Si (2,3)∈S3 se puede escribir como   1 3 2  PROP Toda permutación se puede escribir como producto de trasposiciones. PROP Si una permutación se descompone de dos formas distintas como producto de trasposición, ambas descomposiciones verifican que tienen un número par (o impar) de trasposiciones. DEF Diremos que una permutación es par si se descomponen como un número par de trasposiciones (e impar en caso contrario).  E (σ ) = 1 si σ es par Si σ ∈ S n ⇒  E (σ ) = −1 si σ es impar DEF El número E(σ) con permutación.

σ∈Sn recibe el nombre de signatura o signo de la

PROP ∀σ∈Sn con σ una trasposición se verifica que E(σ) = -1. n

Dada una aplicación grupo, podemos definir ∀σ ∈ S n

f : Cx ... (. ..x C → G siendo C un conjunto cualquiera y G un

(σ ⋅ f )( x1 ,......, xn ) = f (xσ (1),......., xσ (n ) )

DEF

Diremos que f es simétrica si ∀σ∈Sn se verifica σf = f

DEF

Diremos que f es antisimétrica si ∀σ∈Sn se verifica σf = E(σ) · f

PROP ∀σ, σ´∈Sn

(σ · σ´) · f = σ · (σ´f)

OBS Para saber si una aplicación es simétrica o antisimétrica, teniendo en cuenta la proposición anterior y que toda permutación se descompone como producto de trasposiciones, sólo es necesario conocer su actuación ante las trasposiciones. n

PROP Dada

f : Cx .Λ( x C → G y ∀τ ∈ S n trasposición:

1) f es simétrica ⇔ τf = f 2) f es antisimétrica ⇔ τf = − f DEF

Diremos que f es no degenerada si es una aplicación antisimétrica no nula.

3/26

2. FORMAS MULTILINEALES ALTERNADAS. n

Sea V un K-espacio vectorial de dimensión n y Vn = Vx .Λ( x V. Sea W otro K-espacio vectorial. Diremos que f: Vn → W n-lineal si es lineal en cada una de sus componentes.

DEF

ρ

ρ

ρ

ρ

ρ

ρ

ρ

ρ

ρ

f (v1 ,....., αvi + βvi ´,....., vn ) = αf (v1 ,....., vi ,...., v n ) + βf (v1 ,...., vi ´,...., vn ) Si W = K entonces f es una forma n-lineal sobre V. PROP Sean V y W K-espacios vectoriales. Si f: Vn → W es n-lineal, se verifica i) Si λ1 ,...., λn ∈ K ⇒ f (λ1v1 , λ2 v 2 ,...., λn v n ) = λ1 ·....·λn f (v1 ,...., v n ) n

ii) Si ∀i ∈ {1,..., n} vi = ∑ xij u j (vi es combinación lineal de {u1 ,…,un }) ⇒ j =1

n

n

(

n

⇒ f (v1 ,...., v n ) = ∑ ·∑ ·.....·∑ λ1 j1 ·λ2 j 2 ·....·λnjn · f u j1 ,...., u j n j1 =1 j 2 =1

j n =1

)

Dem. i) f (λ1 v1 , λ2 v2 ,....., λn vn ) = λ1 f (v1 , λ2 v 2 ,...., λn v n ) = λ1 λ2 f (v1 , v2 ,...., λn vn ) = ....... = = λ1 ·λ2 ·......·λn f (v1 , v2 ,...., v n ) Por ser lineal respecto de cada una de las variables. n

ii) Como vi = ∑ λij u j j =1

∀i ∈ {1,...., n}

n n  n  f (v1v2 ,...., vn ) = f  ∑ λ1 j1 u j1 , ∑ λ2 j 2 u j2 ,...., ∑ λnjn u jn  = j2 =1 j n =1  j1 =1 

n

n

n

j1 =1

j 2 =1

j n =1

(

)

= ∑ λ1 j1 ·∑ λ2 j2 ·.......·∑ λnjn · f u j1 , u j 2 ,...., u j n = n

n

n

(

∑ ·∑ ·......·∑ λ1 j1 ·λ2 j2 ·......·λnjn · f u j1 , u j2 ,...., u jn j1 =1 j2 =1

j n =1

)

DEF Sea f: Vn → W n-lineal. Diremos que f es alternada (antisimétrica) si f(v1 ,…, vn ) = 0 cuando vi = vj para algún i, j con i ≠ j. A estas aplicaciones se las llama n-lineal alternada.

4/26

PROP Sea f: Vn → W n-lineal alternada y τ ∈Sn una trasposición ( τ = (ij ) ). Entonces f (vτ (1) , vτ (2 ) ,...., vτ (n ) ) = − f (v1 , v2 ,...., vn ) ∀(v1 ,...., vn ) ∈ V n Dem. Supongamos que i < j. f (vτ (1) ,...., vτ ( n ) ) = f (v1 ,...., vi −1 , v j , vi +1 ,...., v j −1 , vi , v j +1 ,...., vn ) Por haber dos vectores repetidos (vi + vj en los lugares i y j) y ser f alternada se verifica 0 = f (v1 ,...., vi −1 , vi + v j , vi +1 ,...., v j −1 , v j , v j +1 ,....., v n ) = = f (v1 ,...., vi −1 , vi , vi +1 ,....., v j −1 , vi , v j +1 ,...., vn ) + + f (v1 ,...., vi −1 , vi , vi +1 ,...., v j −1 , v j , v j +1 ,...., vn ) + + f (v1 ,...., vi −1 , v j , vi +1 ,...., v j −1 , vi , v j +1 ,...., vn ) + + f (v1 ,..., vi −1 , v j , vi +1 ,...., v j −1 , v j , v j +1 ,...., vn ) = = 0 + f (v1 ,...., vi ,....., v j ,...., v n ) + f (v1 ,...., v j ,...., vi ,...., vn ) + 0 Entonces f (v1 ,...., v j ,...., vi ,...., vn ) = − f (v1 ,...., vi ,..., v j ,....., vn ) PROP Sea f: Vn → W n-lineal anternada y σ∈Sn . Entonces ∀(v1 ,…, vn =∈Vn f (vσ (1 ) ,...., vσ ( n ) = ε(σ ) f (v1 ,..., vn )) siendo ε(σ) la signatura de la permutación. Dem. f (vσ (1 ) ,...., vσ ( n ) ) = f (vτ1 ·τ 2 ·....· τ K (1 ) ,......., vτ 1τ 2 .... τ K (n ) ) = σ = τ1 ·τ2 ·....·τK ε(σ ) = (− 1)K

5/26

(

)

(

)

= − f vτ 2 ..... τ K (1 ) ,......., vτ 2 ..... τ K ( n ) = (− 1) f vτ3 .... τ K (1 ) ,....., vτ3 ..... τ K ( n ) = ....... =

(

2

)

= (− 1) f v1 ,...., vn = ε(σ) f (v1 ,...., v n ) K

PROP Sea f: Vn → W

σ∈Sn , ∀(v1 ,…., vn )∈Vn

n-lineal y

se verifica que

f (vσ (1 ) ,......, vσ ( n ) ) = ε(σ ) f (v1 ,...., vn ) ⇒ f es alternada. Dem. Sea (v1 ,…, vn )∈Vn

(

con vi = vj i ≠ j (i < j) y sea τ ∈ S n con τ = (ij )

)

τ· f (v1 ,...., vn ) = f vτ (1 ) ,...., vτ ( n ) = f (v1 ,...., v j ,...., vi ,...., vn ) = f (v1 ,..., vi ,..., v j ,..., vn ) ya que vi = vj Por hipótesis f (vτ (1) ,....., vτ ( n ) ) = − f (v1 ,...., vi ,...., v j ,...., vn ) Luego f (v1 ,..., vn ) = − f (v1 ,..., vn ) ⇒ 2 f (v1 ,...., vn ) = 0 ⇒ f (v1 ,...., v n ) = 0 PROP Sea f: Vn → W n-lineal alternada. Si {v1 ,…, vn ) es un conjunto linealmente independiente de V, entonces f(v1 ,…, vn ) = 0 Dem. Si {v1 ,…, vn } es L. D ⇒ ∃i∈{1,…, n}/vi es combinación lineal del resto. n

vi = ∑ λj v j j =1 j≠ i

  n   f (v1 ,...., vi ,...., vn ) = f  v1 ,...., vi −1 , ∑ λj v j , vi +1 ,...., vn  = j =1   j ≠1   = ∑ λj · f (v1 ,...., vi −1 , v j , vi +1 ,...., vn ) = n

j =1 j ≠i

En todos los sumandos aparecen repetidos los vj sumandos son cero. n

= ∑ λj ·0 = 0 j =1 j ≠i

6/26

y como

f

es alternada, los

COROLARIO Si V es un K-espacio vectorial con dimV = p < n, entonces cualquiera que sea el espacio vectorial W se verifica que toda aplicación n-lineal alternada f: Vn → W es nula. Sea f: Vn → W n-lineal alternada, (v1 ,…, vn )∈Vn y supongamos que

LEMA

n

∀i∈{1,…., n} vi es combinación lineal de {u1 ,…., un }, vi = ∑ λij v j . Entonces j =1

  f (v1 ,...., vn ) =  ∑ ε(σ )λ1σ (1) ·.....·λnσ ( n ) · f (u1 ,...., un )  σ ∈S n  Dem. n

n

(

n

)

Sabemos que f (v1 ,....., vn ) = ∑ ·∑ ·.......·∑ λ1 j1 ·λ2 j 2 ·......·λnj n f u j1 , u j 2 ,...., u jn = j1 =1 j 2 =1

j n =1

Si en el conjunto de índices {j1 ,….., jn } tenemos jS = jK con S ≠ K entonces f u j1 ,....., u jS ,....., u jK ,....., u j n = 0 por ser f alternada.

(

)

Luego los sumandos en donde se repita algún uji son cero y los podemos eliminar de la suma. Al final nos queda j1 = σ(1), j 2 = σ(2),...., j n = σ(n ) con σ∈Sn =

∑λ

σ ∈S n

1σ (1 )

·.....·λn σ (n ) f (uσ (1 ) ,....., uσ (n ) ) =

∑λ

σ ∈S n

1σ (1 )

·.....·λn σ (n ) ·ε(σ ) f (u1 ,...., un )

TEOREMA Sea V un K-espacio vectorial de dimensión n. Sea B = {u1 ,….,un } base de V y de w∈W (con W K-espacio vectorial). Existe una única aplicación n-lineal alternada f: Vn → W tal que f(u1 ,…., un ) = w. Dem. • Unicidad. Sean f, f´: Vn → W n-lineales alternadas / f(u1 ,…., un ) = w = f´(u1 ,…., un ). n

Sea (v1 ,…., vn )∈V con vi = ∑ λij u j n

j =1

f (v1 ,...., vn ) = =

∑ ε(σ )λ

1σ (1)

σ ∈S n

∑ ε(σ)λ

σ ∈S n

1σ (1 )

·......·λnσ ( n ) · f (u1 ,...., u n ) =

·....·λn σ (n ) · f ´(u1 ,...., un ) = f ´(v1 ,...., vn )

Como tienen igual dominio y rango y actúan igual sobre todos los elementos, son iguales: f = f´

7/26

Por tanto, de existir la aplicación, ésta es única. • Definición de f. n

Sea w∈W, f: Vn → W ∀(v1 ,….., vn )∈Vn y ∀i∈{1,….., n}, vi = ∑ λij u j j =1

  f (v1 ,...., vn ) :=  ∑ ε(σ)λ1σ (1 ) ·.....·λnσ (n ) ·w  σ ∈S n  La imagen de la base es   f (u1 ,....., un ) =  ∑ ε(σ )δ1σ (1 ) ·.....·δn σ ( n ) ·w  σ∈Sn  Si σ ≠ 1Id

∃i / σ(i) ≠ i ⇒ δ iσ(i) = 0

Entonces f (u1 ,...., un ) = (δ11 ·δ22 ·.....·δnn )·w = w ya que δii = 1∀i • f es n-lineal (elegimos la 1ª variable para comprobarlo y es análogo para el resto). Sea v1 = ∑ λ1 j u j y v1 ´= ∑ µ j u j ⇒ v1 + v1´= ∑ (λ1 j + µ1 j )u j n

n

n

j =1

j =1

j =1

  f (v1 + v1´, v 2 ,...., vn ) =  ∑ ε(σ )·(λ1σ (1 ) + µ1σ (2 ) ·......·λn σ ( n ) )·w =  σ ∈S n  Como K es un cuerpo (se verifica la propiedad distributiva)     =  ∑ ε(σ )λ1σ (1) ·......·λn σ ( n )  +  ∑ ε(σ )µ1σ (1) ·λ1σ ( 2 ) ·.....·λnσ (n ) ·w =  σ ∈S n   σ∈Sn      =  ∑ ε(σ )λ1σ (1 )·.....·λn σ ( n )  w +  ∑ ε(σ )µ1σ (1 ) ·λ1σ (2 ) ·.....·λn σ ( n )  w =  σ ∈S n   σ ∈S n  = f (v1 , v2 ,...., v n ) + f (v1 ´, v2 ,...., vn ) De forma análoga se demuestra para el producto por un escalar. Por tanto f es lineal. • f es alternada. Sea (v1 ,....., vn ) ∈ V n

con vi = vj

i ≠ j. Sea τ = (ij )

8/26

∀σ ∈ S n

ε(σ ⋅ τ) = ε(σ )·ε(τ ) = −ε(σ )

Como vi = vj ⇒ λiK = λjK ∀K ∈ {1,..., n} . Tenemos λi στ (i ) = λi σ ( j ) = λj σ ( j ) λj στ ( j ) = λj σ (i ) = λi σ (i ) − ε(σ )λ1στ (1 ) ·......·λiσ (i ) ·....·λj στ ( j ) ·......·λn στ (n ) = = −ε(σ )λ1σ (1 ) ·.....·λi σ ( j ) ·......·λj σ (i )·.....·λn σ ( n ) = Como el producto en el cuerpo es conmutativo se puede escribir = −ε(σ )λ1σ (1 ) ·.....·λi σ (i ) ·.....·λj σ ( j ) ·......·λnσ (n ) Luego este sumando es igual pero opuesto a ε(σ )λ1σ (1 ) ·.....·λnσ ( n ) Pero como f (v1 ,...., vn ) = (∑ ε(σ )λ1σ (1 ) ·.....·λn σ (n ) )w existen varios sumandos. ¿Cómo podemos demostrar que para cada sumando existe su opuesto? Pues definiendo la siguiente biyección T: An → In

t(σ) = στ

siendo An el conjunto de las permutaciones pares e In las impares. Luego   f (v1 ,...., vn ) =  ∑ ε(σ )λ1σ (1 ) ·.....·λn σ ( n ) + ∑ ε(σ )λ1σ (1) ·.....·λnσ (n ) w = 0 σ ∈I n  σ ∈ An  ya que ε(σ ) = 0 si σ ∈ An y ε(σ ) = −1 si σ ∈ I n Por tanto f es alternada. 3. DETERMINANTES. 3.1. Determinante de N vectores. DEF Sea B = {u1 ,...., un } una base del K-espacio vectorial V. Se define el determinante respecto de la base B como la única forma n-lineal alternada

9/26

detB : Vn → K tal que detB(u1 , u2 ,…., un ) = 1 DEF

Si (v1 , v2 ,…., vn )∈Vn , el determinante de los n vectores respecto de la base B es det B (v1 , v2 ,...., vn ) =

∑ ε(σ)λ

σ ∈S n

1ω (1)

·λ2σ (2 ) ·......·λn σ (n )

Podemos definir el conjunto de todas las aplicaciones n-lineales como Ln (V ,W ) = {f / f : V n → W n − lineal } Este conjunto lo podemos dotar de estructura de K-espacio vectorial de la siguiente manera: Si f1 , f2 ∈Ln (V, W) Suma:

( f1 + f2 )(v1 , v2 ,....., vn ) = f1 (v1, v2 ,...., v n ) + f 2 (v1 , v2 ,...., vn )

Producto escalar: (λf1 )(v1 , v2 ,...., v n ) = λ ⋅ f1 (v1 , v 2 ,.....,v n ) PROP Sea B = {u1 , u2 ,...., u n } una base de V. Se verifica: i) Si f: Vn → K es una forma n-lineal alternada, existe a∈K tal que f = a·detB ii) Si f = 0.

f: Vn → K es una forma n-lineal alternada y f(u1 , u2 ,…., un ) = 0 entonces

Dem. i) Sea (v1 , v2 ,…., vn )∈Vn f (v1 , v2 ,...., vn ) =

∑ ε(σ )λ

σ∈Sn

1σ (1 )

·....·λn σ ( n )· f (u1 ,...., un ) = det B (v1 ,...., vn )· f (u1 ,...., u n ) =

Si llamamos a = f(u1 ,…., un ) = a ⋅ det B (u1 , u 2 ,...., un ) = (a ⋅ det B )(u1 ,...., un ) Luego f = a·detB ii) Si f(u1 ,…., un ) = 0 ⇒ f(u1 ,…., un ) = a = 0 y como f = a·detB ⇒ f = 0 PROP Sea B = {u1 ,...., un } base de V y sea {v1 ,...., vn } ∈ V . Los vectores {v1 ,...., vn } son linealmente independientes si y solo si detB (v1 ,…., vn ) = 0 10/26

Dem. “⇒” Si {v1 ,..., vn } es un conjunto linealmente dependiente entonces existe una aplicación n-lineal alternada tal que f (v1 ,...., vn ) = 0 . Luego si f = a ⋅ det B ⇒ a ⋅ det B = 0 siendo a un escalar no nulo. Entonces detB (v1 ,…., vn ) = 0 “⇐” Sea det B (v1 ,...., vn ) = 0 y supongamos que independientes.

{v1 ,...., vn }

fuese linealmente

Entonces {v1 ,...., vn } serían base de V ⇒ ∃a ∈ K / det B = a ⋅ det B ´ y como det B ´ = 1 tenemos que a = det B (v1 ,...., vn ) = 0 Pero esto es una contradicción con el hecho de que el determinante de una base es 1, det B (u1 ,...., un ) = 1. Luego nuestra hipótesis de que los vectores independientes es falsa y por tanto son dependientes.

{v1 ,..., vn }

son linealmente

3.2. Determinantes de un endomorfismo. DEF Sea V un K-espacio vectorial de dimensión n, sea B = {u1 ,....,u n } una base de V y ϕ : V → V un endomorfismo. Llamaremos determinante de un endomorfismo a det ϕB : V n → K n-lineal alternada definida por det ϕB (v1 , v2 ,...., vn ) = det B (ϕ(v1 ), ϕ(v 2 ),.....,ϕ(v n )) Puesto que ϕ es lineal, la función det ϕB es n-lineal. Y como detB es alternada también lo es det ϕB (recordemos que si vi = vj ⇒ ϕ(vi) = ϕ(vj )) Por un resultado anterior, al ser la función n-lineal y alternada, sabemos que ∃λ ∈ K / det ϕB = λ ⋅ det B siendo λ el determinante de ϕ con respecto a la base B. Como λ n va a depender de la base del espacio que tomemos la llamaremos determinante de un endomorfismo que tomemos.

11/26

PROP Si B y B´ son bases de V y ϕ ∈ L(V ) ⇒ det B (ϕ) = det B ´ (ϕ) Dem. Sean B = {u1 ,...., un } y B´= {u1 ´,..., un ´} dos bases de V. Como detB y detB´ ∃µ ∈ K / det B´ = µ⋅ det B det ϕB ´ = det B ´(ϕ ) ·det B ´

son

n-lineales alternadas, son proporcionales

(λ = det B´ (ϕ))

det ϕB ´ (u1´,...., u n ´) = det B´ (ϕ) ⋅ det B ´ (u1 ´,..., u n ´) = det B´ (ϕ)

(det B´ (u1´,......, un ´) = 1)

Entonces det B ´ (ϕ) = det ϕB´ (u1 ´,....., un ´) = det B ´ (ϕ(u1 ´),....., ϕ(un ´)) = µ ⋅ det B (ϕ(u1 ´),...., ϕ(u n ´)) = = µ ⋅ det ϕB (u1 ´,....., u n ´) = µ ⋅ det B (ϕ)·det B (u1´,....., un ´) = det B (ϕ)·µ·det B (u1 ´,....., un ´) = = det B (ϕ)·det B ´ (u1´,....., u n ´) = det B (ϕ) DEF Si ϕ∈L(V) con dimV = n, llamamos determinante de ϕ, det(ϕ), a detB (ϕ) para alguna base B se V. PROP Si ϕ, Ψ ∈ L(V ) ⇒ det (ϕ ο Ψ ) = det (ϕ) ⋅ det (Ψ ) Dem. Sea B = {u1 ,....., un } base de V det (ϕ ο Ψ ) = det B (ϕ ο Ψ ) = det ϕB οΨ (u1 ,....., un ) = det B (ϕ ο Ψ(u1 ),....., ϕ ο ϕ(un )) = = det ϕB (Ψ(u1 ),...., Ψ(un )) = det B (ϕ) ⋅ det B (Ψ(u1 ),...., Ψ(un )) = det B (ϕ) ⋅ det ΨB (u1 ,...., u n ) = = det B (ϕ) ⋅ det B (Ψ ) ⋅ det B (u1 ,...., un ) = det b (ϕ) ⋅ det B (Ψ ) = det (ϕ) ⋅ det (Ψ ) PROP Si ϕ ∈ L(V ) ϕ es automorfismo ⇔ det(ϕ) ≠ 0 Dem. “⇒” Sea ϕ automorfismo y B = {u1 ,...., un } base de V-

12/26

det (ϕ) = det B (ϕ) = det ϕB (u1 , , , , ,.u n ) = det B (ϕ(u1 ),...., ϕ(un )) ≠ 0 Es distinto de cero ya que al ser B base de V y ϕ automorfismo ⇒ {ϕ(u1 ),....,ϕ(u n )} es base de V ⇒ {ϕ(u1 ),....,ϕ(u n )} es linealmente independiente. “⇐” Sea det (ϕ) ≠ 0 y B = {u1 ,...., un } base de V. 0 ≠ det (ϕ) = det B (ϕ(u1 ),....., ϕ(un )) ⇒ {ϕ(u1 ),...., ϕ(u n )} es linealmente independiente y como dimV = n ⇒ {ϕ(u1 ),...., ϕ(u n )} es base de V ⇒ ϕ es automorfismo, ya que transforma una base en otra.

( )

PROP Si ϕ ∈ GL(V ) ⇒ ∃det ϕ−1 =

1 det (ϕ)

Dem. det (1v ) = det (ϕ ο ϕ−1 ) = det (ϕ) ⋅ det (ϕ−1 )

det (1v ) = det 1Bv (u1 ,...., un ) = det B (1v (u1 ),....,1v (un )) = det B (u1 ,...., un ) = 1

( )

( )

⇒ det (ϕ) ⋅ det ϕ−1 = 1 ⇒ det ϕ−1 =

 ⇒ 

1 det (ϕ)

3.2.1. Aplicación Adjunta de un Endomorfismo. NOTACIÓN La expresión det b (v;1 , v2 ,...., vˆ j ,....., vn ) Equivale a det B (v; v1 , v 2 ,....., v j −1 , v j +1 ,...., v n ) Sea V un K-espacio vectorial de dimensión n, B = {u1 ,...., un } base de V y

LEMA

{v ,......., v , v} vectores de V. 1

n

n

∑ (− 1) j =1

j −1

Se verifica.

⋅ det B (v , v1 ,...., vˆ j ,....., vn ) ⋅ v j = det B (v1 ,...., vn ) ⋅ v

Dem. Vamos a distinguir dos casos, según sea el conjunto independiente o dependiente. a) Si {v1 ,....., vn } es L. I. ⇒

{v1 ,...., vn } es base

{v1 ,...., vn }

linealmente

n

⇒ ∃λ1 ,...., λn ∈ K / v = ∑ λK vK K =1

13/26

  ∑ (− 1) j −1 ⋅ det B (v, v1 ,....,vˆ j ,...., vn ) ⋅ v j = ∑ (− 1) j−1 ⋅ det B  ∑ λK vK , v1 ,..., vˆ j ,...., v n ·v j = n

n

n

j =1

j =1

 K =1

(



)

n  n  = ∑ (− 1) j −1 · ∑ λK ·det B v K , v1 ,...., vˆ j ,..., vn ·v j = j =1  K =1 

Si K = j nos encontramos con dos vectores iguales y el determinante es cero por ser una aplicación alternada. = ∑ (− 1) ·λj ·det B (v j ,v1 ,....., vˆ j ,...., vn )·v j = n

j −1

j =1

Realizamos j – 1 trasposiciones y situamos el vector vj en su lugar

(

= ∑ (− 1) ·λj ·(− 1) ·det B (v1 ,..., v j ,...., vn )·v j = ∑ (− 1) n

j −1

n

j −1

j =1

j =1

n

n

j =1

j =1

) ·λ ·det

j −1 2

j

B

(v1 ,...., vn )·v j

= ∑ λj det B (v1 ,...., v n )·v j = det B (v1 ,...., vn )·∑ λj v j = det B (v1 ,...., vn )·v b) Si {v1 ,...., vn } es L. D. ⇒ det B (v1 ,...., vn ) = 0 ⇒ ⇒ det B (v1 ,...., vn )·v = 0 Comprobemos pues, que el primer miembro es nulo n

∑ (− 1) j =1

j −1

·det B (v, v1 ,...., vˆ j ,...., vn )·v j = 0 (Comprobar)

Como {v1 ,...., vn } L. D. ⇒ ∃vi que es combinación lineal del resto. n

Supongamos que es el primero ⇒ v1 = ∑ λK vK K =2

n

∑ (− 1) j =1

j −1

·det B (v, v1 ,...., vˆ j ,...., vn )·v j =

j −1 = det B (v, vˆ1 , v2 ,...., vn )·v1 + ∑ (− 1) ·det (v , v1 ,..., vˆ j ,...., vn )·v j = n

j =2

n n  n  = det B (v, vˆ1 , v2 ,....., vn )·∑ λK v K +∑ (− 1) j −1 ·det B  v, ∑ λK v K ,...., vˆ j ,..., vn ·v j = K =2 j= 2  K=2 

14/26

=

=

n n  j −1  ˆ λ ·det ( v , v , v ,...., v ) · v + ( − 1 ) ·  λK det B (v, vK ,...., vˆ j ,...., vn )·v j = ∑ K B 1 2 n K ∑ ∑ K=2 j= 2  K=2  n

Si K = j nos encontramos con dos vectores iguales y el determinante es cero por ser una aplicación alternada. =

∑ λK ·det B (v , vˆ1,.v2 ,....., vn )·vK + ∑ (− 1) ·λj det B (v, v j , v2 ,...., vˆ j ,..., v n )·v j = n

n

K =2

j= 2

j −1

Para colocar vj en su sitio hemos de realizar j – 2 trasposiciones =

=

n

n

K=2

j =2

n

n

K=2

j =2

n

n

K =2

j= 2

∑ λK det B (v, vˆ1 , v2 ,...., v n )·vK + ∑ (− 1) ·λj ·(− 1) j −1

(

∑ λK det B (v, vˆ1 , v2 ,...., v n )·vK + ∑ (− 1)· (− 1)

j− 2

·det B (v, v2 ,...., v j ,...., vn )·v j =

) ·λ ·det (v, v ,..., v ,..., v )·v

j −2 2

j

B

2

j

n

j

=

= ∑ λK det B (v, vˆ1 , v2 ,...., vn )·vK − ∑ λj det B (v, v2 ,...., vn )·v j = 0 Vamos a construir ahora la aplicació n adjunta. Sea V un K-espacio vectorial con dimV = n y B = {u1 ,...., un } base de V. Tomemos ϕ∈L(V) y definamos la aplicación Ø: Vn → L(V) como ∀(v1 ,..., v n ) ∈ V n

Ø (v1 ,..., vn ) ∈ L(V ) ⇒ Ø (v1 ,..., vn ) : V → V

Ø (v1 ,...., vn )(v ) = ∑ (− 1) ·det B (v; ϕ(v1 ),...., ϕ(vˆ j ),....,ϕ(v n ))·v j n

∀v ∈ V

j −1

j =1

PROP Ø es la única aplicación n-lineal alternada que lleva la base a un endomorfismo. Dem. • Comprobemos que Ø está bien definida (Ø (v1 ,..., v n ) es un endomorfismo) ∀(v1 ,...., vn ) ∈ V n

∀λ, µ ∈ K

∀v, v´∈ V

Ø (v1 ,..., vn )(λv + µv´) = ∑ (− 1) ·det B (λv + µv´,ϕ(v1 ),...., ϕ(vˆ j ),...., ϕ(vn ))·v j = n

j −1

j =1

[

(

( ))

]

= ∑ (− 1) · λ·det B v, ϕ(v1 ),...., ϕ(vˆ j ),...., ϕ vn + µ det B (v´,ϕ(v1´),..., ϕ(vˆ j ),...., ϕ(vn )) ·v j = n

j =1

j −1

15/26

n

= λ∑ (− 1)

j −1

j =1

j −1 det B (v, ϕ(v1 ),.,ϕ(vˆ j ),.., ϕ(v n ))v j + µ∑ (− 1) det B (v´, ϕ(v1 ),.., ϕ(vˆ j ),.., ϕ(vn ))·v j = n

j =1

= λ Ø (v1 ,..., vn )(v ) + µØ (v1 ,..., v n )(v´) • Ø es n-lineal. (Veámoslo para la 1ª variable, ya que el resto es análogo). ∀λ, µ ∈ K

∀ v1 , v1´∈ V

∀v ∈ V

j −1 Ø (λv1 + µv1´, v2 ,..., vn )(v )0 ∑ (− 1) ·det B (v, ϕ(λv1 + µv1´), ϕ(v2 ),..., ϕ(vˆ j ),..., ϕ(vn ))·v j = n

j =1

n

= det B (v, ϕ(v2 ),..., ϕ(vn ))·(λv1 + µv1´) + ∑ (− 1)

j −1

j= 2

det B (v, ϕ(λv1 + µv1 ´),..., ϕ(vˆ j ),...,ϕ(v n ))·v j =

= λ·det B (v, ϕ(v 2 ),...,ϕ(v n ))v1 + µ·det B (v, ϕ(v2 ),..., ϕ(v n ))·v2 +

[

]

+ ∑ (− 1) · λdet B (v, ϕ(v1 ),..., ϕ(vˆ j ),..., ϕ(v n )) + µ det B (v, ϕ(v1 ´),..., ϕ(vˆ j ),..., ϕ(v n )) ·v j = n

j −1

j =2

n

= λ∑ (− 1) j =1

j −1

det B (v, ϕ(v1 ),., ϕ(vˆ j ),..,ϕ(v n ))v j + µ∑ (− 1) n

j =1

j −1

det B (v, ϕ(v1 ´),.., ϕ(vˆ j ),.., ϕ(vn ))v j =

= λ Ø (v1 ,..., vn )(v ) + µØ (v1 ´, v2 ,.., vn )(v ) = [λ Ø (v1 ,..., vn ) + µ Ø (v1 ´,..., vn ) ](v ) • Ø es Alternada. Sea vi = vK con i ≠ K y i < K Hemos de comprobar que Ø(v1 ,…, vn ) = 0 (matriz nula) ∀v ∈ V

Ø (v1 ,..., vn )(v ) = ∑ (− 1) ·det B (v, ϕ(v1 ),..., ϕ(vˆ j ),..., ϕ(vn ))·v j = n

j −1

j =1

Si j ≠ i, K ⇒ hay dos vectores iguales.

( ( )

)

= (− 1) ·det B v, ϕ v1 ,..., ϕ(vˆi ),..., ϕ(v n ) ·vi + (− 1) i −1

K −1

·det B (v, ϕ(v1 ),..., ϕ(vˆK ),..., ϕ(vn ))·vK =

Ahora desplazamos ϕ(vi) al lugar ϕ(vK). El número de trasposiciones es K-(i – 1) y ambos determinantes son iguales. 16/26

Veamos el signo

[ = [(− 1)

= (− 1) + (− 1)

K −1

+ (− 1)

K −1

i −1

i −1

·(− 1)

K −i +1

·(− 1)

K +1

]·det

B

(v, ϕ(vˆi ),..., ϕ(v n ))·vi =

]

·(− 1) det B (v, ϕ(v1 ),...., ϕ(vˆi ),...,ϕ(v n ))·vi = 0 −i

Ya que: (− 1)i −1 + (− 1)K −1 ·(− 1)K +1 ·(− 1)−i = (− 1)i −1 + (− 1)−i = 0 DEF

Llamaremos adjunta de ϕ respecto de B a la imagen de Ø de la base de V adB(ϕ) = Ø(u1 ,…., un )

Y adB(ϕ)∈L(V) PROP adB(ϕ) no depende de la base tomada Dem. Dadas B = {u1 ,..., un } y B´= {u1 ´,..., un ´} bases de V, hemos de comprobar que adB(ϕ) = adB´ (ϕ). Sea Ø: Vn → L(V) respecto de B y Ø´: Vn → L(V) respecto de B´. ad B´ (ϕ)(v ) = Ø´ (u1 ´,..., un ´)(v ) = ∑ (− 1) ·det B ´ (v, ϕ(u1 ´),...,ϕ(uˆ j ´),..., ϕ(u n ´))·u j ´= n

j −1

j =1

Dadas B y B´ bases de V ∃! λ ∈ K / det B ´ = λ det B = ∑ (− 1) ·λ·det B (v, ϕ(u1 ´),..., ϕ(uˆ j ´),..., ϕ(u n ´))·u j ´= n

j −1

j =1

= λ∑ (− 1) ·det B (v, ϕ(u1´),.., ϕ(uˆ j ´),..., ϕ(u n ´))·u j ´= λ ⋅ Ø (u1 ´,..., u n ´)·(v ) = n

j −1

j =1

= λ·det B (u1 ´,...., u n ´)·ad B (ϕ)(v ) = det B ´ (u1 ´,..., un ´)·ad B (ϕ)(v ) = ad B (ϕ)(v ) ya que det B ´ (u1´,...., u n ´) = 1 Por tanto adB´ (ϕ) = ad B(ϕ) y no depende de la base elegida. DEF Sea ϕ∈L(V). Se define la aplicación adjunta de ϕ, ad(ϕ), como adB(ϕ) para alguna base de B de V. PROP Sea ϕ∈L(V), con dimV = n. Se verifica: 1) ϕ ο ad (ϕ) = det (ϕ) ο 1v

17/26

2) ad (ϕ) ο ϕ = det (ϕ) ο 1v Dem. 1) ∀v ∈ V

(ϕ ο ad (ϕ))(v ) = ϕ(ad (ϕ)(v )) = Sea B = {u1 ,..., un } una base de V.  n  j −1 = ϕ (Ø (u1 ,...,u n )(v ) ) = ϕ ∑ (− 1) ·det B (v, ϕ(u1 ),....,ϕ(uˆ j ),....,ϕ(u n ))·u j  =  j =1  = ∑ (− 1) ·det B (v, ϕ(u1 ),..., ϕ(uˆ j ),..., ϕ(un ))·ϕ(u j ) = n

j −1

j =1

Aplicando el último Lema = det B (ϕ(u1 ),..., ϕ(un ))·v = det B (ϕ)·det B (u1 ,..., u n )·v = det (ϕ)·v = = (det (ϕ)·1v )(v ) Entonces ϕ ο ad (ϕ) = det (ϕ) ο 1v 2) (ad (ϕ) ο ϕ)(v ) = ad (ϕ)(ϕ(v )) = ϕ (u1 ,...., un )(ϕ(v )) = = ∑ (− 1) ·det B (ϕ(v ), ϕ(u1 ),..., ϕ(uˆ j ),...., ϕ(u n ))u j = n

j −1

j =1

= ∑ (− 1) ·det ϕB (v , u1 ,...., uˆ j ,..., un )·u j = ∑ (− 1) ·det (ϕ)·det B (v, u1 ,..., uˆ j ,..., u n )·u j = n

n

j −1

j =1

j −1

j =1

= det (ϕ)·det B (u1 ,..., un )(v ) = det (ϕ)·v = (det (ϕ) ο 1v )(v ) Entonces ad (ϕ) ο ϕ = det (ϕ) ο 1v COROLARIO

Si ϕ es un automorfismo entonces ϕ−1 =

ad (ϕ) = det (ϕ)−1 ·ad (ϕ) det (ϕ)

18/26

3.3. Determinante de una matriz. DEF Sea A∈Mn (K). Se define el determinante de la matriz A, A , como el determinante de las filas de A consideradas como elementos de Kn y respecto de al base canónica de Kn . Si A = (aij ) la fila i-ésima es ai • = (ai1 , ai 2 ,...., ain ) A = det B (a1• , a2• ,...., a n• ) =

∑ ε(σ )·a

1σ (1 )

σ∈Sn

·a2 σ ( 2 ) ·....·an σ ( n )

siendo B = {e1 , e2 ,...., en } En el caso de una matriz cuadrada de orden 2

{

}

a12  a S 2 = 1S 2 , (1,2 ) ⇒  11  = a11 a12 − a12 a 21  a21 a 22  y en el caso de una matriz de orden 3

{

}

S3 = 1S 3 , (1,2 ), (1,3), (2,3), (1,2,3), (1,3,2 ) ⇒  a11  ⇒  a21 a  31

a12 a22 a32

a13   a 23  = a11a 22 a33 − a12 a21 a33 − a13 a22 a31 − a11a 23 a32 + a12 a 23 a31 + a13a32 a21 a33 

PROP Si A∈Mn (K) ⇒ A = At Dem. Sea A = (aij ) y At = (bij ) con bij = a ji A=

∑ ε(σ )a

1σ (1)

σ∈Sn

∀1 ≤ i , j ≤ n

·a2 σ ( 2 ) ·....·an σ ( n ) =

Sabemos que ∃σ −1 ∈ S n / σ −1 ο σ = 1Id =

∑ ε(σ)·a(

σ ∈S n

σ

−1

)

·σ (1 )σ (1)

·a(σ −1 ·σ )( 2 )σ ( 2 ) ·.....·a(σ −1 ·σ )(n )σ (n ) =

Podemos establecer una aplicación biyectiva

19/26

S n → Sn σ → σ −1

( )

y se verifica ε(σ ) = ε σ −1 =

∑ ε (σ )a −1

σ

−1

σ ∈S n

−1

aσ −1 (2 )2 ·......·aσ −1 ( n )n =

(1)1

Sea β = σ −1 =

∑ ε(β )a

β∈S n

a

β (1 )1 β ( 2 )2

.........a β (n )n =

∑ ε( β)·b

1 β (1 )

β∈S n

·b2 β ( 2 ) ·......·bnβ ( n ) = At

PROP Sea A∈Mn (K). Se verifica 1) Si un determinante tiene dos filas o dos columnas iguales el determinante es cero. 2) Si se multiplica una fila o columna por un escalar, queda el determinante multiplicado por ese escalar. 3) Si a una fila o columna se le suma una combinación lineal del resto, el determinante no varía. Dem. Inmediatas, sin más que tener en cuenta que las filas (o columnas) de A se consideran vectores de Kn y que el determinante es una función n-lineal alternada. PROP Sea ϕ∈L(V), B = {u1 ,...., un } base de V y A la matriz asociada a ϕ respecto de B. Entonces det (ϕ) = A Dem. det (ϕ) = det B (ϕ(u1 ),...., ϕ(un )) =

∑ ε(σ )b

σ ∈S n

1σ (1 )

·.....·bnσ (n ) =

Siendo (bj1 , bj2 ,….., bjn ) las coordenadas de ϕ(uj) respecto de B y la fila j-ésima de A. = A OBS Si en lugar de escribir ϕ(uj ) por filas lo hiciésemos por columnas tendríamos que es igual, det (ϕ) = At = A

20/26

COROLARIO

Si A, B∈Mn (K) ⇒ A ⋅ B = A · B

Dem. Sean ϕ, Ψ ∈ L(V ) con A matriz asociada a ϕ y B a Ψ A · B = det (ϕ)·det (Ψ ) = det (ϕ ο ϕ) = A·B A ≠ 0 ⇔ A es inversible

COROLARIO Dem.

Sea ϕ∈L(V) con A matriz asociada. A es inversible ⇔ ϕ es automorfismo ⇔ det (ϕ) ≠ 0 ⇔ A ≠ 0 COROLARIO

Si A es inversible, entonces A−1 =

1 A

Dem. Sea ϕ∈L(V) con A matriz asociada

( )

1   1 −1 det (ϕ) ⇒ A = A A−1 es la matriz asociada a ϕ−1  det ϕ−1 =

3.3.1. Matriz Asociada a Ad( ϕ ). Sea ϕ∈L(V), A la matriz asociada a ϕ y denotemos por A(ad(ϕ)) a la matriz asociada a Ad(ϕ). Vamos a obtener A(ad(ϕ)) Sabemos que ϕ ο ad (ϕ) = det (ϕ)·1v Luego A· A(ad (ϕ)) = A ·I n Sea V un K-espacio vectorial de dimensión n y B = {u1 ,..., un } base de V. Sabemos que ad (ϕ) = Ø (u1 ,...., u n ) y sea A(ad (ϕ)) = (bij )

21/26

Por una lado tenemos ad (ϕ)(u j ) = ∑ bij ui (escribiendo por columnas) y por otro n

i =1

ad (ϕ)(u j ) = Ø (u1 ,..., u n )(u j ) = ∑ (− 1)i −1 ·det B (u j ,ϕ(u1 ),..., ϕ(uˆ j ),..., ϕ(u n ))·ui = n

i =1

= ∑ (− 1)i −1 ·(− 1)i −1 ·det (ϕ(u1 ),..., ϕ(ui −1 ), u j , ϕ(u i +1 ),...,ϕ(u n ))·ui n

i =1

Hemos obtenido dos expresiones del mismo vector, y como B es base, han de ser iguales. Entonces bij = det B (ϕ(u1 ),..., ϕ(u i −1 ), u j , ϕ(ui −1 ),..., ϕ(u n ))

∀1 ≤ i , j ≤ n

Ahora vamos a desarrollar el miembro de la derecha para obtener una expresión más operativa par bij. Definimos un endomorfismo auxiliar ϕij∈L(V) ∀1 ≤ i , j ≤ n como ϕ(u K ) si K ≠ i ϕij (u K ) =   u j si K = i det B (ϕ(u1 ),.., ϕ(u i −1 ), u j , ϕ(u i +1 ),..., ϕ(u n )) = det B (ϕij (u1 ),..., ϕij (u i −1 ), ϕij (ui ), ϕij (ui +1 )...,ϕij (u n )) = = det (ϕij ) = A(ϕij ) donde por A(ϕij) representamos la matriz asociada a la aplicación ϕij . Sea A = (aij ) la matriz asociada de ϕ. La matriz A(ϕij) es:  A(ϕ11 ) A(ϕ12 )   A(ϕ21 ) A(ϕ22 ) A(ϕij ) =  ..... .....   A(ϕ ) A(ϕ )  n1 n2

..... ..... ..... .....

A(ϕ1 n )   A(ϕ2 n )  .....   A(ϕnn ) 

y teniendo en cuenta (ϕij)(uK) corresponden a la columna K, tenemos que  a11   ..... A(ϕij ) =  a j 1  ..... a  11

..... a1 ,i −1 0 a1,i +1 ..... ..... ..... ..... ..... a j ,i −1 1 a j ,i +1 ..... ..... ..... ..... ..... an ,i −1 0 a n ,i +1

..... ..... ..... ..... .....

22/26

a1n   .....  a jn   .....  ann 

El determinante es 1 0 i −1 j −1 A(ϕij ) = (− 1) ·(− 1) · ..... ..... 0

a j1 a11 ..... ..... a n1

..... a j , i −1 ..... a1, i −1 ..... ..... ..... ..... ..... an , i −1

a j , i +1 a1 ,i +1 ..... ..... an , i +1

..... ..... ..... ..... .....

a jn a1 n ..... = ..... a nn

Renombremos los elementos de la matriz A(ϕij ) = (Cij )1≤i , j ≤ n   = (− 1)i + j ·(− 1)−2 · ∑ ε(σ )·C1σ (1) ·.....·Cnσ (n )  =  σ ∈S n  Como el determinante de una matriz y su traspuesta coinciden   = (− 1)i + j · ∑ ε(σ)·Cσ (1)1 ·.....·Cσ (n )n  =  σ ∈S n  y al ser la primera columna toda nula menos su primer elemento resulta que 0 σ (1) ≠ 1 Cσ (1 )1 =  1 σ(1) = 1 = (− 1)

i+ j

     i+ j   ∑ ε(σ)Cσ ( n )n  = (− 1) · ∑ ε(σ )Cσ ( 2 ) 2 ·....·Cσ (n )n  =  σσ ∈(1S)n=1   σ ∈S n −1   

= (− 1) · Dji i+ j

siendo Dji la matriz que se obtiene de A eliminando la fila j y columna i Por tanto bij = (− 1)i + j · Dij DEF Sea A∈Mn (K) con determinante de Dij.

A = (aij). Llamamos

menor complementario de aij al

DEF

Sea A∈Mn (K) con A = (aij). Llamamos adjunto de aij a bij = (− 1)i + j · Dij

DEF

Llamaremos matriz adjunta de A∈Mn (K) a A = (bij )

Con esta nueva terminologí a tenemos que

23/26

A(ad (ϕ)) = A t OBS Si ϕ es un automorfismo y A es su matriz asociada, sabemos que A es inversible y

( )

A−1 = A ϕ−1 =

1 t ad (ϕ) · A ya que ϕ−1 = A det (ϕ)

3.3.2. Desarrollo de un determinante por los adjuntos de una línea. PROP Sea A∈Mn (K) con A = (aij). Si (bij) es la matriz de adjuntos se verifica: n

1) A = ∑ aij ·bij (desarrollo por los adjuntos de la fila i) j =1

n

2) A = ∑ aij bij (desarrollo por los adjuntos de la columna j). i =1

Dem. Vamos a realizar la demostración para 2) pues son análogas ya que A = At 2) A =

∑ ε(σ )a

1σ (1)

σ∈Sn

·a2 σ ( 2 ) ·....·an (σ )n =

Llevando el elemento que queremos sacar factor común a la fila 1 y columna 1 tenemos que = a1 j ·(− 1) · j −1

∑ ε(σ )a

2σ (2)

σ ∈S n σ (1 )= j

+ anj ·(− 1)

n + j −2

·

∑ ε(σ )a

·...·an σ ( n ) + a2 j ·(− 1) · j

a

1σ (1) 2 σ ( 2 )

σ ∈S n σ (n )= j

∑ ε(σ)a

1σ (1 )

σ ∈S n σ ( 2 )= j

·a3 σ (3 )·....·a nσ (n ) + .... +

·.....·an −1 ,σ ( n −1 ) =

σ( K ) K ≠ i Definimos σi ∈ S n −1 como σi ( K ) =  K =i  i = a1 j ·(− 1) · 1+ j

∑ ε (v )a

σ ∈ S n−1

+ .... + anj ·(− 1)

n+ j

1

2 σ 1 (2 )

·a3σ 1 (3 ) ·.....·an σ 1 ( n ) + a2 j ·(− 1)

· ∑ ε(σn )a1σ n (1 )·a2 σ n (2 )·....·an −1,σ n (n −2 ) = σ n∈ S n

n

= a1 j b1 j + a2 j b2 j + ... + anj bnj = ∑ aij bij i =1

24/26

2+ j

·

∑ ε(σ )a

σ 2∈S n −1

2

·a3σ 2 (3 ) ·...·an σ 2 ( n ) +

1σ 2 (1 )

COROLARIO vale cero.

La suma de los productos de una fila por los adjuntos de una paralela

4. APLICACIÓN AL CALCULO DEL RANGO DE UNA MATRIZ. Sabemos que las columnas de una matriz (o filas) de Mn (K) son linealmente independientes (consideradas como vectores de Kn ) si y solo si su determinante es no nulo. DEF

Dada una matriz A∈Mmxn (K) con A = (aij ) y m ≥ n se verifica:

rang A = n ⇔ A tiene al menos un menor de orden n no nulo. Dem. “⇒” Si rang(A) = n ⇒ En A existen n filas linealmente independientes y por tanto su determinante es no nulo. “⇐” Supongamos que A tiene un menor de orden n cuyo determinante es no nulo. Como el intercambio de filas no altera el rango, podemos suponer sin pérdida de generalidad que a11 ..... a1 n ..... ..... ..... ≠ 0 a n1 ..... a nn Por tanto las n primeras filas son linealmente independientes y rang (A) ≥ n Pero como A tiene n columnas ⇒ rang(A) ≤ n Entonces rang(A) = n DEF Sea A una matriz de orden m x n y D un menor de orden p obtenido de dicha matriz. Llamamos orlados del menor D a todos los menores de orden p + 1 que contienen a D. PROP Sea A∈Mmx(n+1)(K) con A = (aij).  A tiene un menor D de orden n no nulo Rang(A) = n ⇔  Todos los orlados de D son nulos  Dem. “⇒” Si rang(A) = n, por la proposición anterior A tiene un menor D de orden n no nulo.

25/26

Como A tiene n + 1 columnas, la única columna que no está en el menor D es combinación lineal de las otras. Y como esa columna estará en todos los orlados de D, éstos serán nulos. “⇐” Por hipótesis, al ser D un menor no nulo de orden n, A tiene n filas linealmente independientes. Como todos los orlados son nulos, las demás filas serán combinación lineal de esas n. Luego rang(A) = n.

Bibliografía recomendada.

Curso de algebra y geometría. Juan de Burgos. Ed: Alhambra Algebra lineal y geometria. Ed: Univ. de Barcelona Algebra linea. Juan de Burgos. Ed: McGraw-Hill Algebra lineal. F. Puerta. Ed: Univ. de Barcelona.1975 Linear Algebra. W. Greub. Ed: Springer-Verlag

26/26

Get in touch

Social

© Copyright 2013 - 2024 MYDOKUMENT.COM - All rights reserved.