UNIVERSIDAD NACIONAL DEL CALLAO

UNIVERSIDAD NACIONAL DEL CALLAO FACULTAD DE CIENCIAS NATURALES Y MATEMÁTICA INSTITUTO DE INVESTIGACIÓN TEXTO ALGEBRA I INFORME FINAL SOFIA IRENA DUR

11 downloads 244 Views 4MB Size

Recommend Stories

Story Transcript

UNIVERSIDAD NACIONAL DEL CALLAO FACULTAD DE CIENCIAS NATURALES Y MATEMÁTICA INSTITUTO DE INVESTIGACIÓN

TEXTO

ALGEBRA I INFORME FINAL SOFIA IRENA DURAN QUIÑONES

(Período de Ejecución: del 01 -03-2009 al 28-02-2011) Resolución Rectoral Nº 261 -09-R

CALLAO - 2011

1

INDICE Pág. • RESUMEN

4

• INTRODUCCIÓN

5

• MARCO TEÓRICO

6

• MATERIALES Y MÉTODOS

7

• RESULTADOS

8

• CAPITULO 1 : ESPACIOS VECTORIALES

9

1.1 Definiciones y ejemplos

9

1.2 Subespacios y conjunto generador

12

1.3 Dependencia e independencia lineal

16

1.4 Base y Dimensión

17

1.5 Suma Directa

22

1.6 Espacio Cociente

23

1.7 Ejercicios

26

• CAPITULO 2 : TRANSFORMACIONES LINEALES

28

2.1 Definiciones y propiedades

28

2.2 Núcleo e Imagen

29

2.3 Composición de Transformaciones Lineales

32

2.4 Transformación lineal no singular

32

2.5 Teorema Fundamental de las transformaciones lineales

35

2.6 Espacio Vectorial Dual

38

2.7 Anuladores

40

2.8 Dual de una transformación lineal

41

2.9 Ejercicios

42

• CAPITULO 3 : MATRICES Y SISTEMAS DE ECUACIONES LINEALES

44

3.1 Definiciones y ejemplos

44

2

3.2 Matrices Elementales. Cálculo de la Inversa de u a Matriz

47

3.3 Cálculo de la inversa mediante operaciones elementales

53

3.4 Matriz Escalonada Reducida

56

3.5 Equivalencia por Filas

58

3.6 Sistemas de Ecuaciones Lineales

61

3.7 Matriz cambio de base

68

3.8 Matriz cambio de base

78

3.9 Ejercicios

87

• CAPITULO 4: LA FUNCIÓN DETERMINANTE Y PRODUCTO INTERNO

91

4.1 Función Determinante

91

4.2 Matriz Cofactores – Matriz Adjunta

100

4.3 Producto Interno

102

4.4 La Norma como función

103

4.5 Ortogonalidad

107

4.6 Complemento Ortogonal

114

4.7 Ejercicios

118

• DISCUSIÓN

121

• REFERENCIALES

122

• APENDICE

123

• ANEXO

126

3



RESUMEN En este trabajo de investigación se ha elaborado un t

o teórico – práctico, exponiendo

de manera clara y precisa las definiciones, axiomas, t

emas, corolarios y ejemplos de

álgebra lineal (parte I), de forma sistemática y detallada, lo cual ermite el dictado de la asignatura “ALGEBRA I”, correspondiente al segundo ciclo de la currícula de estudios de la Escuela Profesional de Matemática de la Facult

de Ciencias Naturales y

Matemática de la Universidad Nacional del Callao. Así como también para los planes de estudios de los primeros ciclos de ingeniería, ciencias, físicas y económicas. Al editar el texto, la responsable de la obra presenta en gran parte un Panorama Moderno de la Teoría del Álgebra Lineal, teniendo en consideración a un gran sector de público interesado en diversos temas relacionados. El texto es razonablemente fundamental, en el sentido que es la parte del Álgebra Lineal

que sirve de soporte para el curso de Álgebra I. Aparte de ser una obra de referencia en todos sus temas contienen ejemplos que ilustran la teoría correspondiente, los capítulos 1, 2 y 3 contiene material de mucho provecho para la aplicación en modelos matemáticos de problemas cotidianos, como por ejemplo la optimización, la biomatemática, estadística, programación lineal, investigación de operaciones y ciencias físicas. Al final de cada capítulo se propone un número adecuado de ejercicios que de alguna forma son un complemento del material presentado en el citado texto. La forma como se ejecuta el desarrollo del texto sobre todo en la exposición de los temas y ejemplos, se muestra la diferencia con respect

los autores mencionados en la

referencia bibliográfica. La presente obra hace más sencillo y de más dinamismo el proceso de enseñanza y aprendizaje del álgebra lineal.

4

INTRODUCCIÓN En Ciencias Matemáticas el Álgebra Lineal particularme e los espacios vectoriales, transformaciones lineales, isomorfimos, matrices elementales, entre otros

temas, constituye una parte importante e interesante sobre t o cuando se interrelaciona con la programación lineal y optimización. Son muchos extos de Álgebra Lineal que desarrollan con una excesiva teoría generando dificultad en su comprensión y otros textos que se encuentran escritos en idiomas extranjeros lo c al también imposibilita su entendimiento por parte del lector que desconoce tales idiomas. En tal sentido el problema de la Investigación consistió en elaborar un texto en

español de manera clara, precisa y consistente que oriente adecuadamente el desarrollo de la Asignatura: Álgebra

I, que desarrolle los isomorfismos, matriz asociada, la

función determinante y los espacios con producto interno de forma precisa. Los objetivos planteados para la Investigación fueron:

• La elaboración del texto: Álgebra I con un lenguaje sumamente sencillo y didáctico que faciliten su comprensión.

• Introducir los aspectos teóricos – prácticos en forma clara y precisa de : 1. Espacios vectoriales. 2. Las transformaciones lineales. 3. Matrices y sistemas de ecuaciones lineales 4. La función determinante y producto interno. • Lograr la rigurosidad teórica en el álgebra lineal (Álgebra I), para que sus aplicaciones tengan mejor acogida.

La importancia del trabajo fundamentalmente radica en que el Texto : Álgebra I elaborado es un instrumento que facilita el proceso de enseñanza –aprendizaje, según los objetivos y contenidos del programa Oficial de la

tura Álgebra I, que se

desarrolla en la escuela Profesional de Matemática de la Facultad de Ciencias Naturales y Matemática de la Universidad Nacional del Callao y tras universidades del país.

5

MARCO TEÓRICO El tema central del álgebra lineal es el estudio de lo espacios vectoriales, y las

aplicaciones que pueden definirse sobre ellos y la manera como actúa una matriz. Cuando es multiplicado una matriz A por un vector, se obtiene un nuevo vector Ax esto quiere decir que todo el espacio es transformado por l matriz A. Para la elaboración del presente trabajo de investigación titulado Texto : Álgebra I se ha tenido en cuenta los conceptos básicos de:

• Conjuntos y álgebras de conjuntos, para estos temas podemos referirnos a T. Apóstol (1977).

• Relaciones y funciones para estos temas podemos referirnos a M. Spivak (1992) • Leyes de composición y estructura de

Cuerpo para estos temas podemos

referirnos a A. Rojo (1985).

Todos estos conceptos, conjuntamente con los temas pro uestos por Tom M. Apostol

(1977) , N. Herstein (1998). J. Rojo (2001). E. Lages Lima ( 998) y C. Chávez (2005) han permitido elaborar este Texto : Álgebra I en concordancia con el plan curricular de la

Escuela Profesional de Matemática de la

Matemática de la Universidad Nacional del Callao.

6

Facultad

e Ciencias Naturales y

MATERIALES Y MÉTODOS Materiales Este trabajo no está sujeto a experimento de laboratorio, sin embargo se ha desarrollado sobre la base de texto, papers, artículos, software especializado y experiencias propias en el dictado del curso de álgebra I, adecuándolos a nue tras necesidades. Además también se ha usado material de tipo técnico en el diseño e impresión de informes trimestrales y final. Toda la información ha

procesada en una

computadora usando Microsoft Word para Windows 97 en concordancia con las directivas vigentes, mediante el cual se han editado t o el formulismo Matemático y elaborado los esquemas y dibujos relacionados a los diversos temas desarrollos.

Métodos Luego, de realizar la recolección de datos necesarios para la investigación. Los métodos usados en la discusión de los temas de cada capítulo son clasificados en:

1. Inductivo 2. Deductivo 3. Inductivo – Deductivo 4. Analítico y Sintético

El método deductivo es conciso y lógico que permite desarrollar la teoría del álgebra lineal en forma concreta y ordenada. El método inductivo –deductivo ha hecho posible mostrar el desarrollo del f rmalismo que describe los conceptos descritos así como también,

análisis de las soluciones para

los ejemplos presentados. En conclusión estos métodos han permitido que el traba o sea de mayor claridad y comprensión.

7

RESULTADOS El resultado obtenido en este trabajo de investigación es la elaboración de un texto guía para el curso de Álgebra I que es parte de profesional de Matemática de la Facultad de Ciencias

curricula de la escuela

aturales y Matemática de la

Universidad Nacional del Callao. Es un texto desarrollado en cuatro capítulos, distribuidos en el orden señalado en el índice. En cada uno de los capítulos, se hace una exposición teórica muy concisa,

n

sus respectivos ejemplos para una buena comprensión. Finalmente, los resultados hacen notar la diferencia con los autores mencionados en la referencia que podrían estos textos ser de un nivel más alto; sin embargo este trabajo hace más dinámico y simple, el proceso de enseñanza –aprendizaje de los conceptos de álgebra lineal en los estudiantes de cien

8

ásicas e ingeniería.

CAPITULO 1 ESPACIOS VECTORIALES En este capítulo estudiaremos los espacios vectoriales que es el objeto directo del presente texto. Empezaremos introduciendo el concepto de cuerpo que nos permitirá definir a un espacio vectorial, daremos propiedades y jemplos. Desarrollaremos el álgebra de los subespacios y a partir de ello definiremos el espacio cociente, además estudiaremos los conceptos de base, dimensión y espacio generado.

1.1.

Definiciones y ejemplos

Definición 1.1.1.- Un cuerpo es un conjunto que denotaremos por K junto

operaciones + : K x K  →K y

dos

⋅ : K x K  → K denominados adición y

multiplicación, las cuales satisfacen las siguientes condiciones:

K1 : a + b , ab ∈ K, para todo a, b ∈ K K2 : a + b = b + a, ab = b.a, para todo a, b ∈ K K3 : a + (b + c) = (a + b) + c, para todo a, b, c ∈ K K4 : a (b c) = (ab ) c, para todo a, b, c ∈ K K5 : a (b + c) = ab + ac, para todo a, b, c ∈ K K6 : ∃ 0 ∈ K tal que a + 0 = a para todo a ∈ K K7 : ∃ 1 ∈ K* tal que a.1 = a, para todo a ∈ K, K* = K – {0} K8 : para cada a ∈ K*, ∃a-1 ∈ K* tal que a. a-1 = 1

Observación 1.1.2.- El elemento a . b de K se llama producto de a con b y se denota usualmente por ab. Los elementos de K son llamados escalares, el 0 es llamado neutro, a -1 inverso multiplicativo de a, 1 es llamado elemento id

ad y –a es llamado opuesto

de a.

Teorema 1.1.3.- Es un cuerpo K se verifican las siguientes propiedades. a. Para todo a ∈ K, se tiene a . 0 = a

b. Para todo a, b ∈ K; ab = 0 si y sólo si a = 0 o b = 0 9

c. Para todo a ∈ K*, b, c ∈ K; si ab = ac, entonces b = c

d. Para cada a ∈ K*, el inverso multiplicativo es único e. Para cada a ∈ K*, (a-1) -1 = a f. El elemento identidad es único g. El opuesto es único

Prueba Probaremos (a) y (e) y dejaremos lo demás como ejercicio para el lector. a) a. 0 = a (0 + 0) = a. 0 + a . 0 Luego por la condición K6 de la definición se cuerpo se deduce que a. 0 = 0

b) (a-1)-1 (a -1) = 1 por unicidad del inverso multip licativo se tiene que (a-1)-1 = a Definición 1.1.4.- Sea K un cuerpo, K = ¡ o £ Un

K – espacio vectorial es un conjunto que denotaremos por

junto con dos

operaciones + : V x V → V y . : K x V → V denominados adición y multiplicación por escalar los cuales satisfacen las siguientes condiciones:

V1 : u + v , a u ∈ V, para todo u, v ∈ V, a ∈K V2 : u + v = v + u , para todo u, v ∈ V V3 : (u + v) + w = u + (v + w), para todo, u, v, w ∈ V V4: ∃ θ ∈ V tal que u + θ = u para todo u ∈ V V5 : para cada u ∈ V, ∃ - u ∈ V tal que u + (-u) = θ V6 : (a + b) u = au + bu, a (u + v) = a u + av para todo u, v ∈ V, a, b ∈ K. V7 : a (bu) = (ab) u = b (au), para todo u ∈ V, a, b ∈ K V8 : 1.v = v, para todo v ∈ V

Observación 1.1.5 Los elementos de V son llamados vectores, el elemento θ es llamado vector nulo, el elemento –u es llamado vector opuesto de u, la multiplicación por escalar a.u es denotado simplemente por au.

10

Proposición 1.1.6.- En un K –espacio vectorial V, se verifican las siguientes propiedades. a) ov = θ, para todo v ∈ V

b) aθ = θ , para todo a ∈ K c) av = 0, si y sólo si a = 0 o v = θ

d) ( -a) v = -(av) = a (-v) e) Si v1, v2, …….., vn ∈ V y a 1 , a2 , ….., a n ∈ K, entonces a1 v1 + a2 v2 + …..… + a nvn ∈ V

Prueba Para probar (a), (b), (c) y (d) basta recordar la definición de K – espacio vectorial. a)

Si v 1, v2 , …., v n ∈ V, por condición K1 de la definición de K –espacio vectorial se tiene que a1v1, a 2v2 , ….., anvn ∈ V. Luego por inducción por la misma condición K1 , se concluye que a 1v1 + a 2v2 + …………+a nv n ∈ V.

Ejemplo 1.1.7 Teniendo en cuenta que las operaciones definidas en £ son las mismas que las

definidas en Q y ¡ , entonces £ es un Q –espacio vectorial y un ¡ - espacio vectorial, y ¡ es un ¡ - espacio vectorial.

Ejemplo 1.1.8 Todo cuerpo K es un K – espacio vectorial.

Ejemplo 1.1.9 Sea K un cuerpo, entonces el conjunto definido por : K n = {(x 1 , x 2 ,...., x n ) : x i ∈ K, i = 1, 2,...., n } es un K –espacio vectorial con las

operaciones definidas por (x 1, x2, …, xn) + (y1 , y2 , …., yn) = (x1+ y1 , x2+ y2,….., xn + yn)

y a (x1 , x2 , ….., xn) = (ax1 , ax2, ….., a xn), donde el vector nulo de Kn es la n –upla (0, 0, …., 0), y el inverso aditivo de (x1 , x2 , …., xn) es (-x1, - x2 , …., -xn).

11

Los vectores e 1 = (1, 0, ….., 0), e2 = (0, 1, 0, …., 0), ….., e n = (0, 0, ….., 0, 1) son llamados vectores canónicos del K –espacio vectorial K n, donde e i es el vector canónico que tiene al 1 en la i-ésima coordenada y cero en las demás coordenadas.

Ejemplo 1.10 El conjunto de los polinomios de grado menor o igual a “n” con coeficiente en el cuerpo K, denotado por Pn (K) , es un K –espacio vectorial con las operaciones usuales de suma de polinomios y mu ltiplicación de un polinomio por un

calar donde el vector nulo de

P n (K) es el polinomio nulo θ = 0 + 0x + 0x2 + ……………+ oxn y el inverso aditivo del polinomio f(x) = a0 + a 1x +…. + a a nxn es el polinomio –f(x) = -a 0 – a1 x – a 2x 2 - ……..a nxn.

Ejemplo 1.1.11 El conjunto de las funciones de ¡ en ¡ denotado por F ( ¡ ) es un ¡ - espacio vectorial son las operaciones usuales de suma de funciones y la multiplicación de un escalar por una función donde el vector nulo es la fun ión nula θ que hace cero a todo x

∈ ¡ y dado f(x) ∈ F ( ¡ ) el vector opuesto de f(x) es - f(x) ∈ F ( ¡ ).

1.2 Subespacios y conjunto generador

Definición 1.2.1 . Sea V un K – espacio vectorial, un subconjunto W de V es llamado subespacio vectorial de V o simplemente subespacio de V si W con las operaciones de V es por si mismo es un K –espacio vectorial.

Teorema 1.2.2. (caracterización de los subespacios) Sea V en K – espacio vectorial y W un subconjunto de V. Las siguientes afirmaciones son equivalentes. a) W es un subespacio de V

b) θ ∈ W; además para todo µ , v ∈ W y a ∈ K, se tiene que µ + v ∈ W y a µ ∈ W

Prueba a) ==> b) se sigue de la definición de subespacio.

12

b) ==> a) de las hipótesis se sigue que W es cerrado con las operaciones de adición y multiplicación por escalar, θ ∈ W luego –w ∈ W para todo w ∈ W. Las otras condiciones se satisfacen puesto que son validas en V.

Observaciones 1.2.3 De teorema 1.2.2. se observa que el vector nulo de W es el mismo vector nulo de V.

Ejemplo 1.2.4 Si V es un K –espacio vectorial, entonces {θ} y V son subespacios de V, llamados subespacios triviales de V, también {θ} es llamado espacio nulo.

Ejemplo 1.2.5 Sea V un K – espacio vectorial. Si U y W son subespacios de V, entonces U ∩ W es también un subespacio de V.

En efecto. i) θ ∈ U ∩ W puesto que θ ∈ U y θ∈ W ii) Sean u, v ∈ U ∩ W, entonces U, v ∈ u y u, v ∈ W, finalmente u + v ∈ U ∩ W iii) Sea u ∈ U ∩ W y a ∈ K, entonces µ ∈ U y u ∈ W luego a u ∈ U y a u ∈ W, finalmente a u ∈ U ∩ W. Por tanto U ∩ W es subespacio de V.

Ejemplo 1.2.6.Sea V un K –espacio vectorial. Si U y W son subespacios de V, e

nces U + W =

{u + w : u ∈ U ∧ w ∈W} es también un subespacio de V.

En efecto: i) θ∈ U + W puesto que θ = θ + θ ii) Sean u, w ∈ U + W, entonces u = u 1 + w1 y w = u2 + w2 luego u + w = (u1 + u2) + (w1 + w2), u1 + u2 ∈ U, w1 + w2 ∈ W finalmente µ + w ∈ U + W. iii) Sea u ∈ U + W y a ∈ K, entonces u = u1 + w1 , u1 ∈ U, w1 ∈ W

13

Luego αu = αu 1 + αw 1 , αu 1 ∈ U, αw,∈ W finalmente αu ∈ U + W

Por tanto: U + W es un subespacio de V llamado “ espacio suma de U y W”.

Ejemplo 1.2.7 Los únicos subespacios del ¡ - espacio vectorial ¡ 2 son: W = {θ}, W= {(x, y )∈ ¡ : y = mx, m ≠ 0}, W = ¡ 2

Ejemplo 1.2.8 Los únicos subespacios del ¡ -espacio vectorial ¡ 3 son: el espacio nulo, rectas que pasan por el origen, planos que pasan por el origen y todo ¡ 3 .

Proposición 1.2.9

{W }∈

Sea V un K – espacio vectorial. Si entonces

IW

i

i∈I

i

i I

es una colección de subespacios de V,

es un subespacio de V.

Prueba Sean u, v ∈ I Wi , para cada i se tiene u, v ∈ Wi, como Wi son subespacio, u + v ∈ W y i∈I

a u ∈ W, ∀ a ∈ K . Por tanto u + v ∈ I Wi y au ∈ I Wi . i∈I

i∈I

Proposición 1.2.10. Sea V un K –espacio vectorial. Si n

entonces

∑ W = {u i

i =1

1

{W }∈¥ i

i

es una colección de subespacios de V

+ u 2 + ..... + u n : u i ∈ Wi , i = 1, 2,...., n } es un subespacio de V.

Prueba Sea u, v ∈

n

∑ W , α ∈ K, luego u = u1 + u2 + …..un , v = v1 + v2 + ….. + vn donde u i, v i i

i =1

∈ Wi , como Wi es subespacio ui + v i, a ui ∈W i, i = 1, 2, …., n.

14

n

n

i =1

i =1

Por tanto u + v ∈ ∑ Wi y α u ∈ ∑ Wi

15

Ejemplo 1.2.11 Sea V en K – espacio vectorial y {v1 , v2, ….., vn} un conjunto de vectores en V. Consideremos el subconjunto de V. S = {a 1v1 + a 2 v 2 + ..... + a n v n : a i ∈ k, i = 1, 2,....., n}

Luego S es un subespacio de V Definición 1.2.12. Sea V un K –espacio vectorial y S ⊂ V. Diremos que v ∈ V es una combinación lineal de los elementos de S si existen v1 , v2 , …., vn ∈ S y a 1, a 2, …., a n ∈ K tal que

V = a1v1 + a 2 v2 + ……….+ a nv n Ejemplo 1.2.13. Si K es un cuerpo cada vector x de Kn es combinación lineal de los vectores canónicos e1 , e2 , …., e n , es decir x = x1 e 1 + x2e2 + ……..+ x ne n Definición 1.2.14. Sea V un k –espacio vectorial, S ⊂ V y sea {Wi }i∈I una familia de subespacios de V que contienen a S, entonces

IW

i

es llamado subespacio generado

i∈I

por S y denotado por L{S} o < S > . El subespacio < S > es el menor subespacio de V que contiene a S. Los vectores de S son llamados gener

res y se dice que S genera al

subespacio < S >.

Proposición 1.2.15. En un K – espacio vectorial V se cumple. a) Si S1 ⊆ S 2 son subconjuntos de V, entonces S1 ⊆ S 2

b) Dado S ⊆ V, entonces S = S , si y sólo si S es un subespacio de V. Prueba a) Sea x ∈ S1 , entonces x = ∑ α i x i , x i ∈ S1 , αi ∈ K, i ∈ I como α1 x i ∈ S 2 pues S1 i∈I

⊆ S 2 , i ∈ I, entonces x = ∑ αi x i , x i ∈ S2 , α i ∈ K .Por tanto x ∈ S 2 i∈I

b) Resulta de la definición de espacio generado y subespacio.

16

Ejemplo 1.2.16 El K - espacio vectorial K n es generado por {e1, e2, …..,e n} vectores canónicos.

Ejemplo 1.2.17 El K-espacio vectorial P n (K) es generado por {1, x, x2 , …..,xn} y K (x) es generado por el conjunto {1, x, x2 , ……, xn, …..}

1.3 Dependencia e independencia lineal Definición 1.3.1.- Sea V un K – espacio vectorial un conjunto de vectores S = {v1 , v2 , ….., vn} es V es llamado linealmente dependiente si existen escalares a1 , a2 , ….., a n no todos ceros, tal que a 1v 1 + a2 v2 + ………+ a nvn = θ . Un conjunto que no es linealmente dependiente es llamado linealmente {v1 ,v2,….,v n} es linealmente independiente en

independiente es decir S = V si la única solución para

a1v1+a 2v2+…….+a nvn= θ es la solución trivial a 1 = 0, a 2 = 0, ……, an = 0. Y si también hay soluciones no triviales, entonces S es linealmente dependiente.

Teorema 1.3.2 Sea V un K –espacio vectorial, un conjunto S = {v 1, ……, vn}, n = 2 de vectores en V, es linealmente dependiente si y solo si por lo menos uno de los vectores vk puede expresarse como combinación lineal de los otros vectores. Prueba Supongamos que S = {v1 , v2, ….., vn} es linealmente dependiente luego existen escalares a1 , a2 , ….., a n no todos cero tales que:

a1v1 + a 2v2 + ………….+ a nvn = θ Debido a que alguno de los coeficientes debe ser difer nte de cero, sin pérdida de generalidad podemos suponer que c 1 ? 0, y al despejar v1 obtenemos: v1 =

−c 2 c c v 2 − 3 v 3 − .............. − n v n c1 c1 c1

Recíprocamente, supongamos que v 1 es combinación lineal de los otros vectores en S, es decir. v1 = c2v2 + c 3v3 + ……………..+c nvn Luego la ecuación: 17

-v1 + c 2v2 + c 3v3 + …….+ c nvn = θ tiene por lo menos un coeficiente no nulo el “-1” de v1 por tanto S es linealmente dependiente.

Corolario 1.3.3.

Dos vectores u, v de un K –espacio vectorial V son linealmente dependiente si y sólo si y uno de ellos es un múltiplo escalar del otro. Observación 1.3.4. a. El conjunto formado solo por el vector nulo es linealm nte dependiente.

b. El conjunto formado por un solo vector no nulo es line lmente independiente. c. Cualquier conjunto que contiene a un conjunto linealmente dependiente es también linealmente dependiente.

d. Cualquier subconjunto de un conjunto linealmente indep

e es también

linealmente independiente.

Ejemplo 1.3.5

{

}

El conjunto de vectores e x ,e − x ,senx es linealmente dependiente. En efecto Senx =

ex − e− x 2

Ejemplo 1.3.6 El conjunto de vectores {(1, 1, 1), (1, 1, 0), (1, 0, )} es linealmente independiente en

K3. En efecto La única solución para α (1,1,1) + ß(1,1, 0) + γ(1, 0, 0) = (0, 0, 0) es a = ß = ? = 0.

1.4 Base y Dimensión Definición 1.4.1

Un conjunto de vectores ß = {v1, v2, …,vn} es un K – espacio

vectorial V es llamado base de V si satisface: a) S es linealmente independiente.

18

b) Se genera V

Si un K –espacio vectorial tiene una base que consta de un núme o finito de vectores, diremos que V es de dimensión finita en caso contrario, diremos que

V es de

dimensión infinita. El espacio vectorial Kn es de dimensión finita, mientras que el espacio K[x] es de

dimensión infinita.

Ejemplo 1.4.2 El conjunto de vectores ß = {e 1 , e2 , …., e n} en Kn es una base para Kn, llamado base canónica.

Ejemplo 1.4.3 El conjunto de vectores ß = {1, x, x²} es la base canónica para P 2 (K)

Ejemplo 1.4.4. El conjunto de vector ß = {1, x, x², …., xn, ….}, es una base infinita para K [x].

Teorema 1.4.5 (Unicidad de la representación de la base) Si ß = {v1, v2, ….., v n} es una base de un K-espacio vectorial. V, entonces todo vector en V puede escribirse de una y solo una forma como combinación lineal de los vectores

en S.

Prueba Como ß genera V entonces todo u ∈ V se expresa por u = a 1v1 + a 2v2+ ……..+a nvn. Supongamos que u tiene otra representación, esto es u

b1v1 + b2v2 + …….+bnv n al

restar la segunda representación de la primera obtenemos (a1 – b1)v1+(a 2-b2)v2 +…..+ (a n-bn) vn = θ Ahora como ß = {v1, v2 , ….., vn} es linealmente independiente la única solución de la última ecuación es la trivial, es decir

a1-b1 = 0 , a 2 – b2 = 0 , ………………………, a n- b n = 0

19

de donde a 1 = b1 , a2 = b2 , ………, a n = bn

Luego ai = b i, para toda i = 1, 2, ……, n Por tanto u tiene única representación como combinación lineal de la base ß.

Teorema 1.4.6 Si ß = {v1 , v2, ….., vn} es una base de un K –espacio vectorial V, entonces todo conjunto que contiene más de n vectores en V es linea mente dependiente.

Prueba Sea S = {u1 , u2, …..,um} cualquier conjunto de m vectores en V, donde m > n, debemos probar que S es linealmente dependiente, es decir debemos hallar escalares a 1 ,

a 2, …., a m no todos ceros tal que a 1u1 + a 2u 2 + .......... + a mu m = q ……………….(*) Como ß = {v1, v 2, ….., vn} es una base de V, cada u i, i = 1, 2, ……, m es combinación lineal de los vectores en ß, luego. u1 = a11v1 + a 21 v2 + ……………….+ an1vn u2 = a12v1 + a 22 v2 + ……………….+ an2vn

: : um = a1mv1 + a2mv2 + ……………….+ anmvn

Al sustituir cada u1 en la ecuación (*) y agrupando se tiene : b1v 1 + b2v2 + …………….+ b nvn = θ

donde bi = ai1 a 1 + a i2 a 2 +…………….+ a im a m Como los v i forman un conjunto linealmente independiente se obtiene que bi = 0, luego resulta el siguiente sistema de ecuaciones

a11a 1 + a12a 2 + ……………….+ a 1m a m = 0 a21a 1 + a22a 2 + ……………….+ a 2m a m = 0 : : a n1a 1 + a n2a 2 + ……………….+ a nm a m = 0

20

Pero este ultimo sistema de ecuaciones tiene menos ecu ciones que incógnitas a 1, a 2 , …., a m, luego debe tener soluciones no triviales. Por tanto

S es linealmente

dependiente.

Teorema 1.4.7.- Si un K – espacio vectorial V tiene una base con n vectores, e

nces

toda base de V tiene n vectores.

Prueba Sea ß = {v1 , v2 , ….., vn} la base dada de V, consideremos S = {u1, u2, …., um} cualquier otra base de V. Como ß es una base y S es linealmente

ependiente entonces m = n,

análogamente n = m pues ß es linealmente independiente y S es una base. Por tanto n = m.

Definición 1.4.8.- Si un K – espacio vectorial V tiene una base que consta de n vectores, entonces el número n se denomina dimensión de V y se denota por dim V = n. Si V es el espacio nulo, entonces la dimensión de V se define como cero. Si V tiene base infinita escribiremos dim V = 8 .

Observación 1.4.9 Si V es un K –espacio vectorial de dimensión n y W es un subespacio de V entonces la dimensión de W es finita y menor o igual que “n”.

Teorema 1.4.10.- Sea V un K – espacio vectorial de dimensión n, entonces se satisfa e: a) Si ß = {v 1, v2, ….., vn} es un conjunto de vectores linealmente independiente en V, entonces ß es una base de V.

b) Si ß = {v1, v2, ….., v n} genera a V, entonces ß es una base de V.

Prueba Es consecuencia de la definición de base, dimensión y teorema 1.4.7.

21

Teorema 1.4.11 (Existencia de una base) Sea V un K – espacio vectorial de dimensión finita S un conjunto generador de V, entonces existe una base ß de V tal que ß ⊂ S.

Prueba Sin perdida de generalidad consideremos el conjunto generador de V, S = {v 1, v2 , ….., vn} tomemos u1 ∈ S, u1 ? θ; si V = L {u1} termina la prueba pero si L {u1} ⊆/ V, tomamos u2 ∈ S \ {u1}. Nuevamente verificamos si L {u1 , u2} = V, si esto es cierto aquí termina la prueba. Si L {u 1, u2} ⊆/ V. Tomamos u3 ∈ S \ {u1, u2}, y así repitiendo este proceso se obtiene el conjunto ß = {u1, u2 , ….,um}, con m = n que por construcción es linealmente independiente, este proceso termina cuando hemos agregado el último vector um tal que V = L {u1 , u2 , ….., um}.

Teorema 1.4.12 (Completación de una base) Sea V un K –espacio vectorial de dimensión n. Si {v1 , v2, ….., vm}, m < n

es

linealmente independiente en V, entonces existen vect es Vm+1 , Vm+ 2, …., Vn tales que ß = {v1, v2,….,vm1 , vm+ 1, …..,vn} es una base de V.

Prueba Tomemos vm+1 ∈ V \ L{v1, v2, ….,vm}, si {v1, v2, ….,vm, vm+ 1} genera V, la prueba

termina, caso contrario, existe vm+2 ∈ V \ L{v1 , v2 , …., vm, vm+ 1}. Si {v1 , v2, ….,v m+1 , vm+ 2} genera V, la prueba termina, caso contrario repetimos el proceso anterior, hasta obtener una base de V.

Proposición 1.4.13.- Sea V un K – espacio vectorial de dimensión finita y W un subespacio de V tal que dim W = din V, entonces W = V.

Prueba

22

Sea ß una base de W, como ß es un conjunto linealmente independiente en V y dim W = dim V, entonces ß genera V, luego por teorema 1.4.10, ß es una base de V, por t

to

W = V. Proposición 1.4.14 (Dimensión del espacio suma) SeaV en K – espacio vectorial de dimensión finita, U y W subespacio de V, entonces dim (U + W) = dim U + dim W – dim (U ∩W)

Prueba Sea {v1 , v2, …..,vr} una base para U ∩W. Por teorema de completación de bases,

existen u1 , u2 , …..,up vectores en U y w1, w2, …..,wq vectores en W tales que {v1, v2, …., vr,. u1, u2, …., up} es una base de U {v1 , v2 , …., v r,.w1 , w2 , …., wq} es una base de W de donde se concluye que {v1 , v2, …., vr,. u1, u 2, …., u p, w1 , w2, …,wq} es una base para U + W, luego dim (U + W) = p + q + r = (p + r) + (q + r) – r Por tanto: dim (U + W) = dim U + dim W –dim (U ∩ W).

1.5 Suma Directa Definición 1.5.1.- Cuando para dos subespacios U, W de un K –espacio vectorial se

satisface que U ∩ W = {θ} entonces el espacio suma U + W es llamada suma directa y se denota por U ⊕ W.

Proposición 1.5.2.- Sean U, W subespacios de un K –espacio vectorial V, entonces la suma U + W es directa si y sólo si todo elemento v ∈ U + W se escribe de modo único en la forma: v = u + w, donde u∈ U, w ∈ W

Prueba Supongamos que la suma U + W es directa, entonces U ∩ W = {q }, sea v = u1 + w1 , u1

∈ U, w1 ∈ W otra representación de V, luego u + w = u1 + w1. de donde u –u1 = w1 –w ∈ U ∩ W entonces u –u1 = w1 –w = θ. Por tanto u = u1 y w = w1. Recíprocamente, supongamos que todo v ∈ U +W se escribe de manera única en la forma v = u + w, u ∈ U, w ∈W, ahora si u ∈ U ∩ W, entonces θ 23

= u + ( -u) ∈ U + W y θ = θ + θ luego por unicidad de la escritura del vector nulo u = θ. Por consiguiente U ∩ W = { θ}, asi la suma es directa.

Definición 1.5.3.- Dada la familia de subespacios {U i }i =1 de un K –espacio vectorial V, n

n

la suma

∑U i =1

i

es directa si U i ∩ {Ui + ........ + Ui −1 + Ui +1 + ........ + U n }= {q }, i = 1,...., n

Y denotaremos la suma por : n

∑U i =1

n

i

= ⊕U i i =1

Observación 1.5.4.- Si la suma U + W es directa entonces dim (U ⊕ W) = dim U + dim W, puesto que U ∩ W = {q }.

1.6 Espacio Cociente Para definir espacio cociente, consideramos un K –espacio vectorial V y un subespacio propio W. Se define sobre V una relación de la siguiente manera. Diremos que u, v ∈ V son congruentes módulo W si y solo si u – v ∈ W y escribimos u ≡ v mod W.

Observación 1.6.1.- La relación “ ≡” definida anteriormente es de equivalencia sobre V, es decir verifica las siguientes condiciones:

1. u ≡ u mod W, ∀u ∈ V (reflexiva) 2. u ≡ v mod W entonces v ≡ u mod W (simétrica) 3. (u ≡ v mod W ∧ v ≡ w mod W) entonces u ≡ w mod W (transitiva) La relación de equivalencia “ ≡” induce sobre V una partición donde denotaremos cada

clase de equivalencia del elemento v por [v] = {u ∈ V / u ≡ v mod W}. Al elemento v ∈ V se le llama representante de la clase de equivalenc a. Proposición 1.6.2. Se verifica u ≡ v mod W ⇔ [u ] = [v ] Prueba.- Demostraremos que [u] ⊂ [v], sea w ∈ [u] entonces w ≡ u mod W entonces w – u ∈ W

(1)

24

De otro lado u ≡ v mod W entonces u –v ∈ W

(2)

De (1) y (2) (w –u) + (u – v) = w –v ∈ W entonces w ≡ v mod W por definición de “ ≡” entonces w ∈ [v] luego [u] ⊂ [v] y análogamente se demuestra que [v] ⊂ [u]. Por tanto [u] = [v] el recíproco queda como ejercicio. Con la finalidad de contar con una notación apropiada

a operar clases de

equivalencia definimos el conjunto v + W = {v + w / w ∈ W}

Proposición 1.6.3 Sea V un K –espacio vectorial y W un subespacio propio de V. Se verifica que : [v] = v + W Prueba i)

Probaremos que [v] ⊂ v + W. Sea u∈ [v] entonces u ≡ v mod W entonces u – v ∈

W entonces u – v = w para algún w ∈ W, entonces u = v + w, w ∈ W entonces u ∈ v + W. ∴ [v] ⊂ v + W ii) Probaremos que v + W ⊂ [v] Sea u ∈ v + W entonces u = v + w para algún w ∈ W, entonces u – v = w, w ∈ W entonces u – v mod W entonces u ∈ [v]

∴ v + W ⊂ [v] Finalmente de i) y ii) se demuestra la afirmación de la proposición.

Nota.- El conjunto formado por todas las clases de equivalen ia se denota por

V = {v + W / v ∈ V } W

Definición 1.6.4

25

Para dotarle al conjunto

V de una estructura de espacio vectorial sobre K es necesario W

definir las operaciones de adición y multiplicación po escalar. Dados v + W, u + W y

a ∈ K; definimos Adición :

(v + W) + (u + W) = (v + u) + W

Multiplicación por escalar: a(v + W) = av + W Ahora es necesario probar la buena definición de las operaciones; es decir, como se están trabajando con clases de equivalencia se requier demostrar que las operaciones no dependen de los representantes de las clases de equivalencia. Prueba de la buena definición de las operaciones. Para la adición.

Sea

v1 + W = v2 + W entonces v1 ≡ v2 mod V entonces v1 – v2 ∈ W

(1)

u1 + W = u2 + W entonces u1 ≡ u2 mod V entonces u1 – u2 ∈ W

(2)

De (1) y (2) (v1 – v2) + (u1 – u2) ∈ W entonces (v1 + u1) –(v2 + u2) ∈ W, entonces (v1 + u1 ) ≡ (v2 + u2) mod W, entonces (v1 + u1 ) + W = (v 2 + u2) + W entonces (v1 + W) + (u1 + W) = (v2 +W) + (u2 + W)

Para la multiplicación por escalares

Sea a ∈ K , v + W = u + W entonces v ≡ u mod W, luego v – u ∈ W, entonces a (v – u) ∈ W, de aquí av – au ∈ W, entonces av + W = au + W, por tanto a (v + W) = a (u + W). Definimos el cero de V/W por θ + W = W y se cumple. (v + W) + (θ + W) = (θ + W) + (v + W) = v + W

El conjunto V/W con las operaciones anteriormente defi idas es un espacio vectorial

llamado espacio vectorial cociente.

26

Ejemplo 1.6.5.- Consideremos el R – espacio vectorial V = R² y el subespacio W = L {(1, 1)}, entonces el espacio cociente de R² por W es :

{

R2 = ( a, b) + W / ( a, b) ∈ R 2 W

}

donde cada clase de equivalencia es el conjunto (a, b) + W = {(a, b) + t (1, 1) / t ∈ R} El cual para (a, b) un punto fijo del plano representa una recta de pendiente 1 o dirección el vector (1, 1) paralela a la recta W = L {(1, 1)}. Es decir, formado por todas las rectas del plano paralelas a la

R2 W

es el conjunto

cta W.

Ejemplo 1.6.6.- Sea el R – espacio vectorial V = R3 y W = {(0, 1, 0), (0, 0, 1)} = {(x, y, z) ∈ R3 / x = 0} (W es plano YZ o x = 0), entonces el espacio cociente de R3 sobre W es

{

R3 = ( a , b , c ) + W / ( a , b, c ) ∈ R 3 W

}

donde cada clase de equivalencia es el conjunto. (a, b, c) + W = {(a, b, c) + t (0, 1, 0) + r (0, 0, 1) / t, r ∈ R}

Interpretando geométricamente

R3 es el conjunto formado por todos los planos de R3 W

paralelos a W es decir todos los planos paralelos al plano x = 0.

1.7 Ejercicios

1. Pruebe que los conjuntos Fp y FI de las funciones pases e impares definidas de ¡ en ¡ son ¡ - espacios vectoriales.

2. Pruebe que F (¡ ) = Fp ⊕ FI 3. Pruebe que el conjunto de las matrices de orden m x n con coeficientes en K es con K – espacio vectorial. 4. Si S representa al conjunto de las matrices simétricas de

en n y A representa al

conjunto de las matrices antisimétricas de orden n. Pruebe que ¡ n xn = S ⊕ A

27

5. Sean u, v ∈ ¡ 2 vectores no nulos y no paralelos. Pruebe que ¡ 2 = L {u, v} 6. Si W ⊂ ¡ n es un conjunto no vacio. Pruebe que el conjunto denot o y definido por

{

}

W ⊥ = v ∈ ¡ n : v.w = 0, ∀w ∈ W , es un ¡ − espacio vectorial.

7. Sea {v1, v2, …., vn} un conjunto linealmente independiente en un K –espacio vectorial V, si a 1, a2, ….., a n son escalares no nulos pruebe que {a1v1, a2v2 , …., a nv n} es también un conjunto linealmente independiente.

8. Si U, W son dos K – espacios vectoriales. Pruebe que a) U x W = { (u, w) : u ∈ U, w ∈ W} es un K – espacio vectorial.

b) Si dim U, dim W < 8 , entonces dim U x W = dim U + dim W

9. Sea W un subespacio de un K – espacio vectorial V tal que dim W < dim V. Pruebe que existe una base {v1, v2, …., vn} de V tal que vj ∉ W para cada j = 1, 2, …., n

10. Sea V = ¡ ( x ), W = {p(x) (1 + x + x²)/ p(x) ∈ ¡ (x)]. Halle el conjunto cociente

V W

11. Sea U, W subespacio de un K – espacio vectorial V. Pruebe que U +W U W = ⊕ U ∩ W U ∩W U ∩W

12. Si V es un K –espacio vectorial de dimensión finita y W un subespacio de V. Pruebe que dim

V W

= dim V − dim W

13. Sea U y W subespacios de un K –espacio vectorial V pruebe que U ∪ W es un subespacio de V si y solo si U ⊂ W o W ⊂ U.

14. Sea U y W subespacios de un K –espacio vectorial V de dimensión finita. Pruebe que dim

U +W = dim U –dim (U ∩ W). W

15. Si U y W son subespacio de un K –espacio vectorial V, tales que U ⊂ W. Si dim

V W V = r y dim = t halle dim . W U U

16. Sea V un K –espacio vectorial de dimensión finita. Si W es subespacio no trivial de V, pruebe que existe y es único un subespacio U de V

28

V = W ⊕ U.

CAPÍTULO 2 TRANSFORMACIONES LINEALES En este capítulo estudiaremos aplicaciones entre espac os vectoriales, llamadas transformaciones lineales, describiremos las operaciones algebraicas que se pueden realizar con las transformaciones lineales, conoceremos algunas transformaciones especiales, que son importantes en el estudio del álge ra lineal y sus aplicaciones.

2.1. Definiciones y propiedades Definición 2.1.1. Sean V y W K – espacios vectoriales. La aplicación T : V  → W es llamada transformación lineal de V en W si verifica T ( αu + ßw) = αT(u) + ßT(w) para todo v, w, ∈ V, α, ß ∈ K. El conjunto de todas las transformaciones lineales de

en W que denotaremos por L

(V, W), es un K – espacio vectorial. Si dim V = n , dim W = m entonces dim L (V, W) = n m. Si V = W la transformación lineal T : V  → V es llamado endomorfino, y el conjunto de todo los endomorfinos definidos en V es un espacio vectorial denotado por

L (V) o End (V). Si W = K la transformación lineal T : V  → K es llamado funcional lineal, y el conjunto de todos los funcionales lineales es un espacio vectorial denotado por V*, y es

llamado espacio dual de “ V”. Ejemplo 2.1.2.- La multiplicación por un escalar T: V  → V, definida por Tv = αv para α escalar fijo es una transformación lineal llamada Hom ecia de razón α. En particular si α = 1 la transformación es llamada transformación ident I o Id.

29

y denotada por

Ejemplo 2.1.3.- La aplicación q : V  →W tal que θ (v) = θ , para todo v ∈ V es una transformación lineal, llamada transformación nula.

Ejemplo 2.1.4.- Si W es un subespacio de V, la inclusión i : U  → V definida por i(u) = u, para toda u ∈ U es una transformación lineal. Ejemplo 2.1.5.- Si W es un subespacio de V, la aplicación p : V  →

V W

definida por

π(v) = [v] es una transformación lineal suryectiva llamada proyección canónica de paso al cociente.

Ejemplo 2.1.6.-

La rotación y la reflexión de un vector en el plano son

transformaciones lineales (endomorfismo) en ¡ 2 .

Proposición 2.1.3.- Toda transformación lineal T: V  → W satisface las siguientes propiedades: a) T( θ) = θ

b) T( -v) = - T(v), para todo v ∈ V c) T (u – v) =) T(u) - T(v), para todo u, v ∈ V

 n  n d) T  ∑a i vi  = ∑a iT (vi ) , para todo αi ∈ K, v i ∈ V, i = 1, 2, …., n  i =1  i =1 Prueba a) T( θ) + θ = T(θ) = T(θ + θ) = T(θ) + T(θ) ∴ T(θ) = θ

b) T( -v) = T [(-1) v)] = (-1) T(v) = - Tv c) T(u – v) = T (u + (-v)) = T(u) + T(-v) = T(u) – T(v)

d) Dado que la combinación lineal de vectores pertenecen aplicando la definición n – 1 veces se concluye que :  n  n T  ∑ a i vi  = ∑ a i T ( vi )  i =1  i =1

2.2. Núcleo e Imagen

30

espacio vectorial

Definición 2.2.1.- Dada una transformación lineal T : V  → W, el Núcleo de T es por definición el conjunto denotado por Nu (T) = {v ∈ V: T (v) = θ} y la imagen de T es el conjunto denotado y definido por Im (T) = {T(V) : v ∈ V} Observación 2.2.2 a) Nu (T) es un subespacio de V

b) Im (T) es un subespacio de W Definición 2.2.3.- Sea T ∈ L (V, W), diremos que a) T es monomorfismo, si y solo si T es inyectiva.

b) T es epimorfismo, si y sólo si T es suyectiva. c) T es isomorfismo, si y sólo si T es biyectiva.

Si W = V el isomorfismo T es llamado automorfismo y el conjunto de todos los automorfismo en V es denotado por AuT (V). Si existe T : V  → W isomorfismo entonces diremos que V y W son isomorfos y denotaremos por V ≅ W. Proposición 2.2.4.- Sean T ∈ L (V, W) entonces T es monomorfismo si y solo si Nu (T) = {θ}

Prueba Supongamos que T es monomorfismo y sea v ∈ Nu(T) entonces T(v) = q = T (q ) , luego v = θ, así Nu(T) = {θ}. Recíprocamente, supongamos que Nu(T) = {θ} y T(u) = T(v), entonces T(u – v) = θ , luego u - v ∈ Nu(T) = {θ}, entonces u –v = θ asi u = v. Por tanto

T es monomorfismo. Proposición 2.2.5.- Sea {v1 , v2 , ……, v n} una base de V y w1, w2, …., wn ∈ W vectores arbitrarios. Entonces existe una única transformación neal T : V  → W tal que T(vi)

= wi, para cada i = 1, 2, …., n

Prueba

31

Como {v1, v2, …..,vn} es una base de V, todo v ∈ V se escribe de modo único en la n

forma v = ∑ a i vi donde a i ∈ K, i = 1, 2, ….., n i =1

luego podemos definir la transformación lineal T : V  → W por T(v) =

n

∑a

i

wi la

i =1

cual esta bien definida y satisface T(vi) = wi i = 1, 2, ….., n.

Ejemplo 2.2.6.- El núcleo y la Imagen de la aplicación canónica del paso al cociente p : V  →

V son Nu(π) = W , W

Im (π ) =

V W

Ejemplo 2.2.7.- La transformación lineal T : ¡ 3  → P2 ( ¡ ) definida por T (a, b, c) = a + bx + cx² es un isomorfismo puesto que T es biyectiva.

Proposición 2.2.8.- Sea T ∈ L (V, W), entonces T es inyectiva, si y sólo si, lleva vectores linealmente independientes en vectores linealmente independientes.

Prueba Supongamos que

T es inyectiva y sean v1 , v2, …, vn vectores linealmente

independiente en V tomemos a iT (v1 ) + a 2T (v2 ) + ............ + a nT (v n ) = q Entonces como T es lineal e inyectiva se tiene :

a 1 v2 + a 2 v2 + ………+ a nvn = θ y como los vi son linealmente independientes se tiene que a 1 = a 2 = …………..= a n = 0 asi Tv1, Tv2, ……, Tvn son linealmente independientes. Recíprocamente, supongamos que a T lleva vectores linealmente independientes en v tores linealmente independientes, y que T(v) = θ. Si v ? θ , entonces {v} es linealmente independiente y T(v) = θ es linealmente dependiente , lo que contradice la hipótesis. Luego debe ser Nu(T) = {θ}. Por tanto T es inyectiva. Proposición 2.2.9.- Sean V y W dos K – espacios vectoriales si dim V = n y T ∈ L (V, W), entonces dim V = dim Nu(T) + dim Im (T).

32

Prueba Sea {v1 , v2 , ….,v r} una base para Nu(T). Por el teorema de completación e bases, existen vectores µ 1, µ 2, ……,µ k en V tales que {v1, v2, …..,vr, µ 1 , µ 2 , ….,µ r} es una base de V. De aquí se prueba que {T(µ 1}, T(µ 2), …., T(µk )} es una base de T (V) = Im (T) por tanto dim V = r + s = dim Nu(T) + dim Im(T). Proposición 2.2.6 Sea T ∈ L (V, W), dim V = dim W < 8 . Entonces T es inyectiva, si y sólo si, T es suryectiva.

Prueba Supongamos que T es inyectiva, luego Nu(T) = { θ} por la proposición anterior. dim V = dim Nu (T ) + dim Im(T ) = dim Im(T )

Asi dim Im (T) = dim V = dim W y como Im (T) ⊂ W resulta que T(V) = W, de aquí T es suryectiva. El recíproco queda como ejercicio.

2.3 Composición de Transformaciones lineales Definición 2.3.1.- Sea T ∈ L (V, W), F ∈ L (W, U). La transformación compuesta FT : V  → U se define por (F o T) (v) = F(T(v)), para todo v ∈ V.

Ejemplo 2.3.2 Para la transformaciones lineales T : ¡ 3  → ¡ 2 , F : ¡ 2  → ¡ 4 definidas por T(x, y, z) = (x + y, z – x), F (x, y) = ( -y, 0, -x, 0). (F o T) (x, y, z) = F(x + y, z – x) = (x – z, 0, -x – y,0)

Nu(F o T) = {(x, y, z) ∈ ¡ 3 : (x – z, o, -x – y, 0) = (0, 0, 0, 0)} = {(x, -x, x): x ∈ ¡ 3 } = L {(1, -1, 1)}, dim Nu (F oT) = 1

Im (F o T)

= {(x, - z, 0, -x –y, 0) : x, y, z, ∈ ¡ } = {(x, 0, -x, 0) + (0, 0, -y, 0) + (-z, 0, 0, 0)}

= L {(1, 0, -1, 0), (0, 0, -1, 0), (-1,0, 0, 0)} = L {(1, 0, 0, 0), (0, 0, 1, 0)}, dim Im(F o T) = 2 33

2.4. Transformación lineal no singular Definición 2.4.1.- Sea T ∈ L (V, W), diremos que T es no singular, regular o inversible si T es biyectiva, esto es T es no singular, si y sólo si existe la inversa de T denotada

por T-1

Observación 2.4.2 T-1 ∈ L (W, V) En efecto

Sean u, v ∈ W, como T es biyectiva existen y son únicos x, y ∈ V tal que T(x) = u, T(y) =w Luego se verifica. T-1 (a u + ßw) = T-1 [a T(x) + ß T(y)] = T-1 (T(ax + ßy)) = (T-1 o T) (a x + ßy) = I (a x + ßy) = a I(x) + ß I(y) = a x + ßy = a T-1 (u) + ßT-1 (w), para todo a , ß ∈ K.

Observación 2.4.3

T y T-1 son llamadas transformaciones inversas una de la otra

verifica que

T-1 o T = Iv, T o T-1 = IW. Observación 2.4.4.- Dada s T ∈ L (V, W), L ∈ L (W, V), si solamente se verifica. a) L o T = Iv, entonces L es inversa a izquierda de T.

b) T o L = Iw, entonces L es inversa a derecha de T c) L o T = Iv y T o L = Iw, entonces L es la inversa de T. Proposición 2.4.5.- Sea T ∈ L (V, W), entonces: i) Si T posee inversa esta es única. ii) T es inyectiva, si y solo si, T posee inversa a izquierda. iii) T es sobreyectiva, si y sólo si, T posee inversa a der cha . iv) T es isomorfismo, si y solo si, T es inversible.

Prueba

34

i)

Supongamos que L y F son inversas de T, luego L = L o I = L o (T o F) = (L o T) o F = I o F = F

ii) Supongamos que T es inyectiva y sea {v1 , v2, …..,vn} una base para V, luego los

vectores T(v1), T(v 2), ….., T(Vn) son linealmente independientes en W. Por teorema de completación de bases existen w1 , w2, …., wk en V tales que {T(v1 ), T(v2), ….., T(vn), w1, ….., wk} es una base para W, definiendo L : W  → V por L (T(v 1)) = v1 , L(T(v2 )) = v 2, ….. L(T(vn)) = vn, L(w1) = 0, ….., L(wk) = 0, dado cualquier v ∈ V se tiene que v = a 1 v1 + a 2v 2 + ….. + a nv n, entonces

(LT)(v) = L (a 1T(v1 ) + a 2T(v2) + ……. + a nT(vn)) = a 1LT(v1) + a 2LT(v 2) + ……+ a nLT(v n) = a 1v1 + a 2 v2 + …………..+ a nvn = v. Luego L es una inversa a izquierda de T.

Recíprocamente, supongamos que L : W  → V es una inversa a izquierda de T : V  → W, entonces si Tu = Tv se tiene u = L (T(u) = L (T(v)) = v, luego T es inyectiva. iii) Supongamos que T es suryectiva, sea ß = {w1, w2, ….,wn} una base para W, como T es suryectiva existen v1 , v2 ,….,vn en V tales que Tv1 = w1 , Tv2 = w2 , …..Tvn = wn.

Por proposición 2.2.5 existe una transformación lineal

W  → V tal que Lw1 =

v1 , Lw2 = v2, ….., Lwn = vn. Como ß es una base de W, dado cualquier w ∈ W se tiene que w = a 1 w+ a 2w2 + …..+ a nwn luego T (L (w)) = T (a 1 L (w1) + a 2 L (w2) + ……+ a nL(wn)) = T (a 1v1 + a 2v2 + …….+ a nv n) = a 1 T(v1) + a 2 T(v2) + …..+ a nT(vn) = a 1w1 + a 2w2 + …. + a nwn = w. Por tanto L es inversa a derecha de T. Recíprocament

supongamos que L : W

 → V es una inversa de derecha de T, luego para todo w ∈ W se tiene T(L(w)) = w, luego w = Tv, donde v = Lw por tanto T es suryectiva. iv) Supongamos que T es isomorfismo, por (ii) y (iii) existe una inversa a izquierda L y una inversa a derecha F, esto es L = L o I = L o (T o F) = (L o T) o F = I o F = F luego T-1 = F. Recíprocamente, supongamos que T es inversible y que

su inversa, entonces L

o T = I y T o L = I luego por (ii) y (iii) T es inyect a y suryectiva. Por tanto T es isomorfismo.

35

Observación 2.4.6.a) Una transformación lineal suryectiva puede admitir más de una inversa a derecha.

b) Una transformación lineal inyectiva puede admitir más

una inversa a

izquierda.

Ejemplo 2.4.7. Para la transformación lineal T : ¡ 3  → ¡ 2 definida por T(x, y, z) = (x, y), fijados a, b ∈ ¡ la transformación lineal L : ¡ 2  → ¡ 3 , definida por L (x, y) = (x, y, ax + by) es una inversa a derecha de T. Haciendo variar los escala es a y b obtenemos infinitas posibilidades para L.

Ejemplo 2.4.8 Para la transformación

lineal

T : ¡ 2  → ¡ 3 , definida por T(x, y) = (x, y, 0),

cualesquiera sean a, b ∈ ¡ , la transformación lineal L : ¡ 3  → ¡ 2 definida por L (x, y, z) = (x + az, y + bz) es una inversa a izquierda de T uesto que L (T(x, y) = L (x, y, 0) = (x, y) , para todo (x, y) ∈ ¡ 2 .

2.5 Teorema Fundamental de las transformaciones lineales En el siguiente teorema probaremos que toda transforma ón lineal T: V  → U tal que el subespacio W de V está contenido en el núcleo de T, induce una única V transformación lineal T° :  →U tal que T° W

o

p =T

Teorema 2.5.1.- (Propiedad universal del cociente) Sean V , U K-espacios vectoriales y W un subespacio de V . Si T: V  → U es una transformación lineal tal que W ⊂ Nu(T), entonces existe una única transformación V lineal T° :  → U que hace comutativo el siguiente diagrama. W T V

U

p



36 V W

Prueba V Definimos la aplicación T° :  → U tal que T° : (v + W ) = T (v ); ∀v ∈ V W Primero, hay que garantizar que T° está bien definida; es decir que la definición no depende del representante de la clase de equivalencia.

efecto,

v + W = v '+ W ⇒ v ≡ v ' mod W

⇒ v − v ' ∈W ⇒ ∃w ∈ W / v − v ' = w ⇒ v = v '+ w; w ∈W ⇒ T (v ) = T (v '+ w) ⇒ T (v ) = T (v ') + T ( w) ⇒ T (v ) = T (v ') + q ⇒ T (v ) = T (v ') ⇒ T° (v + W ) = T° (v '+ W )

por def. de " ≡ "

por ser T transformación lineal pues W ⊂ Nu(T) por def. de T°

Luego, v + W = v '+ W ⇒ T° (v + W ) = T° (v '+ W ), lo cual prueba la buena definición de T° . Ahora probemos que hace conmutativo el diagrama, esto es T° v +W ∈

V , luego T ( v ) = T° (v + W ) = T° (p (v )) = (T° o p )(v). W

o

p = T. Sea

En consecuencia, se ha

probado que T° o p = T. V Ahora probaremos que la aplicación T° es lineal. En efecto, dados v + W; v '+ W ∈ y W

a, b ∈ K se tiene:

37

T° ( a(v + W ) + b (v '+ W )) = T° (( av + W ) + (bv '+ W )) = T° (( av + bv ') + W ) por definición de T°

= T (av + bv ')

= aT ( v ) + bT ( v ') por ser T transformación lineal = aT° (v + W ) + bT° (v '+ W ) por definición de T° Luego, la aplicación T° es lineal. Falta probar la unicidad de T° . Supongamos que exista otra transformación lineal T:

V  →U que cumpla las mismas condiciones de T° es decir T W

o

p = T, luego para

v ∈ V se tiene T ( v + W ) = T (p ( v )) = (T o p )( v ) = T ( v ) = (T° o p )(v)=T° (p ( v )) = T° ( v + W )

Tomando extremos se tiene que T ( v + W ) = T° ( v + W ), ∀v ∈ V

Luego, T = T° y en consecuencia T° es única.

Observación 2.5.2

(a)

Si T° es la transformación lineal del teorema anterior, Nu ( T° ) = p (Nu(T)) e Im

( T° ) = T(V). En efecto. V V V       Nu (T° ) = v + W ∈ / T° (v + W ) = q  = v + W ∈ / T (v ) = q  = v + W ∈ / v ∈ Nu (T )  W W W       V   = p (v ) ∈ / v ∈ Nu (T )  = p ( Nu(T )) W   Por tanto: Nu (T° ) = p ( Nu (T ))

V Im(T° ) = T°  W

{

}

 °  = T (v + W ) / v ∈V = {T (v ) / v ∈ V } = Im(T ) = T (V ) 

Por tanto, Im( T° ) = T(V)

(b)

La construcción del espacio cociente nos permite afirm

que dado un espacio

vectorial V y un subespacio W ⊂ V arbitrario, existe una transformación lineal L: V  → U de V en algún espacio vectorial U de modo que Nu (L) = W. Esto es,

38

todo subespacio es el núcleo de alguna transformación neal. En efecto basta tomar L = p: V  →

V la proyección canónica. W

Teorema 2.5.3.- Existe una correspondencia biyectiva entre los subespacios de

V y W

los suespacios de V que contienen a W. Esa correspondencia está dada de la siguient

forma: S⊂

V U V a p −1 ( S ) ⊂ V ; W ⊂ U ⊂ V a = p (U ) ⊂ W W W

Prueba Las funciones definidas arriba envían subespacios en s bespacios. En efecto, sea S un subespacio de 1

V , se tiene que probar que p-1(S) es un subespacio de V. Sean u, v ∈ pW

(S) y a, b ∈ K, entonces p(u), p(v)∈ S; como S es un subespacio ap(u) + bp (v) ∈ S y

como p es la aplicación canónica se tiene que p (au + bv) ∈ S ⇒ au + bv ∈ p-1(S); luego p-1(S) es un subespacio de V. Si U es un subespacio de V, como p es lineal, entonces p (U) es un subespacio de V/W. De otro lado ambas funciones s n una inversa de la otra. En efecto, tomemos un subespacio U de V t l que W ⊂ U ⊂ V, probaremos U  que p − 1   = U . W 

Sea u ∈ U ⇒ u + W = p (u ) ∈

U U ⇒ u ∈ p −1  W W

 −1  U  . Luego U ⊂ p  W  

 . 

Ahora probemos el otro contenido, por definición de imagen inversa se tiene

U p −1  W

U    = u ∈U / p (u ) ∈ W    

Sea

U v ∈ p −1  W

U   ⇒ p (v ) = v + W ∈ W ⇒ ∃u ∈ U / v − u ∈ W ⇒ ∃u ∈ U / v − u = w 

39

Para algún w ∈ W. Luego, v = u + w con w ∈ W; como W ⊂ U entonces v ∈ U, osea

U que p −1  W

  ⊂U. 

U Por consiguiente p −1  W

  =U. 

2.6 Espacio Vectorial Dual Definición 2.6.1.- Sea V un K –espacio vectorial, el espacio vectorial L (V, K) = V* es

llamado espacio dual de V.

40

Proposición 2.6.2. - L (V, K) es isomorfo a V.

Prueba Basta definir ϕ : L (V, K)  → V por (ϕ (f) = f(1) y se verifica que ϕ es un isomorfismo. Proposición 2.6.3.- Si dim V < 8 , entonces V y V* son isomorfos y dimV = dim V*

Prueba Sea {v1, v2, …., v n} una base de V, entonces las transformaciones lineale fj: V  →K 1, i = j definidas por f j ( vi ) =  , j = 1, 2,..., n constituye una base para V* . 0, i ≠ j En efecto n

Dada f ∈ V*, definiendo a j = f (v j ), tenemos que f = ∑ a j f j j =1

De otro lado, si a1 f1 + a2f2+ ….. + anfn =0, evaluando sobre cualquier vi, i = 1, 2,…., n se n

tiene ai = ∑ a j f j (vi ) = 0 luego a1 = a 2 = …. = a n = 0. j =1

Por tanto {f1, f2, ….,f n} es una base para V* Ahora si definimos j : V  → V * por j (v j ) = f j , j= 1, 2, ....,n Se verifica que ϕ es isomorfismo, y de aquí dim V = dim V*

Definición 2.6.3.- La prueba {f1, f2 , …,f n} de V* obtenida de la prueba anterior es

llamada base dual de {v1, v2, ….,v n}

Observación 2.6.4.- Si V es un K – e.v. de dimensión infinita, entonces V y V* no son isomorfos.

Proposición 2.6.5.- Para cada v ∈ V, la función j v : V *  → K definida por j v ( f ) = f (v ) es una transformación lineal luego j v ∈ (V * )* = V ** Prueba.- Para todo f, g ∈ V*, a , ß ∈ K se tiene :

j v (a f + b g ) = (a f + ßg )(v ) = a f (v ) + ßg (v ) = a j v ( f ) + ßj v ( g )

41

Proposición 2.6.6.- Dados un K – espacio vectorial V, ϕv como en la proposición → V ** definida por j anterior, la aplicación: j : V 

( v)

= j v es una transformación

lineal inyectiva.

Prueba Para todo u, v ∈ V, a , ß ∈ K se tiene j

a u + ßv (

f ) = f (a u + ßv) = a f ( u ) + ßf ( v ) = a j ( f ) + ßj v ( f ) = (a j u + bj

v

)( f ), ∀f ∈V *

Lo que prueba que es una transformación lineal. De otr lado, si ϕ(v) = 0, entonces f(v) = ϕv (f) = θ , ∀ f ∈ V* luego v = θ, lo que prueba que ϕ es inyectiva.

Observación 2.6.7 Si dim V < 8 , entonces V y V** son isomorfos y asi todo v ∈ V se identifica con ϕv vía el isomorfismo de modo que v(f) = f(v) para cada v ∈ V = V**, f ∈ V*.

2.7

Anuladores

Definición 2.7.1.- Sea W un subconjunto de V, el anulador de W es el conjunto definido y denotado por : W º = { f ∈ V * : f (u ) = 0, ∀u ∈ W }

Observación 2.7.2 De la definición se siguen las siguientes propiedades a) Wº es un subespacio de V* para todo subconjunto W de V

b) Vº = {θ}, { θ}º = V* c) Si U ⊂ W ⊂ V, entonces Wº ⊂ Uº

Prueba de (c) Sea f ∈ Wº entonces f(w) = 0, para todo w ∈ W luego f(u) = 0, para todo u ∈ U ⊂ W. Por tanto f ∈ Uº.

42

2.8 Dual de una transformación lineal

Definición 2.8.1.- Sea T ∈ L (V, W) el dual de T denotada por T* : W*  → V* se define mediante T* (f) = f o T, para toda f ∈ W*.

Esto es T f V  → W  →K

foT Observación 2.8.2.- Dadas T, L ∈ L (V, W), F ∈ L (W, U), se cumple las siguientes propiedades: a) (a T)* = a T*, para todo a ∈ K

b) (T + L)* = T* + L* c) (F o T)* = T* o F*

d) Si T es inversible, entonces (T-1)* = (T*)-1

Prueba Queda como ejercicio para el lector.

Observación 2.8.3 Si I : V  → V es la identidad de V, entonces

I* : V *  → V* es la identidad de V* Proposición 2.8.4.- Sea T ∈ L (V, W) entonces i) [T(V)]º = Nu(T*) ii) T*(W*) ⊂ [Nu(T)]º iii) Si V y W son de dimensión finita, entonces : a) dim T(V) = dim T*(W*)

b) [Nu(T)]º = T* (W*) Prueba i)

f ∈ [T(V)]º si y solo si f (T(u)) = 0, para todo u ∈ V, si y solo si f o T = θ, por tanto f ∈ Nu (T*). 43

ii) Si f ∈ T* (V*), existe g ∈ V* tal que T* (g) = f, luego para todo v ∈ Nu(T), se tiene f(v) = g o T (v) = g(o) = 0, luego f ∈ [Nu(T)]º iii) a) dim W* = dim Nu (T*) + dim T*(W*) pues T* : W*  → V*

luego dim W* -dim T* (W*) = dim Nu (T*) = dim (T (V))* = dim W – dim T(V), y como dim W* = dim W se tiene que dim T* (W*) = dim T( V). b) Tenemos dim Nu(T) + dim [Nu(T)]º = dim V = dim Nu(T) + dim T(V), entonces dim [Nu(T)]º = dim T(V) = dim T* (W*) por (iii). Asi t nemos T* (W*) ⊂ [Nu(T)]º y dim T* (W*) = dim [Nu(T)]º. Por tanto T* (W*) = [Nu(T)]º.

2.9 Ejercicios 1. Pruebe que el Núcleo y la imagen de una transformació lineal T : V  → W son subespacios vectoriales de V y W respectivamente.

2. Sean U ⊂ V, H ⊂ W, subespacios y T : V  → W una transformación lineal. Pruebe. a) T(U) = {T(u) : u ∈ U} es un subespacio de W b) T.1 (H) = {u ∈ V: T u ∈ H} es un subespacio de V

3. Halle los números a, b, c, d ∈ ¡ tal que el endomorfismo T definido en ¡ 2 por T(x, y) = (ax + by, cx, dy) tenga como núcleo la recta y = 3x.

4. Pruebe que el ¡ - espacio vectorial ¡ 3 y el espacio vectorial P 2 ( ¡ ) de los polinomios de grado menor o igual a 2 son isomorfos.

5. Pruebe que K mxn ≅ L (V , W ),dim V = n, dim W = m 6. Construir una transformación lineal T : ¡ 2  → ¡ 2 tal que T (1, 2) = (1, -1, 2), T(1, 3) = (3, 0, 1), T (1, 1) = (-1, -2, 3).

7. Sean U y W subespacios de V tales que U ∩ W = { θ} pruebe que U ⊕ W y U x W son isomorfos. 8. Pruebe que todo K – espacio vectorial V de dimensión n es isomorfo a Kn 9. Sean V y W dos Q – espacios vectoriales, y f : V  → W una función que verifica f (u + v) = f(u) + f(v), para cada u, v ∈V, pruebe que f (av) = a f(v), ∀v∈V, a ∈Q.

44

10. Sea V = {(1+x²) f(x): f(x) ∈ ¡ (x)}. Pruebe que

¡ ( x) ≅¡2 V

11. Sea T : V  → V una transformación lineal tal que T² = -T pruebe que V = Nu (T) ⊕ T(V). 12. Sea V = U ⊕ W, P : V  → V, Q : V  → V definidas por P (u + w) = u, Q (u + w) = w, v ∈ U, w ∈ W. Pruebe que : a) P² = P, Q2 = Q

b) P o Q = Q o P = θ c) P + Q = I P, Q son llamadas proyecciones de V sobre U y W respectivamente.

13. Pruebe que una transformación lineal P : V  → V es una proyección, si y solo si I – P es una proyección.

14. Pruebe que una transformación lineal P : V  → V es una proyección, si y solo si P² = P.

15. Si, para algún a 0 ? 0, se tiene que a 0 I + a 1 T + ………+ a n Tn = θ pruebe que el endomorfismo T es inversible.

16. Pruebe que todo isomorfismo transforma bases en bases. 17. Sean V, W K –espacios vectoriales, T ∈ L (V, W) pruebe que la aplicación j : VxW  →VxW definida por ϕ (u, v) = (x – T(y), y) es un automorfismo. 18. Pruebe que si P ∈ L (V) es una proyección y Q = I – P entonces Ker (P) = Im (Q) y Ker (Q) = Im(P).

19. Sea V un K – espacio vectorial de dimensión finita, W un subespaci de V. Pruebe que i)

V* ≅W * Wº

ii) dim V = dim W + dim Wº

20. Sea f ∈ Vº, u ∈ V, la aplicación T : V  → V dada por T(V) = f(v) u, para todo v ∈ V es una transformación lineal.

45

CAPITULO 3 MATRICES Y SISTEMAS DE ECUACIONES LINEALES En este capítulo estudiaremos las matrices con elementos en el cuerpo K, describiremos las operaciones algebraicas, operaciones elementales y matrices elementales. Conoceremos algunos tipos de matrices especiales así como la inversa de una matriz, definiremos el rango de una Matriz y su invarianza frente a las operaciones elementales filas. Finalmente estudiaremos a la matriz asociada a una transformación lineal y los cambios de bases en espacios vectoriales.

3.1. Definiciones y ejemplos

Definición 3.1.1 Una matriz de orden “m x n” es un ordenamiento rectangular de mn escalares ubicados de manera única en m filas y n columnas, tal como:  a11 a  21  :   :  am1

a12 a22

am 2

a1n  a2 n      ................. amn  .................

Una matriz es denotada por letras mayúsculas A, B, ….. y sus componentes con letras minúsculas, esto es A = [a ij], B = [bij], ….. Al conjunto total de matrices m x n con coeficientes en el cuerpo K, lo denotaremos con

Kmxn. En particular Kmx1 es el conjunto de vectores columna y K1xn el conjunto de los vectores fila. En el conjunto Kmxn definimos las operaciones de suma y producto por un escalar de la siguiente manera. Dadas A =  aij  y B = bij  en K mx n , la suma y el producto por un escalar l ∈ K son A + B =  aij + bij  ,

l A=  l aij 

Con estas operaciones, Kmxn es un K-espacio vectorial, donde el opuesto de A es -A = −aij 

y la matriz nula

46

0 =  aij  , donde aij = 0 para todo i , j. Por otro lado, bajo ciertas restricciones, existe el producto de matrices, definido para A =  a ij  ∈ K m x n y B = b jk  ∈ K n x p por AB = [cik ]∈ K m x p

Donde: n

cik = ∑ aij b jk , para i = 1,...., m, k = 1,....., p. j =1

Proposición 3.1.2. El producto de matrices, cuando es posible, goza de las siguientes propiedades: a) A (BC) = (AB) C. b) A (B+C) = AB + AC y (B + C) A = BA + CA. c) AB ? BA en general.

Prueba Las afirmaciones a) y b) se prueban aplicando la definición de + y . Probaremos c) por contraejemplo.

1 2   1 2  1 2  1 2   0 −1  −1 3 ≠  −1 3   0 −1      

Observación 3.1.3 Para cada entero n = 1, existe una matriz cuadrada, llamada matriz identidad, definida

por 1, i = j I = aij =  0, i ≠ j

( )

Por ejemplo,

• Si n = 1, I = [1].

47

1 0  • Si n = 2, I =   0 1  1 0 0  • Si n = 3, I =  0 1 0  , etc.    0 0 1  La matriz identidad tiene la propiedad. AI = IA = A, para toda matriz A ∈ K nx n Definición 3.1.4.- Una matriz A ∈ K nx n se llama inversible si existe una matriz B ∈ K nx n tal que AB = BA = I. En este caso se dice que B es la inversa de A y se denota por B = A-1 .

5 6  Ejemplo 3.1.5. Dada A =   , hallar su inversa si este existe. 4 5  Solución. a b  Supongamos que existe B =   tal que AB = I c d  Luego 5a + 6c = 1

5b + 6d = 0

4a + 5c = 0

4b + 5d = 1

Resolviendo a = 5, b = -6, c = -4 y d = 5 Obtenemos la matriz.

 5 −6 B =   −4 5  Definición 3.1.6.- La transpuesta de una matriz A =  aij  ∈ K mxn se define como A =  a '  , donde a ' = a ji , para cada i, j.  

t

ij

ij

Si K = C, A denotará a la matriz A =  a ij  y A* a la matriz adjunta de A, dada por A* = t A

48

Definición 3.1.7 Existen muchas familias de matrices que tienen denominación particular. Así, una

matriz A =  aij  ∈ K mxn es. • Diagonal, si a ij = 0 para i ? j. • Triangular superior, si a ij = 0 para j < i. • Triangular inferior, si aij= 0 para j < j. • Simétrica, si t A = A.

(K = ¡ )

• Antisimétrica, si t A = − A.

(K = ¡ )

• Hermitiana, si A* = A (K = £ ) • Antihermitiana, si A* = -A (K = £ ) • Ortogonal, si t AA = I, • Unitaria, si A*A = AA* = I (K = £ ) • Normal, si A*A = AA* (K = £ ) • Idempotente, si A² = A. • Nilpotente, si Aq = 0 para algún entero q > 1. • Positiva definida, si txAx> 0, para todo x ∈Knx1 , x ? 0 (K = ¡ ).

3.2 Matrices Elementales. Cálculo de la Inversa de una Matriz Existen algunas operaciones sobre las filas y las colu nas de una matriz, llamadas operaciones elementales fila y operaciones elementales columna, respectivamente, que facilitan los cálculos cuando se desea resolver un sis ema de ecuaciones lineales, hallar la inversa de una matriz, determinar el rango o calcul

el determinante de la misma,

etc. En cuando a las operaciones elementales fila, son esencialmente tres y consisten en:

1. Multiplicar una fila (de una matriz) por un número dis into de cero. 2. Sumar a una fila (de una matriz) el múltiplo de otra fila. 3. Intercambiar dos filas (de una matriz). Estas operaciones no son sino el efecto de haber multiplicado a la izquierda la matriz dada por cierto tipo de matrices, llamadas matrices elementales. La multiplicación por la derecha de esta matrices elementales produce las operaciones elementales columna.

49

Los tres tipos de matrices elementales en Knxn son:

1. E i (λ): matriz obtenida de la identidad I, multiplicando la i-éstima fila por λ∈ K, λ ? 0 (1 = i = n). Por ejemplo, para n = 2, existen dos matrices de este tipo:

l 0  E1 (l ) =  ; 0 1

1 0  E 2 (l ) =  ,l ≠ 0 0 l 

Para n = 3, existen tres matrices de este tipo: l E1 ( l ) =  0   0

0 1 0

0 1  0 , E 2 ( l ) = 0   0 1 

0

l 0

0 1  0 , E3 ( l ) =  0    0 1 

0 1 0

0 0 , λ ? 0  l 

2. E ij ( λ): matriz obtenida de la identidad I, sumando a la i-ésima fila, la j-ésima fila multiplicada por λ , donde i ? j.

1 l  E12 (l ) =  ; 0 1 

1 0 E 21 (l ) =   , l ∈ K. l 1 

Para n = 3, existen seis matrices de este tipo:

 1 l 0 1 0 l  1 0 0      E12 (l ) = 0 1 0 , E13 (l ) = 0 1 0 , E23 (l ) =  0 1 l         0 0 1  0 0 1   0 0 1 

Además de las matrices E 21( l ), E31( l ) y E32( l ).

3. E ij : matriz obtenida de la identidad I, intercambiando la i-ésima fila con la jésima, i ? j. Por ejemplo, para n = 2, existe una única matriz de este tipo:

0 1  E12 =   = E21 1 0

50

Para n = 3, existen tres matrices de este tipo:

0 1 0   0 0 1 1 0 0      E12 = 1 0 0 , E13 = 0 1 0 , E 23 =  0 0 1         0 0 1   1 0 0  0 1 0  Aquí se observa que E12 = E21 , E 13 = E31 , E23 = E32. Proposición 3.2.1 Dada una matriz A =  aij  ∈ K mxn , sean a1 , a2, …., a m los vectores

fila de A y Ei(λ ), Eij( λ), Eij matrices elementales m x m. Entonces:  a1   :    1. Ei (l ) =  l a j  , l ≠ 0,    :   am 

es la matriz obtenida de A multiplicando la j-ésima fila de A por λ

 a1   :  es la matriz obtenida de A sumando a la j-ésima fila, la     2. E ji (l ) A = a j + l ai , i ≠ i-jésima , fila multiplicada por λ    :   am   a1   :    aj    : →i Eij A =    : → j 3.    ai  :     am 

es la matriz obtenida de A intercambiando la i-ésima fila con la j-ésima.

Prueba Ejercicio

51

Proposición 3.2.2 Toda matriz elemental es inversible y su inversa es un matriz elemental del mismo tipo y se verifican las fórmulas: 1.  Ei (l )

−1

= Ei (l

−1

= Eij (−l ), donde i ≠ j .

2.  Ei (l )

−1

), donde l ≠ 0, i=1,....., m.

3. Eij− 1 = Eij , donde i ≠ j .

Prueba Sigue de la proposición 3.2.1. Proposición 3.2.3.- Sean A ∈Knxn una matriz tal que L A : Knx1 → K nx 1 es inyectiva, entonces existen matrices elementales E j, tales que

E k Ek-1……E1 A = I.

Prueba.- La prueba se hará por inducción sobre n. Si n = 1, la matriz A tiene la forma A = [λ ], con λ∈ K. La condición de que LA, donde L A (x) = Ax = λ x, es inyectiva, implica que λ ? 0. Luego, tomando E1= [λ-1], resulta E 1A = I. Supongamos ahora que la afirmación del teorema es váli a para toda matriz de orden h; probaremos para matrices de orden h + 1. Sea A = [dij] ∈Knxn, donde n = h + 1. Algún elemento de la primera columna de A debe ser distinto

e cero. En caso contrario

tendríamos que : 1  0   0  0      A = : = :,     : :  0  0 

Lo que contradice la inyectividad de L A. Si dj1 ? 0, entonces la matriz E 1iA = [a ij]

cumple a11 ? 0. Luego, multip licando por E 2 = E 2 (a11−1 )se obtiene:

52

 1 * ..... *  a * :  21   E 2 E1 A =  : .   .  .   an1 *  A continuación, multiplicando por matrices elementales del tipo

E Ei +1 = Ei1 ( −ai1 ),

i=2 , .... , h+1

Se obtiene: 1 b1 0 Eh + 2 Eh +1 ......E1 A =  :  0

........ bh    , C ∈ K h xh  C  

La aplicación LC : Khx1 es también inyectiva. Supongamos que no; luego existe y

∈ K hx1 , y ≠ 0 tal que Cy = 0. Sea  h   −∑ bi yi   i =1  x ' =  y1  , donde y =  :     yh 

 y1   : ,    yh 

entonces x ' ≠ 0 y E h+ 2 ….E 1 A x ' = 0 . Como los E iA x ' = 0 . Como los E i son inversiobles, resulta A x ' = 0 , de donde la inyectividad de L A implica que x ' = 0 . La contradicción x ' = 0 y x ' ≠ 0 proviene de suponer que existe y ∈ K hx1 , y ≠ 0 , con Cy = 0. Así hemos probado que LC es inyectiva. Por hipótesis inductiva, existen matrices elementales Fj∈Khxh tales que. FmF m-1 ….F1C = I, I ∈Khxh Las matrices elementales 1 0 0 ' Fj =  :  0

.... Fj

0   , j = 1, 2,....., m   

53

Tiene la propiedad 1 b1 0 ' ' Fm .....F1 EA =  :  0

... bh    , donde E = E h + 2 ......E1  I  

Finalmente, multiplicando por matrices elementales del tipo E ij (-bj-1), j = 2,…..,m, se obtiene la afirmación del teorema para h +1.

Corolario 3.2.4.- Con la hipótesis de la proposición anterior, la matriz A es inversible. Prueba.- De la identidad E kEk-1 ……E1A = I Obtenida de la proposición anterior, multiplicando por la izquierda sucesivamente por E k−1 , ...., E1− 1 , se obtiene −1

−1

−1

A = E1 E 2 ......Ek

Luego, multiplicando por la derecha, sucesivamente por Ek ……E 1, se obtiene

AEk….E1 = I Así, B = E k E k-1…..E1 es la inversa de A. Corolario 3.2.5.- Si A ∈K nxn posee inversa a izquierda, entonces es inversible. Prueba.- Por hipótesis, existe B ∈Knxn tal que B A = I. Si Ax = 0, entonces x = Ix = B(Ax) = B0 = 0 Esto prueba que L A es inyectiva, y por lo tanto A inversible. Corolario 3.2.6 Si A ∈Knxn posee inversa a derecha, entonces es inversible. Demostración.- Por hipótesis existe B ∈Knxn tal que AB = I. Por el corolario 3.2.5, B

es inversible. Luego. A = (AB)B-1 = B-1

Asi, A es inversible. Corolario 3.2.7. La matriz A ∈K nxn es inversible, si y sólo si LA es inyectiva.

54

Prueba .- Supongamos que A es inversible y L A(x) = 0, esto es Ax = 0, como existe A-1 , resulta.

x = (A-1 A) x = A-1 (Ax) = A-1 0 = 0 Luego L A es inyectiva. La afirmación recíproca es precisamente el corolario 3.2.4.

Corolario 3.2.8.- Toda matriz inversible es producto de un número finito de matrices elementales. Prueba.-Si A ∈K nxn es inversible, LA es inyectiva, luego por corolario 3.2.4. A = E1−1 E2− 1 ....E k−1 ,

Y como la inversa de una matriz elemental es también una matriz elemental, se tiene la propiedad.

3.3 Cálculo de la inversa mediante operaciones elementales Sea Si A ∈K nxn una matriz cuya inversa deseamos hallar. Para tal efecto consideramos la matriz de orden n x 2n.

 A I  Luego procedemos a multiplicar, por la izquierda, por matrices elementales E1 , E 2,…,E k , de tal modo que en la matriz.

 Ek Ek −1 ...E1 A Ek Ek −1....E1  Ocurra E k …..E1 A = I, y por lo tanto

A-1 = Ek…….E1 Tenemos asi un procedimiento práctico para calcular la inversa de una matriz.

6 5  Ejemplo 3.3.1. Hallar la inversa de A =   por el método de las operaciones 5 4  elementales.

Solución 6 5 1 0 Sea  A I  =   5 4 0 1

55

Multiplicando la segunda fila por -1 y sumándola a la primera

1 1 1 −1 E  12 (−1)  uuuuuuur 5 4 0 1  Luego, multiplicando la primera fila por -5 y sumándola a la segunda  1 1 1 −1 E (−5)   21 uuuuuuur  0 −1 −5 6  Ahora, sumando a la primera fila, la segunda multiplicada por 1.

 1 0 −4 5  E (1) 12 uuuuur  0 −1 −5 6    Finalmente, multiplicando por -1 la segunda fila.

1 0 −4 5  E 2 (−1) uuuuuuu r 0 1 5 −6   En estas condiciones, resulta

 −4 5  A −1 =    5 −6 Como puede comprobarse. Proposición 3.3.2.- Una matriz A ∈K nxn es inversible si y sólo si sus vectores columna son linealmente independientes.

Prueba.- Sean A1 ,…..,An los vectores columna de A, la transformación lineal L A : K n x 1 → K nx 1 se expresa como n

L A ( x ) = ∑ x j , x = t ( x1 ,...., xn ). j =1

n

Supongamos que A es inversible y que

∑l

j

Aj = 0 . Para x =

j =1

t

(l

1

, ...., l n ), esto significa

que LA(x) = 0, esto es Ax = 0, de donde x = Ix = A-1 (Ax) =A-1 0 = 0 Luego λ1 = λ 2= ……=λ n = 0. Esto prueba que A1, ….,An son linealmente independientes.

56

Recíprocamente, supongamos que los vectores columna de A son linealmente n

independiente

L A ( x ) = ∑ x j A j = 0, resulta x = 0, pues A1 , ……,An son linealmente j =1

independiente. Luego L A es inyectiva y por el corolario 3.2.4 es inversible. Proposición 3.3.3 .- Una matriz A ∈Knxn es inversible si y sólo si su vectores fila son linealmente independiente.

Prueba.- Supongamos que A es inversible., Sean a 1, …..,a n los vectores fila de A y F (A) = L {a1,…..,a n} El espacio de filas de A. Las operaciones elementales fila sobre A, producen uno de los siguientes tres efectos: a i es cambiado por l ai , con l ≠ 0 , por ai + l a j con j ≠ i, o es

intercambiado por aj, donde j ? i. Esto significa que el espacio F (A) no es modificado por ninguna operación elemental, esto es, (∆)

E F (A) = F (A), para toda matriz elemental E. Por otro lado, existen matrices elementales E j tales que E kEk-1 …..E1 A = I Pues A es inversible. Ahora bien, aplicando repetidas veces (∆), tenemos :

F (A) = Ek ….. E 1 L (A) = F {e1 ,….,e n} = K1xn donde {e1 ,….,e n} es la base canónica de K1xn. Así hemos establecido que las filas de A generan K1xn, y por lo tanto constituyen una base. Luego deben ser linealmente independiente como queríamos probar. Recíprocamente, supongamos que los vectores filas a 1, ….,a n de A son linealmente independiente. Luego constituyen una base K1xn, de donde podemos expresar los n

vectores de la base canónica e j, j = 1, ……, n en la forma

e j = ∑ b jk a k , k =1

La matriz B = [b uj] en virtud de estas relaciones, verifica.

BA = I. Luego A es inversible (corolario 3.2.5)

57

j=1,....,n

3.4 Matriz Escalonada Reducida Definición 3.4.1.- Una matriz m x n es escalonada reducida si.

1. El primer elemento no nulo de una fila no nula es 1. Este se denomina 1– principal.

2. Toda fila cuyas componentes son todos ceros está por debajo de aquellas filas no nulas.

3. En cada columna donde aparece el 1 –principal sus demás componentes son ceros. 4. Si son r las filas no nulas, y si el 1 – principal de la i –ésima fila está en la columna ki, entonces k1< k2< …. 1 y que el teorema es válido para toda matriz de m – 1 filas. Sea c ? 0 el primer elemento no nulo de la primera columna, y que se halla en la fila j. Luego E1A = E jiA contiene a c en la primera fila, de donde multiplic

do por E2

= E 1 (c-1) se obtiene :

0 0  E2 E1 A =  M   0

1 *... * * M   M   * ... *

Donde * representa elementos cualesquiera de K. Multiplicando sucesivamente por matrices del tipo E j1(*) se convierten en cero los elementos debajo del primer 1- principal y se tiene que 0 1 * L *  0 0   , con C ∈ K ( m −1) x ( n −1 ) Ek E k −1 ......E2 E1 A =  M M  C   0 0  Por hipótesis inductiva, existen matrices elementales Fj de orden m – 1 tales que Fs Fs-1 …….F1 C = C0 es una matriz escalonada reducida. Las matrices elementales. 1 0 L 0  0  '   , j=1,.....,s Ej = M  Fj   0  Son tales que 0 1 * L * 0 0   E s' .....E1' Ek .....E1 A =  M M  C0   0 0 

59

Finalmente, mediante operaciones elementales adecuadas, se anulan los elementos de la primera fila que se hallan en las columnas de los 1 – principales de C0. Esto completa la prueba.

Corolario 3.4.4.- Si A ∈ K nx n es inversible, entonces la matriz escalonada reducida A0 a A, es la identidad. Prueba.- Como A es inversible E rE r-1…..E1A=A0 es también inversible. Luego las n filas

de A0 son linealmente independiente lo que es posible sólo si existen n

1 – principales, uno en cada fila. Así A0 = I.

3.5

Equivalencia por Filas

Definición 3.5.1.- Dos matrices A, B ∈ K nx n son equivalentes por filas si existe una matriz inversible P ∈Kmxm tal que B = PA. Observación 3.5.2.- Dada A ∈ K nx n , recordemos que a 1, …., a m denotan las filas de A y

F (A) = L {a 1, …..,a m} su espacio de filas. Las operaciones elementales fila

bre A, como mencionamos antes

para el caso de matrices cuadradas, producen uno de lo res efectos siguientes:

1. E(ai) = aj, E(aj) = ai, E(a l) = a l para l ? i, j. 2. E(ai) = ai + λa j, E(a l) = al para l ? i. 3. E(ai) = λa i, E(a j) = a j para j ? i, λ ? 0. Estas fórmulas muestran que el espacio de filas de A y de EA son iguales, para toda matriz elemental E. Repitiendo este proceso un número finito de veces, vemos que A y E k….E1 A = A0 tienen el mismo espacio de filas. Desde que toda mat iz inversible P es producto de matrices elementales, estas conclusiones p ueban el siguiente resultado.

Proposición 3.5.3. Si A, B ∈ K mxn son equivalentes por filas, entonces F (A) = F (B)

En particular F (A) = F (A0). Además las filas no nulas de A0 constituyen una base de F (A).

60

Proposición 3.5.4.- La matriz escalonada reducida, equivalente por filas

una matriz

A ∈ K mx n es única. Prueba.- Sean A0 y B0 dos matrices escalonadas reducidas asociadas a la mat

A

∈Kmxn. Desde que las filas no nulas tanto de A0 como de B0 constituyen bases de F (A), estas matrices tienen el mismo número de filas no nulas; sean pues v1, ….,vr, las filas no nulas de A0 y w1 , ….., wr, las filas ni nulas de B0 . Suponemos además que los 1 –principales de A0 están en las columnas k 1,……,k r y los de B0 en las columnas h1,…..,h r. Probaremos por inducción (sobre r) que vj = wj,

j = 1, 2, …., r

con lo que quedará establecido que A0 = B0 Si r = 1, sólo tenemos bases de un elemento, {v1}, {w1}

v1= (0, …..,0,1,*,…..),

w1 = (0, …..,0, 1, *, ….),

k1

h1

pero como v1 = λw1, esta igualdad sólo es posible si λ = 1 y h1 = k1 . Por lo tanto v1 =

w1. Supongamos ahora que r > 1. Establezcamos que h r = k r y v r = wr. Si fuese h r

Get in touch

Social

© Copyright 2013 - 2024 MYDOKUMENT.COM - All rights reserved.