Espacios Vectoriales

Ciencias Matemáticas. Vectores. Propiedades. Dependencia e independencia lineal. Teoremas. Dimensiones. Operaciones

2 downloads 208 Views 16KB Size

Recommend Stories

Story Transcript

Tema 2: Espacios Vectoriales. Aplicaciones lineales Espacios vectoriales: Definición y primeras propiedades, suma directa. Dado un cuerpo k, se llama k−espacio vectorial a un conjunto V con una operación interna, +, y una operación externa con dominio de operadores en k, ·, que verifica las siguientes condiciones: • (V,+) es un grupo abeliano (el neutro lo denotamos 0; el opuesto de un elemento aV, se denota −a). • t·(a+b) = t·a + t·b Vtk Va,bV • (t+s)·a = t·a + s·a Vt,sk VaV • t·(s·a) = (ts)·a Vt,sk VaV • 1k·a = a VaV Los elementos de V los llamaremos vectores. Los elementos del cuerpo k los llamaremos escalares. Propiedades: V es un k−espacio vectorial. Se tiene: • 0·a = 0 VaV • (−1)·a = −a VaV • t·0 = 0 Vtk • Si t·a = 0 !t = 0 ó a = 0 Dado un k−espacio vectorial, V, un subconjunto S de V se dice que es subespacio vectorial de V si S es espacio vectorial con las mismas operaciones que teníamos en V. + ha de ser interna en S ·k ha de ser t·a S VaS VT S " ø, 0S a+b S Va,bS En general, S = V siempre es subespacio S = {0} siempre es subespacio V = kn ! S = {akn; 1ª coordenada es 0} si es subespacio de V V = kn ! S = {akn; 1ª coordenada es 1} no es subespacio vectorial de V V es un k−espacio vectorial S"V S es subespacio vectorial de V V = k[x] es k−espacio vectorial S = {polinomios de grado " n} " k[x] 1

Proposición: Sea V un k−espacio vectorial S"V. Son equivalentes: • S es subespacio vectorial de V • ta + sb S Va,bS Vt,sk y S" ø • a+b S, ta S Va,bS Vtk y S" ø Dado un k−espacio vectorial V y dos subespacios S1, S2 de V se llama intersección de S1 y S2 al conjunto S1"S2. Proposición: La intersección de subespacios vectoriales de V es un subespacio vectorial. El mayor subespacio contenido en unos cuantos que nos dan es la intersección. La unión de subespacios no es, en general, un subespacio. Dados S1,,Sr número finito de subespacios vectoriales de V, se llama suma de S1,,Sr al conjunto S1 + + Sr := {a1 + + ar; aiSi Vi} Proposición: S1 + + Sr es el menor subespacio que contiene a S1,,Sr. Se dice que la suma S1++Sr es directa si cada vector de la suma, a(S1++Sr), se obtiene de una única manera sumando vectores de los Si. O sea, si a1++ar = b1++br con ai,biSi Vi tiene que ser a1 = b1, , ar = br. En ese caso se escribe S1 "" Sr. Proposición: S1,,Sr " V. Son equivalentes: • La suma S1++Sr es directa. • Si a1++ar = 0 con aiSi Vi, entonces ai = 0 Vi. (El 0 sólo se obtiene sumando 0 de cada Sr). • Si " (S1+..i..+Sr) = 0 Vi. Nota: Si tenemos la suma de dos subespacios, S y T, entonces la suma es directa si y sólo si S"T = 0. Dos subespacios S y T se dice que son suplementarios si se cumple que S"T = V, luego S+T = V y S"T = 0. Dependencia e independencia lineal. V un k−espacio vectorial. Una familia es un conjunto en el que puede haber elementos repetidos. Dada una familia F de vectores de V se llama clausura lineal de F, y se denota K(F), al subespacio vectorial de V más pequeño que contenga a F. K(F) = "S S"V F"S ¿Cómo hallar K(F) a partir de F? 2

Observación: Si aF, aK(F) taK(F) Si a,bF, taK(F) sbK(F) ta+sbK(F) Si hacemos cuentas con elementos de F el resultado tiene que estar en K(F). Se llama combinación lineal de F a cualquier vector de la forma t1a1++trar con los tiK y los aiF. V k−espacio vectorial. F una familia de vectores de V. K(F) es el menor subespacio vectorial que contiene a F. Si aV es una combinación lineal de F se dirá también que a depende linealmente de F. Observaciones: • Si a depende linealmente de F, entonces a depende linealmente de alguna subfamilia finita de F. • El 0 depende de cualquier familia no vacía. • Si aF, entonces a depende de F. • Si a depende de F y F"G, entonces a depende de G. • Si F"K(G), entonces K(F)"K(G). • K(F) = K(G) si y sólo si F"K(G) y G"K(F). Proposición: La K(F) es el conjunto de las combinaciones lineales de elementos de F. Caso particular: Si F = ø, por convenio, se dice que K(F) = 0 " {0}. El 0 es combinación lineal de la familia vacía (F = ø). Si F = {a1,,ar} se escribe K(a1,,ar) en lugar de K(F). En particular, cuando r = 1, K(a) = {ta; tK}. Si S = K(F), se dice que F es sistema generador del subespacio S. En el caso K(F) = V se dice que F es sistema generador (de V). Una familia de vectores F se dice que es ligada (linealmente dependiente) si existe alguna combinación lineal de la familia, t1a1++trar, igualada a 0 con algún ti " 0. Una familia es libre si no es ligada. V un k−espacio vectorial. F, G familia de vectores. F familia ligada (o linealmente dependiente) ! existen a1,,ar F y t1,,tr K tales que t1a1++trar = 0 con algún ti " 0. F familia libre (o linealmente independiente) ! no es ligada t1a1++trar = 0 con tiK ! t1 = = tr = 0

3

aiF Observaciones: • Si F tiene un vector repetido, es ligada. • Si 0F, entonces F es ligada. • Si F"G y además F es ligada, entonces G es ligada. • (3') Si F"G y además G es libre, entonces F es libre. • F es ligada si y sólo si F contiene una subfamilia finita ligada. • (5') F es libre si y sólo si cualquier subfamilia finita de F es libre. • Sea F una familia libre y aV. Se tiene: F"{a} es ligada ! aK(F). • Si F es ligada, algún vector de F es combinación lineal de los demás (salvo que F = {0}). t1a1++trar = 0 ti " 0 ai = − ti−1t1a1 − ti−1t2a2 − ..tiai.. − ti−1trar Lema: Si a1,,ar es ligada y a1 " 0, entonces algún ai es combinación lineal de los que le preceden. Teorema: Sea V un k−espacio vectorial, {a1,,an} una familia libre y {b1,,bm} un sistema generador de V. Entonces, m " n. Un k−espacio vectorial V, se dice que es de tipo finito si posee algún sistema generador finito. Son los que nos van a interesar. Teorema: Sea V un k−espacio vectorial (de tipo finito) y B una familia de vectores de V. Son equivalentes: • B es familia libre y además es sistema generador de V. • B es familia libre maximal. (Si B está contenida en otra familia libre, B', entonces B'=B). • B es sistema generador minimal. (Si B'"B y B' es sistema generador, entonces B'=B). Corolario: En un k−espacio vectorial de tipo finito todas las familias libres son finitas. Bases. Una familia B de vectores de un k−espacio vectorial V se llama base de V si es familia libre y sistema generador de V ó familia libre maximal ó sistema generador minimal. Teorema: Sea V un k−espacio vectorial del tipo finito. V"ø. Entonces: V posee alguna base. De hecho se tiene • cualquier familia libre en V está contenida en alguna base de V. • También, cualquier sistema generador de V contiene alguna base. Al primero se le denomina proceso de completar base. Corolario: En un espacio vectorial V de tipo finito, todas las bases tienen el mismo número de elementos. Dimensión.

4

Se llama dimensión de un k−espacio vectorial de tipo finito al número de vectores de cualquiera de sus bases. En particular, por convenio, se dice que dim0 = 0. La dimensión de un k−espacio vectorial que no sea de tipo finito se dice que es infinita. Se escribe dimV. Si hay que aclarar el cuerpo: dimkV. Observaciones: Sea V un k−espacio vectorial, dimkV = n y sea F una familia de vectores de V. • Si |F| = n, se tiene: • Si F es libre, entonces F es base de V. • Si F es sistema generador, entonces F es base de V. • Si |F| = m, entonces, se tiene: • Si m>n, F es ligada. • Si m ¿(7,−4,0,8)S? abc ¿ t,s,r!; ta+sb+rc = (7,−4,0,8)? Objetivo: cambiar los vectores a, b, c, por otros más sencillos y que también sean un sistema generador del mismo subespacio S. Operación elemental de tipo 1: Si en una familia de vectores F, intercambiamos el orden de los vectores, la clausura lineal de F no cambia (!(a,b,c) = !(b,a,c)). Operación elemental de tipo 2: Si en una familia de vectores, F, están a y b y sustituyo b por b+ta la clausura de la familia no cambia (!(a,b,c) = !(a,b+ta,c)). Operación elemental de tipo 3: Si en una familia de vectores F, está a y lo sustituyo por sa con s"0, la clausura de la familia no cambia (!(a,b,c) = !(sa,b,c)). (2,1,−3,0) (1,4,−1,3) (1,4,−1,3) (1,4,−1,3) (1,4,−1,3) (1,4,−1,3) (2,1,−3,0) (0,−7,−1,−6) (0,1,1/7,6/7) (0,1,1/7,6/7) 5

(3,0,−1,2) (3,0,1,2) (0,−12,2,−7) (0,0,26/7,23/7) (0,0,1,23/26) Vamos a ver si (7,−4,0,8)S. (7,−4,0,8) " 7·(1,4,−1,3) + (−32)·(0,1,1/7,6/7) + (81/7)·(0,0,1,23/26) 8 " 21 − 32·6/7 + (81/7)·(23/6) !(7,−4,0,8)S Resumen de operaciones: F = {a,b,} F' = {b,a,} F'' = {sa,b,} (s"0) F''' = {a,b+ta,} Aplicaciones lineales: definición y primeras propiedades. Dados dos k−espacios vectoriales, V y W, se llama aplicación lineal de V en W a cualquier aplicación f: V! W tal que f(a+b) = f(a) + f(b) y f(ta) = t·f(a) Va,bV VtK. Consecuencias de la definición: • Si f: V!W es una aplicación lineal, entonces f conserva aplicaciones lineales: f(t1a1++trar) = t1f(a1)++trf(ar) Va1,...,arV Vt1,,trk. • Si f: V!W es una aplicación lineal, entonces f(0V) = 0W. • Si f: V!W es una aplicación lineal, f(−a) = −f(a) VaV. • Sea f: V!W una aplicación lineal y {a1,...,ar} una familia ligada de vectores de V. Entonces, la familia {f(a1),,f(ar)} es ligada. • Es equivalente a la 4). Sea f: V!W una aplicación lineal y {a1,...,ar} una familia en V. Si {f(a1),,f(ar)} es libre, entonces {a1,...,ar} es libre. Una aplicación lineal f: V!W. Si f es inyectiva, se dice que es un monomorfismo. Si f es suprayectiva, se dice que es un epimorfismo. Si f es biyectiva, se dice que es un isomorfismo. Además, un isomorfismo f: V!V se llama automorfismo. Observación: Dos k−espacios vectoriales de tipo finito son isomorfos (V y W) si y sólo si tienen la misma dimensión. Dos k−espacios vectoriales, V y W, se dicen isomorfos y se escribe V"W, si existen un isomorfismo f: V!W. Como son isomorfos también existirá f−1: W!V.

6

Observación: Si V y W son k−espacios vectoriales de dim n, para tener un isomorfismo de V en W basta con: elegir una base. {a1,...,an} en V, elegir una base {b1,...,bn} en W y hacer: f: V!W la aplicación lineal dada por f(ai) = bi Vi. a = t1a1++tnan ! f(a) = t1f(a1)++tnf(an) = t1b1++tnbn Teorema (de construcción de aplicaciones lineales): Sean V y W k−espacios vectoriales. {a1,...,an} una base de V y {b1,...,bn} una familia cualquiera de vectores de W. Entonces: existe una única aplicación lineal f: V!W cumpliendo f(ai) = bi Vi. (Para construir una aplicación lineal de V en W basta con decir cuáles son las imágenes de los vectores de una base de V). Pasos: • se elige una base de V (la que más convenga) • se dice la imagen de cada uno de los vectores de la base (se eligen como queramos, cumpliendo lo que nos pidan) • ya podemos asegurar que la aplicación lineal está perfectamente definida. f: V!W una aplicación lineal. Lema: Si S"V y T"W, entonces: • f(S)"W • f!(T)"V Conclusión: f: V!W f(0) = 0 0!0 f(V) = Imf " W f!(W) = V V!W Imf = W ! f es epimorfismo f!(0)? Se llama rango de f, se escribe rang f, a la dimensión de Imf. f es epimorfismo ! rang f = dim W. rang f sirve para medir la suprayectividad de f. El subespacio vectorial de V f!(0) se llama núcleo de f y se escribe ker f. ker f = {aV; f(a) = 0} = f(0) Si ker f " 0 !f no es inyectiva (monomorfismo). Teorema: Sea f: V!W una aplicación lineal entre k−espacios vectoriales (de tipo finito). Son equivalentes: • f es monomorfismo. • ker f = 0 • Si F = {a1,,ar} es familia libre en V !f(F) = {f(a1),,f(ar)} es libre en W. (La imagen de cualquier familia libre es libre). 7

• S"V !dim f(S) = dim S • G familia en V !rang G = rang f(G). (f conserva el rango de familias). Corolario: V y W k−espacios vectoriales. Si V"W, entonces dim V = dim W. Teorema: Sea f: V!W una aplicación lineal y sea T un subespacio suplementario de ker f en V (kerf " T = V). Entonces fT: T!Imf es un isomorfismo. Corolario: Si f: V!W es una aplicación lineal, entonces dim V = dim kerf + rang f. Corolario: Sean V y W k−espacios vectoriales de dimensión n. Si f: V!W es una aplicación lineal, son equivalentes: • f es isomorfismo. • f es monomorfismo. • f es epimorfismo. Homk(V,W) = {aplicaciones lineales de V en W} con V, W k−espacios vectoriales. Suma de aplicaciones lineales: Si f,g: V!W son aplicaciones lineales, entonces: f+g: V!W dada por (f+g)(a) = f(a) + g(a) es también una aplicación lineal. Producto de aplicaciones lineales (por escalares de k): Dada f,g: V!W y tk se define (t·f): V!W dada por (t·f)(a) = t·f(a) es también una aplicación lineal. Luego, (Homk(V,W),+,·k) + asociativa, conmutativa, elemento neutro, cada f tiene opuesto ·k distributiva respecto a la suma f+g, t(s·f) = (ts)·f ! distributiva respecto a la suma t+s ! Hom(V,W) k−espacio vectorial dim(Hom(V,W)) = dim(V)·dim(W) (Homk(V,W),+,·k) V = W f: V!V Endk(V) = {endomorfismo de V (aplicaciones lineales de V en V)} (End(V),+,·k) La composición de aplicaciones lineales entre k−espacios vectoriales es otra aplicación lineal. g%f: V!U es una aplicación lineal (g%f)(a) = g(f(a)) 8

En el conjunto Endk(V) tenemos otra operación: la composición de endomorfismos. La composición es asociativa, distributiva respecto a la suma y además, la aplicación idV es elemento neutro, luego (Endk(V),+,%) es un anillo con identidad. (No es conmutativo). Como tenemos (Endk(V),+,·k) una aplicación lineal, juntando ambas cosas obtenemos: (Endk(U),+,%,·k) k−álgebra con identidad. Aplicación inversa generalizada. Sea f: V!W una aplicación lineal. Si f no es biyectiva no existe una inversa de f (No hay aplicación lineal f−1 tal que f−1%f = idV y f%f−1 = idW). ¿Qué aplicación g: W!V se acerca más a cumplir g%f = idV y f%g = idW? Dada f: V!W, consideramos kerf y consideramos un suplementario de kerf en V, T; T"kerf = V. Recordamos f|T: T!Imf es un isomorfismo. Queremos construir una aplicación lineal g: W!V que sea una especie de inversa de. Tomamos {a1,,ar} base de T y una base {ar+1,,an} del kerf (en la práctica, se hace al revés, se toma una base del núcleo de f y se completa por delante hasta tener una base de V). Juntando las dos cosas: {a1,,ar,ar+1,,an} es base de V. En W tomamos una base de Imf: {b1,,br}, la completamos hasta tener una base de W: {b1,,br,br+1,,bn}. K(br+1,,bn) es un suplementario de Imf en W. Lo llamaremos W0: W = Imf " W0. Construimos g: W!V definiendo g(b1) = f|T−1(b1)T g(br) = f|T−1(br)T g(br+1) = cr+1 en donde cr+1,,cn son vectores cualesquiera de V g(bn) = cn Podemos construir, en general, muchas posibles g de este estilo. Sin embargo, todas esas g: W!V cumplen lo siguiente: f%g%f: V!W =f Veamos que f%g%f(a) = f(a) VaV: Dado aV, existirán cT y dkerf tales que a = c+d. De esta manera: f(a) = f(c) + f(d) = f(c) Imf. g%f(a) = g%f(c) = g(f(c)) = fT−1(f(c)) = fT−1(f|T(c)) = c Ahora f%g%f(a) = f((g%f)(a)) = f(c) = f(a) aV 9

Dada una aplicación lineal f: V!W, se llama inversa generalizada de f a cualquier aplicación lineal g: W!V tal que f%g%f = f. Teorema: Sea f: V!W una aplicación lineal y sea g: W!V una inversa generalizada de f se verifican: • V = Imf%g " kerf • g%f es la proyección canónica de V en T = Img%f según kerf. • W = Imf " kerf%g • f%g es la proyección de W en Imf según kerf%g Nota: gf|Imgf: Imgf!Imgf es la identidad b b = gf(b') gf(b) = gf(gf)(b') = (asociativa) = gfgf(b') = gf(b') = b gf|kerf: kerf!V es la aplicación 0. Esto ocurre siempre que tenemos la proyección canónica. Teorema: Sea f: V!V una aplicación lineal. Se verifica: • Si f tiene inversa a izquierda, entonces cualquier aplicación lineal g: W!V es inversa generalizada de f si y sólo si g es inversa a izquierda de f. (hf = idV). • Si f tiene inversa a derecha, entonces cualquier aplicación g: W!V es inversa generalizada de f si y sólo si g es inversa a derecha de f. (fh' = idW) • Si f tiene inversa (f es biyectiva), entonces cualquier aplicación lineal g: W!V es inversa generalizada de f si y sólo si g es la inversa de f, se denota por f−1. En resumen, f: V!W tiene muchas inversas generalizadas, pero: • Si f es suprayectiva (tiene inversa a derecha), las inversas generalizadas de f son las inversas a derecha de f. • Si f es inyectiva (tiene inversa a izquierda), las inversas generalizadas de f son las inversas a izquierda de f. • Si f es biyectiva, la única inversa generalizada de f es f−1.

10

Get in touch

Social

© Copyright 2013 - 2024 MYDOKUMENT.COM - All rights reserved.