2.1. Estructura algebraica de espacio vectorial

Tema 2 Espacios vectoriales de dimensi´ on finita. 2.1. Estructura algebraica de espacio vectorial Los vectores libres en el plano son el sustento g

0 downloads 157 Views 152KB Size

Recommend Stories


TEMA I. Un espacio vectorial es una estructura algebraica que se compone de dos conjuntos y de dos operaciones que cumplen 8 propiedades
TEMA I 1. 2. 3. 4. 5. 6. 7. Espacios vectoriales Combinaciones lineales Dependencia e independencia lineal Bases Rango de un conjunto de vectores Tra

Sistemas de ecuaciones lineales. Espacio vectorial R n
Tema 1 Sistemas de ecuaciones lineales. Espacio vectorial Rn Multitud de problemas de la vida real se rigen por proporciones constantes entre las mag

Tema 21 Estructura de las ciudades españolas
Tema 21 Estructura de las ciudades españolas 1. Principales etapas del proceso de urbanización español Llamamos proceso de urbanización a la progresiv

Story Transcript

Tema 2 Espacios vectoriales de dimensi´ on finita. 2.1.

Estructura algebraica de espacio vectorial

Los vectores libres en el plano son el sustento geom´etrico del concepto de espacio vectorial. Se trata de segmentos orientados sobre los que definimos las operaciones de suma (mediante la regla del paralelogramo) y producto por un escalar (dilatando o contrayendo el vector seg´ un la magnitud del escalar λ). En lo que sigue estaremos interesados fundamentalmente en las propiedades de dichas operaciones. La idea abstracta de espacio vectorial generaliza el concepto de vector a objetos matem´aticos muy diversos, siempre y cuando entre ellos est´en definidas dos operaciones, a las que llamaremos tambi´en suma y producto por un escalar —y que pueden tener definiciones muy diversas— que satisfagan las mismas propiedades que en el caso de vectores libres.

Definici´ on 2.1 Sea un conjunto V —a cuyos elementos llamaremos vectores— y el cuerpo R de los n´ umeros reales —cuyos elementos llamaremos escalares—. Se suponen definidas dos operaciones en V

42

Espacios vectoriales de dimensi´ on finita Suma de vectores (+)

Producto por un escalar (·) +

·

u, v ∈ V −→ u + v ∈ V

λ ∈ R, u ∈ V −→ λu ∈ V

(ley de composici´on interna) tal que

(ley de composici´on externa) tal que

S1. (u + v) + w = u + (v + w) ∀ u, v, w ∈ V

P1. λ(u + v) = λu + λv ∀λ ∈ R, ∀ u, v ∈ V

S3. ∃ 0 ∈ V | v + 0 = v ∀ v ∈ V

P3. λ(µv) = (λµ)v ∀λ, µ ∈ R, ∀ v ∈ R

S2. u + v = v + u ∀ u, v ∈ V

S4. ∀ v ∈ V ∃ − v | v + (−v) = 0

P2. (λ + µ)v = λv + µv ∀λ, µ ∈ R, ∀ v ∈ V

P4. 1 · v = v ∀ v ∈ V

Se dice que el conjunto V con las dos operaciones definidas arriba —lo que representaremos como (V, +, ·)—, satisfaciendo las ocho propiedades anteriores es un espacio vectorial sobre R.

Ejemplos de espacios vectoriales. Los siguientes son los espacios vectoriales con los que vamos a trabajar durante el curso. Para todos ellos, es un f´acil ejercicio comprobar que se satisfacen las propiedades de espacio vectorial. i) V = Rn . Es el espacio vectorial con el que hemos trabajado en el tema 1. Obs´ervese que las propiedades de la definici´on 2.1 coinciden con las ya enunciadas en la secci´on 1.1. Como veremos m´as adelante, este espacio vectorial es de particular importancia. ii) V = Mm×n (R) = {A = (ai,j ), aij ∈ R, i = 1, . . . , m, j = 1, . . . , n} Espacio vectorial de las matrices de tama˜ no m × n con coeficientes reales. Las

operaciones suma y producto por un escalar se definen, para A = (aij ), B = (bij ), λ ∈ R como A + B = (aij + bij ) λA = (λaij )

(2.1)

El elemento neutro es la matriz O cuyos elementos son todos nulos y el opuesto de A es −A = (−aij ). iii) V = Pn (R) = {a0 + a1 x + · · · + an xn ≡ p(x), ´ Apuntes de Algebra Lineal

ai ∈ R, i = 0, 1, . . . , n} A. Rodr´ıguez

2.1 Estructura algebraica de espacio vectorial

43

Es el espacio vectorial de los polinomios de grado 6 n. Las operaciones suma y producto por un escalar est´an definidas de la forma habitual, si p(x) = a0 + a1 x + · · · + an xn , q(x) = b0 + b1 x + · · · + bn xn , λ ∈ R, entonces (p + q)(x) = a0 + b0 + (a1 + b1 )x + · · · + (an + bn )xn (λp)(x) = λa0 + λa1 x + · · · + λan xn

(2.2)

El elemento neutro ser´a 0 = 0 + 0x + · · · + 0xn y el elemento opuesto de p(x) ser´a (−p)(x) = −a0 − a1 x − · · · − an xn .

iv) V = P (R) Espacio vectorial de los polinomios de cualquier orden. v) V = C(R) = {f : R → R, f continua} Espacio vectorial de las funciones continuas de variable real. Las operaciones suma y producto por un escalar, para f, g ∈ V , λ ∈ R se definen como (f + g)(x) = f (x) + g(x) (λf )(x) = λf (x)

(2.3)

El elemento neutro es la funci´on nula 0(x) = 0 ∀x y el opuesto de f es −f con (−f )(x) = −f (x) ∀x. Otros espacios de funciones relacionados son

V = C(a, b) = {f : [a, b] → R, f continua}, funciones continuas definidas en el intervalo [a, b], o´

V = C n (a, b) = {f : [a, b] → R, f de clase n}, funciones de clase n —con

n derivadas continuas— en el intervalo (a, b).

Veremos ahora algunas consecuencias de las propiedades —que tambi´en llamaremos axiomas— de espacio vectorial que, aunque puedan parecer evidentes, no lo son ya que las operaciones suma y producto por un escalar pueden estar definidas de muy diversas formas.

44

Espacios vectoriales de dimensi´ on finita Consecuencias de los axiomas de espacio vectorial. C1. El elemento neutro 0 de un espacio vectorial V es u ´ nico. C2. el elemento opuesto −v de todo vector v ∈ V es u ´ nico. C3. 0v = 0 ∀ v ∈ V C4. ∀ v ∈ V, (−1)v es su opuesto. C5. λ0 = 0 ∀λ ∈ R.



Demostraci´ on. C1. Supongamos que existen dos elementos neutros distintos 01 y 02 . Entonces 01 elemento neutro ⇒ 01 + 02 = 01

02 elemento neutro ⇒ 02 + 01 = 02

)

S2

⇒ 01 = 02

C2. Supongamos que v tiene dos elementos opuestos distintos v 1 y v 2 . Entonces v 2 + (v + v 1 ) = v 2 + 0 = v 2

(2.4)

Ahora bien, por otro lado S1

v 2 + (v + v 1 ) = (v 2 + v) + v 1 = 0 + v 1 = v 1

(2.5)

De las ecuaciones (2.4) y (2.5) se deduce inmediatamente que v 1 = v 2 . P4

P2

P4

C3. v = 1 · v = (0 + 1)v = 0v + 1 · v = 0v + v ⇒ 0v = 0. P4

P2

C3

C4. v + (−1)v = 1 · v + (−1)v = (1 + (−1))v = 0v = 0. P1

C5. λ0 = λ(0 + 0) = λ0 + λ0 ⇒ λ0 = 0.

2.1.1.



Dependencia e independencia lineal en un espacio vectorial

Generalizaremos ahora los conceptos de dependencia e independencia lineal vistos en el tema 1. Todas las definiciones y observaciones vistas en dicho tema para vectores ´ Apuntes de Algebra Lineal

A. Rodr´ıguez

2.1 Estructura algebraica de espacio vectorial

45

de Rn siguen siendo v´alidas ahora para vectores de un espacio vectorial V cualquiera. En particular, extenderemos la definici´on de independencia lineal 1.3 a la Definici´ on 2.2 El conjunto de vectores S = {v 1 , v 2 , . . . , v p } ⊂ V es linealmente independiente si

λ1 v 1 + λ 2 v 2 + · · · + λ p v p = 0 ⇒ λ 1 = λ 2 = · · · = λ p = 0

(2.6)

donde ahora el 0 en la ecuaci´on (2.6) representa el elemento neutro del espacio vectorial V . De este modo, el estudio del rango de conjuntos de vectores depender´a del espacio vectorial en que se encuentren, como veremos en el siguiente ejemplo. Ejemplo 2.1 Estudiar si los siguientes conjuntos de vectores son dependientes o independientes. a) S = {1 − x, 2 + x2 , 2x + x2 } ⊂ P2 (R). b) S = {1, cos x, sen x} ⊂ C(R). c) S = {cos 2x, cos2 x, sen2 x} ⊂ C(R). Soluci´ on a) Realizaremos una combinaci´on lineal de los vectores de S y la igualaremos al elemento neutro de P2 (R), es decir, el polinomio 0 + 0x + 0x2 λ1 (1 − x) + λ2 (2 + x2 ) + λ3 (2x + x2 ) =

=λ1 + 2λ2 + (−λ1 + 2λ3 )x + (λ2 + λ3 )x2 = 0 + 0x + 0x2

(2.7)

Como dos polinomios coinciden si son iguales coeficiente a coeficiente, entonces (2.7) se satisface si y s´olo si  = 0    + 2λ3 = 0   λ2 + λ 3 = 0 

λ1 + 2λ2 −λ1

(2.8)

46

Espacios vectoriales de dimensi´ on finita que es un sistema compatible indeterminado de soluciones (λ1 , λ2 , λ3 ) = α(2, −1, 1), α ∈ R, por lo que S es linealmente dependiente. De la soluci´on se desprende que 2(1−x)+(2x+x2 ) = 2+x2 , por lo que si sustraemos de S el segundo polinomio obtenemos un conjunto S 0 = {1 − x, 2x + x2 } que es linealmente independiente.

b) Ahora tendremos que combinar linealmente las funciones de S e igualar al elemento neutro de C(R) (funci´on que toma el valor 0 para todo x) λ1 · 1 + λ2 cos x + λ3 sen x = 0 ∀ x

(2.9)

Pues bien, si la ecuaci´on (2.9) ha de satisfacerse ∀ x, tendr´a que hacerlo, en

particular para x = 0, x = π/2 y x = π. Introduciendo dichos valores de x en

(2.9) obtenemos el sistema λ1 + λ 2 λ1

 = 0    ←x=0

(2.10)

← x = π/2   = 0  ←x=π

+ λ3 = 0

λ1 − λ 2

cuya u ´ nica soluci´on es la trivial λ1 = λ2 = λ3 = 0, por lo que S es linealmente independiente. c) Sin m´as que recurrir a la relaci´on trigonom´etrica cos2 x − sen2 x = cos 2x

(2.11)

es claro que S es linealmente dependiente. Sustrayendo el primer vector obtenemos el conjunto S 0 = {cos2 x, sen2 x} linealmente independiente.

2.2.



Espacios vectoriales de dimensi´ on finita. Bases

Pregunt´emonos ahora cu´antos vectores puede contener un conjunto linealmente independiente en un cierto espacio vectorial V . ¿Existir´a un n´ umero m´aximo o tendremos conjuntos independientes arbitrariamente grandes? Eso depender´a del espacio ´ Apuntes de Algebra Lineal

A. Rodr´ıguez

2.2 Espacios vectoriales de dimensi´ on finita. Bases

47

vectorial en cuesti´on. De momento, nos restringiremos a aquellos espacios vectoriales en los que los conjuntos independientes s´olo pueden contener un n´ umero finito de vectores. Definici´ on 2.3 Sea (V, +, ·) un espacio vectorial sobre R. Se dice que V es un espacio

vectorial de dimensi´ on finita si satisface, adem´as de las 8 propiedades dadas en 2.1, la siguiente propiedad (a la que llamaremos axioma de dimensi´ on finita) 9. Existen n vectores linealmente independientes en V y todo conjunto de n + 1 vectores es linealmente dependiente. En tal caso, diremos que la dimensi´ on del espacio vectorial es n dim V = n

(2.12)

y llamaremos base de V a cualquier conjunto B = {v 1 , v 2 , . . . , v n } de n vectores

linealmente independientes de V .

Si un espacio vectorial no cumple la propiedad 9, diremos que es de dimensi´ on infinita. La dimensi´on de un espacio vectorial de dimensi´on finita es por tanto el m´aximo n´ umero de vectores linealmente independientes que podemos encontrar en V y coincide por definici´on con el n´ umero de elementos que contenga una base de V . Veamos el ejemplo m´as sencillo de espacio vectorial de dimensi´on finita. Ejemplo 2.2 Probar que Rn es un espacio vectorial de dimensi´on finita y que dim Rn = n. Soluci´ on Hemos de probar que Rn satisface el axioma de dimensi´on finita. Para ello hemos de encontrar primero un conjunto linealmente independiente con n vectores. Sea el conjunto i n

Bc = {e1 , e2 , . . . , en } ⊂ R ,

↓ con ei = (0, 0, . . . , 1, . . . , 0)

(2.13)

48

Espacios vectoriales de dimensi´ on finita formado por vectores cuyas componentes son todas nulas menos la componente i−´esima cuyo valor es la unidad. Veamos que se trata de un conjunto independiente. En efecto λ1 e1 + λ2 e2 + · · · + λn en = (λ1 , λ2 , . . . , λn ) = 0 ⇒ λ1 = λ2 = · · · = λn = 0 (2.14) Veamos ahora que cualquier conjunto con un n´ umero superior de vectores es necesariamente linealmente dependiente. En efecto, sea S = {v 1 , v 2 , . . . , v n , v n+1 } ⊂ Rn

un conjunto de n + 1 vectores en Rn . Podemos denotar sus componentes como v i = (ai1 , ai2 , . . . ain ) para i = 1, . . . , n + 1. Si disponemos los n + 1 vectores en las filas de una matriz 

    A=   

a11

a12

...

a1n

a21 .. .

a22 .. .

...

a2n .. .

an1

an2

...

an+1,1 an+1,2 . . .

ann an+1,n

        

(2.15)

(n+1)×n

es claro que, seg´ un el teorema del rango, Rg(A) 6 n, por lo que Rg(S) es, a lo sumo, n, por lo que no puede existir ning´ un conjunto con n+1 vectores linealmente independientes en Rn . Como, adem´as, Bc dado en (2.13) contiene n vectores independientes, podemos concluir que Rn es de dimensi´on finita e igual a n. Por definici´on Bc ser´a una base —a la que llamaremos base can´ onica— de Rn .



Veamos ahora que las bases juegan un papel fundamental en los espacios vectoriales de dimensi´on finita. Teorema 2.1 Sea V un espacio vectorial de dimensi´on finita con dim V = n y sea B = {v 1 , v 2 , . . . , v n } una base de V . Entonces, todo vector v ∈ V se puede represen-

tar de manera u ´nica como una combinaci´on lineal de los vectores de B v = x1 v 1 + x2 v 2 + · · · + x n v n

(2.16)

A los coeficientes x1 , x2 , . . . , xn de la combinaci´on lineal (2.16) les llamaremos coordenadas de v en la base B. ´ Apuntes de Algebra Lineal

 A. Rodr´ıguez

2.2 Espacios vectoriales de dimensi´ on finita. Bases

49

Demostraci´ on Consideremos el conjunto S = B ∪ {v} = {v 1 , v 2 , . . . , v n , v} que, al contener n + 1 vectores en un espacio de dimensi´on n ha de ser linealmente dependiente. Por dicho motivo, existir´a una relaci´on lineal entre sus vectores α1 v 1 + α2 v 2 + · · · + αn v n + βv = 0

(2.17)

en la que no todos los coeficientes ser´an nulos. Es m´as, ha de ser necesariamente β 6= 0 ya que, en caso contrario, al ser 0v = 0 la ecuaci´on (2.17) se convierte en α1 v 1 + α 2 v 2 + · · · + α n v n = 0

(2.18)

de donde, al ser B un conjunto linealmente independiente tenemos λ1 = · · · = λn = 0,

por lo que la relaci´on (2.17) se convierte en la trivial, en contra de lo supuesto. Por tanto, al ser β 6= 0 podemos despejar v en (2.17) para obtener v=−

α2 αn α1 v1 − v2 − · · · − vn β β β

(2.19)

donde, si hacemos −αi /β ≡ xi , i = 1, . . . , n, obtenemos la relaci´on (2.16) v = x1 v 1 + x2 v 2 + · · · + x n v n

(2.20)

S´olo falta probar entonces, que (2.20) es u ´ nica. Para ello supongamos que existe otra forma de representar v como combinaci´on lineal de los vectores de B v = x01 v 1 + x02 v 2 + · · · + x0n v n

(2.21)

Si ahora restamos (2.20) y (2.21) obtenemos (x1 − x01 )v 1 + (x2 − x02 )v 2 + · · · + (xn − x0n )v n = 0

(2.22)

Pero como B es linealmente independiente, entonces x1 − x01 = x2 − x02 = · · · =

xn − x0n = 0, por lo que x1 = x01 , x2 = x02 , . . . , xn = x0n y las dos representaciones

(2.20) y (2.21) coinciden.



Si volvemos al ejemplo 2.2, la base can´onica de Rn nos permite escribir trivialmente

50

Espacios vectoriales de dimensi´ on finita cualquier vector como combinaci´on lineal de sus vectores, en efecto, es inmediato que (x1 , x2 , . . . , xn ) = x1 e1 + x2 e2 + · · · + xn en

(2.23)

por lo que en la base can´onica de Rn las componentes de un vector coinciden con sus coordenadas. Esta situaci´on se complicar´a en otras bases. El teorema 2.1 afirma entonces que en los espacios vectoriales de dimensi´on finita todo vector v se puede poner en correspondencia con un u ´ nico vector de Rn , compuesto por las coordenadas (x1 , x2 , . . . , xn ) de v en una cierta base B de V . Esto hace que los espacios vectoriales de dimensi´on finita sean m´as manejables que los de dimensi´on infinita. Ahora bien, ¿c´omo distinguir entre unos y otros? Comprobar que se cumple el axioma 9 de dimensi´on finita no es, en general, una tarea f´acil. Veremos ahora una forma alternativa.

Teorema 2.2 Sea V un espacio vectorial y sea B = {v 1 , v 2 , . . . , v n } ⊂ V tal que 1. B es linealmente independiente. 2. Todo vector v ∈ V se puede expresar como combinaci´on lineal de los vectores de B.

Entonces V es de dimensi´on finita con dim V = n y B es una base de V .



Demostraci´ on Demostraremos primero que V es de dimensi´on finita. Consideremos un conjunto de m vectores S = {u1 , u2 , . . . , um } con m > n. Veamos que ha de ser linealmente dependiente. Para ello, planteemos la relaci´on lineal λ1 u 1 + λ 2 u 2 + · · · + λ j u j + · · · + λ m u m = 0

(2.24)

Ahora bien, por hip´otesis los vectores de S pueden expresarse como combinaci´on lineal de los de B, es decir, existen coeficientes aij tales que uj = a1j v 1 + a2j v 2 + · · · + aij v i + · · · + anj v n , ´ Apuntes de Algebra Lineal

j = 1, . . . , m

(2.25) A. Rodr´ıguez

2.2 Espacios vectoriales de dimensi´ on finita. Bases

51

Si introducimos las relaciones (2.25) en (2.24) obtenemos λ1 (a11 v 1 + a21 v 2 + · · · + ai1 v i + · · · + an1 v n )+ +λ2 (a12 v 1 + a22 v 2 + · · · + ai2 v i + · · · + an2 v n )+ .. . +λj (a1j v 1 + a2j v 2 + · · · + aij v i + · · · + anj v n )+ .. .

(2.26)

+λm (a1m v 1 + a2m v 2 + · · · + aim v i + · · · + anm v n ) = 0 Si ahora reorganizamos (2.26) sacando factor com´ un a los vectores de B obtenemos (λ1 a11 + λ2 a12 + · · · + λj a1j + · · · + λm a1m )v 1 + +(λ1 a21 + λ2 a22 + · · · + λj a2j + · · · + λm a2m )v 2 + .. . +(λ1 ai1 + λ2 ai2 + · · · + λj aij + · · · + λm aim )v i + .. .

(2.27)

+(λ1 an1 + λ2 an2 + · · · + λj anj + · · · + λm anm )v n = 0 Ahora bien, como por hip´otesis B es linealmente independiente, la relaci´on (2.26) se satisfar´a si y s´olo si λ1 a11 + λ2 a12 + · · · + λj a1j + · · · + λm a1m = 0 λ1 a21 + λ2 a22 + · · · + λi a2j + · · · + λm a2m = 0 .. . λ1 ai1 + λ2 ai2 + · · · + λi aij + · · · + λm aim = 0 .. .

(2.28)

λ1 an1 + λ2 an2 + · · · + λi anj + · · · + λm anm = 0 que es un sistema lineal homog´eneo de n ecuaciones y m > n inc´ognitas que necesariamente ha de tener grados de libertad y por tanto soluciones distintas de la trivial. En consecuencia S, es decir, cualquier conjunto con un n´ umero superior a n de vectores

52

Espacios vectoriales de dimensi´ on finita es linealmente dependiente por lo que V es de dimensi´on n. Por definici´on, entonces, B ser´a una base de V .



Tenemos por tanto un m´etodo para identificar los espacios vectoriales de dimensi´on finita. Como indica el teorema 2.2, consiste simplemente en encontrar una base de dicho espacio. Apliqu´emoslo a algunos espacios conocidos. Ejemplos de espacios vectoriales de dimensi´ on finita. Como ya hemos visto en el ejemplo 2.2, Rn es de dimensi´on finita con dim Rn = n. Apliquemos ahora el teorema 2.2 para encontrar m´as espacios de dimenis´on finita. i) V = Mm×n (R). Consideremos el conjunto j

Bc = {Eij , i = m, . . . , j = 1, . . . , n},

con



 0 ··· 0 ··· 0  . ..  ..  .. .  .     Eij =  0 · · · 1 · · · 0  ← i  . ..  ..   . .  .  . 0 ··· 0 ··· 0 

integrado por m × n matrices cuyos elementos son todos nulos salvo el elemento

situado en la fila i y columna j que toma el valor 1. Es f´acil ver que Bc es linealmente independiente formando una combinaci´on lineal de sus matrices e igual´andolo a la matriz nula 

λ11  .  .. m X n  X  λij Eij =  λi1  . i=1 j=1  .  .

···

λ1j .. .

···

λij .. .

λm1 · · · λmj

  λ1n  ..   .      · · · λin  =   ..    .   · · · λmn

···

 0 ··· 0 ··· 0 ..  .. .. .  . .   0 ··· 0 ··· 0  ..  .. ..  .  . . 0 ··· 0 ··· 0

de donde se desprende que ha de ser λij = 0 para i = 1, . . . , m, j = 1, . . . , n. Por otro lado, cualquier matriz A = (aij ) ⊂ V se puede expresar como combinaci´on ´ Apuntes de Algebra Lineal

A. Rodr´ıguez

2.2 Espacios vectoriales de dimensi´ on finita. Bases

53

lineal de las matrices de Bc con unos coeficientes que coinciden precisamente con los elementos de matriz 

a11  .  .. m X n  X  aij Eij =  ai1  . i=1 j=1  .  .

···

a1j .. .

···

aij .. .

am1 · · · amj

 a1n ..  .    · · · ain  = A ..   .  · · · amn

···

por lo que se satisfacen las condiciones del teorema 2.2, V es dimensi´on finita con dim Mm×n (R) = m · n

(2.29)

Bc es una base, a la que llamaremos base can´onica de V y (a11 , a12 , . . . , a1n , a21 , a22 , . . . , a2n , . . . , am1 , am2 , . . . amn ) ∈ Rm·n

(2.30)

son las coordenadas de la matriz A = (aij ) en Bc .

ii) V = Pn (R). Consideremos ahora el conjunto de n + 1 polinomios Bc = {1, x, x2 , . . . , xn }

(2.31)

Probemos que es linealmente independiente igualando al polinomio nulo una combinaci´on lineal de sus elementos λ0 · 1 + λ1 x + λ2 x2 + · · · + λn xn = 0 · 1 + 0x + 0x2 + · · · + 0xn Como para que dos polinomios coincidan han de ser iguales entre s´ı todos sus coeficientes, entonces λ0 = λ1 = · · · = λn = 0. Por otro lado, todo polinomio

p ⊂ V puede escribirse como una combinaci´on lineal de los vectores de Bc , en

efecto

p(x) =

n X i=0

a i xi = a 0 · 1 + a 1 · x + · · · + a n · x n

(2.32)

por lo que nuevamente se satisfacen las condiciones del teorema 2.2, V es de

54

Espacios vectoriales de dimensi´ on finita dimensi´on finita con dim Pn (R) = n + 1

(2.33)

Bc es una base (que llamaremos can´onica) de V y (a0 , a1 , . . . , an ) ∈ Rn+1

(2.34)

son las coordenadas del polinomio p(x) = a0 + a1 x + · · · + an xn en Bc . Ahora bien, no todos los espacios vectoriales son de dimensi´on finita. Existen espacios vectoriales donde podemos encontrar conjuntos ilimitados de vectores linealmente independientes, como veremos en el siguiente ejemplo.

Ejemplo 2.3 Comprobaremos que el conjunto de 2n + 1 funciones S = {1, cos x, cos 2x, . . . , cos nx, sen x, sen 2x, . . . , sen nx} ⊂ C(R)

(2.35)

es linealmente independiente. Para ello, como es habitual tomaremos una combinaci´on lineal de sus elementos igualada a la funci´on nula a0 · 1+a1 cos x + a2 cos 2x + · · · + an cos nx +b1 sen x + b2 sen 2x + · · · + bn sen nx = 0 ∀ x

(2.36)

Multipliquemos ahora la expresi´on (2.36) por cos x e integremos en el intervalo [0, 2π] Z



(a0 cos x+a1 cos x cos x + a2 cos x cos 2x + · · · + an cos x cos nx

0

+b1 sen x cos x + b2 sen 2x cos x + · · · + bn sen nx cos x) dx =

Z



0 cos x dx 0

Es claro que la integral de la derecha es trivialmente nula, mientras que la integral de la izquierda, por linealidad puede descomponerse en una suma de integrales a0

Z



cos x dx+a1 0

+b1

Z



cos x cos x dx + a2

0 Z 2π

sen x cos x dx + b2

0

´ Apuntes de Algebra Lineal

Z

2π 0

Z

cos x cos 2x dx + · · · + an 2π

0

sen 2x cos x dx + · · · + bn

Z



cos x cos nx dx 0

Z



sen nx cos x dx = 0 0

A. Rodr´ıguez

2.3 Isomorfismo entre espacios vectoriales

55

Si ahora tenemos en cuenta que Z

2π 0

cos kx sen lx dx = 0 ∀ k, l;

Z



cos kx cos lx dx = 0

Z



sen kx sen lx dx = 0

(

0, si k 6= l

π, si k = l

todas las integrales en la suma de arriba se anulan salvo la segunda, con lo que obtenemos πa1 = 0 ⇒ a1 = 0.

Es claro que, de haber multiplicado (2.36) por cos 2x, cos 3x, . . . , cos nx, tras in-

tegrar habr´ıamos obtenido respectivamente a2 = 0, a3 = 0, . . . , an = 0. Si posteriormente multiplicamos por las funciones sen x, sen 2x, . . . , sen nx, obtenemos b1 = b2 = · · · = bn = 0, con lo que (2.36) queda reducida finalmente a a0 · 1 = 0.

Ahora bien, al ser S linealmente independiente y ser n arbitrario podemos ob-

tener conjuntos de funciones linealmente independientes con tantas funciones como queramos, por lo que el espacio vectorial V = C(R) es de dimensi´on infinita. An´alogo razonamiento puede hacerse para otros espacios vectoriales de funciones como V = C(a, b) o´ V = C n (a, b). Puede comprobarse asimismo que el espacio vectorial V = P (R) de los polinomios de cualquier orden es tambi´en de dimensi´on infinita ya que, como hemos probado anteriormente, el conjunto S = {1, x, . . . , xn } es linealmente independiente, pero ahora n es arbitrario.

2.3.



Isomorfismo entre espacios vectoriales

Probaremos ahora que todos los espacios vectoriales de la misma dimensi´on (finita) son, en un cierto sentido, el mismo. En efecto, sea V un espacio vectorial con dim V = n y sea B = {v 1 , v 2 , . . . , v n } una base ordenada —esto es, si alteramos el orden de los vectores la consideramos una base distinta— de V . Como hemos visto, cualquier

vector v ∈ V puede representarse en funci´on de sus coordenadas en B de la forma v = x1 v 1 + x2 v 2 + · · · + x n v n

(2.37)

Pues bien, la relaci´on (2.37) nos permite establecer una correspondencia biun´ıvoca v ∈ V ←→ (x1 , x2 , . . . , xn )B ∈ Rn

(2.38)

56

Espacios vectoriales de dimensi´ on finita entre vectores de V y vectores de Rn , donde a cada vector de V se le hace corresponder un u ´ nico vector de Rn (cuyas componentes son las coordenadas de v en B) y viceversa. Dicha correspondencia se conoce con el nombre de isomorfismo (concepto que estudiaremos en profundidad en el tema 5) ya que es lineal, esto es, preserva la suma y el producto por un escalar. En efecto, si v = x1 v 1 + x2 v 2 + · · · + xn v n , w = y1 v 1 + y2 v 2 + · · · + yn v n y λ ∈ R, entonces

v + w = (x1 + y1 )v 1 + (x2 + y2 )v 2 + · · · + (xn + yn )v n λv = λx1 v 1 + λx2 v 2 + · · · + λxn v n por lo que el isomorfismo les har´a corresponder v + w ←→ (x1 + y1 , x2 + y2 , . . . , xn + yn )B = (x1 , x2 , . . . , xn )B + (y1 , y2 , . . . , yn )B λv ←→ (λx1 , λx2 , . . . , λxn )B = λ(x1 , x2 , . . . , xn )B Es decir, a la suma de dos vectores le hace corresponder la suma de los vectores de coordenadas y al producto de un vector por un escalar le hace corresponder el vector de coordenadas multiplicado por el escalar. Se dice que dos espacios vectoriales son isomorfos si entre ellos se puede establecer un isomorfismo. Hemos probado entonces el siguiente resultado Teorema 2.3 Todos espacio vectorial de dimensi´on n es isomorfo a Rn .



Esta circunstancia nos permite trabajar con Rn en lugar de con espacios vectoriales m´as complicados siempre y cuando ´estos sean de dimensi´on n. Por ejemplo, el resultado anterior nos asegura que Mm×n (R) es isomorfo a Rm·n , y Pn (R) es isomorfo a Rn+1 .

2.4.

Cambios de base

Ahora bien, el isomorfismo anterior tiene el inconveniente de que es dependiente de la base B de V elegida. En efecto, sean B = {v 1 , v 2 , . . . , v n } y B 0 = {v 01 , v 02 , . . . , v 0n } ´ Apuntes de Algebra Lineal

A. Rodr´ıguez

2.4 Cambios de base

57

dos bases distintas de V . Para cada vector v ∈ V existir´an unas u ´ nicas coordenadas en cada base, es decir podemos expresarlo simultaneamente de las dos formas siguientes v = x1 v 1 + x2 v 2 + · · · + xn v n = x01 v 01 + x02 v 02 + · · · + x0n v 0n

(2.39)

El problema radica ahora en determinar la relaci´on entre las coordenadas (x1 , x2 , . . . , xn )B de v en B y las coordenadas (x01 , x02 , . . . , x0n )B 0 de v en B 0 . Veamos c´omo hacerlo.

En primer lugar, por ser B una base de V todos los vectores del espacio, y en particular los vectores de B 0 , se podr´an expresar como combinaci´on lineal de los vectores de B. Es decir, existir´an unas u ´ nicas coordenadas pij tales que podemos escribir

v 01 = p11 v 1 + p21 v 2 + · · · + pi1 v i + · · · + pn1 v n

v 02 = p12 v 1 + p22 v 2 + · · · + pi2 v i + · · · + pn2 v n .. . v 0j = p1j v 1 + p2j v 2 + · · · + pij v i + · · · + pnj v n .. .

v 0n = p1n v 1 + p2n v 2 + · · · + pin v i + · · · + pnn v n Si introducimos las relaciones (2.40) en (2.39) obtenemos

(2.40)

58

Espacios vectoriales de dimensi´ on finita

v=

n X i=1

x0i v 0i =x01 v 01 + x02 v 02 + · · · + x0n v 0n =

n X

n X

x0i

i=1

pji v j

j=1

!

=x01 (p11 v 1 + p21 v 2 + · · · + pi1 v i + · · · + pn1 v n )+

+x02 (p12 v 1 + p22 v 2 + · · · + pi2 v i + · · · + pn2 v n )+ .. . +x0j (p1j v 1 + p2j v 2 + · · · + pij v i + · · · + pnj v n )+ .. . +x0n (p1n v 1 + p2n v 2 + · · · + pin v i + · · · + pnn v n )

Ahora bien, si en la expresi´on anterior sacamos factor com´ un a los vectores de B (o, lo que es lo mismo, intercambiamos el orden de los sumatorios) obtenemos

v=

n n X X j=1

=(x01 p11

!

x0i pji v j =

i=1

+ x02 p12 + · · · + x0j p1j + · · · + x0n p1n )v 1 +

+(x01 p21 + x02 p22 + · · · + x0j p2j + · · · + x0n p2n )v 2 + .. . +(x01 pi1 + x02 pi2 + · · · + x0j pij + · · · + x0n pin )v i + .. . +(x01 pn1

+

x02 pn2

+···+

x0j pnj

+···+

x0n pnn )v n

=

n X

xj v j

j=1

Es decir, hemos encontrado la siguiente relaci´on entre las coordenadas en ambas bases ´ Apuntes de Algebra Lineal

A. Rodr´ıguez

2.4 Cambios de base

59

 x1 = x01 p11 + x02 p12 + · · · + x0j p1j + · · · + x0n p1n     0 0 0 0  x2 = x1 p21 + x2 p22 + · · · + xj p2j + · · · + xn p2n      ..  . xi = x01 pi1 + x02 pi2 + · · · + x0j pij + · · · + x0n pin      ..   .     0 0 0 0 xn = x1 pn1 + x2 pn2 + · · · + xj pnj + · · · + xn pnn

(2.41)

que son las llamadas ecuaciones de cambio de base. Tambi´en pueden reescribirse matricialmente como coord.

coord.

coord.

coord.

coord.

de v

de v 01

de v 02

de v 0n

de v

en B

en B

en B

en B

en B 0







p11

p12

p1n

p21 .. .

p22 .. .

p2n .. .

pi1 .. .

pi2 .. .

pn1

pn2





 x1   x2   ..  .    xi  .  ..   xn



      =      

             

···

pin .. . pnn

             

            





x01   x02   ..  .    x0i  ..  .    0 xn

o bien, si llamamos P = (pij ), X ≡ (x1 x2 · · · xn )T , X 0 ≡ (x01 x02 · · · x0n )T , finalmente resulta

X = P X0

(2.42)

donde hemos introducido la matriz P llamada matriz de cambio de base de B a B 0 . Por comparaci´on con (2.40) se observa que las columnas de la matriz P de cambio de base de B a B 0 contienen las coordenadas de los vectores de la base B 0 expresados en la base B. ¿Cu´al ser´ıa la matriz Q de cambio de base de B 0 a B? Para calcularla necesitar´ıamos conocer las coordenadas de los vectores de B expresados en B 0 (es decir, la relaci´on inversa a (2.40)) y disponerlas en columnas. Eso dar´ıa lugar a la ecuaci´on X 0 = QX

(2.43)

60

Espacios vectoriales de dimensi´ on finita Ahora bien, comparando (2.42) y (2.43) obtenemos X = P X 0 = P QX ∀ X ⇒ P Q = I ⇒ Q = P −1

(2.44)

de donde se deduce que toda matriz de cambio de base es invertible y su inversa es la matriz que realiza el cambio en sentido contrario. Ejemplo 2.4 Sea V = M2 (R) el espacio vectorial de las matrices cuadradas de

orden 2 de coeficientes reales. a) Demostrar que B0 =

(

1 2 3 4

!

,

2 3 4 1

!

3 4

,

1 2

!

4 1

,

2 3

!)

(2.45)

es una base de V . b) Hallar las coordenadas de la matriz A =

1 1 1 1

!

en dicha base.

Soluci´ on a) Para ser una base de V , B 0 ha de ser linealmente independiente y contener tantos vectores como la dimensi´on del espacio. Como dim M2 (R) = 2 · 2 = 4 y B 0 tiene 4 matrices s´olo nos queda probar que es linealmente independiente. Para ello

formaremos una combinaci´on lineal de sus vectores igualada a la matriz nula λ1

1 2 3 4

!

+ λ2

2 3 4 1

!

+ λ3

3 4 1 2

!

+ λ4

4 1 2 3

!

=

0 0 0 0

!

(2.46)

Una vez hecha la combinaci´on lineal (2.46) se reduce a λ1 + 2λ2 + 3λ3 + 4λ4 2λ1 + 3λ2 + 4λ3 + λ4 3λ1 + 4λ2 + λ3 + 2λ4 4λ1 + λ2 + 2λ3 + 3λ4

!

=

0 0 0 0

!

(2.47)

Como dos matrices son iguales si coinciden elemento a elemento, entonces ha de ´ Apuntes de Algebra Lineal

A. Rodr´ıguez

2.4 Cambios de base

61

ser

 λ1 + 2λ2 + 3λ3 + 4λ4 = 0     2λ1 + 3λ2 + 4λ3 + λ4 = 0  3λ1 + 4λ2 + λ3 + 2λ4 = 0      4λ1 + λ2 + 2λ3 + 3λ4 = 0

(2.48)

Sistema cuya u ´ nica soluci´on es la trivial, luego B 0 es independiente.

b) Conocemos las coordenadas de la matriz A en la base can´onica de M2 (R) Bc =

(

1 0 0 0

!

,

0 1 0 0

!

,

0 0 1 0

!

0 0

,

0 1

!)

(2.49)

ya que trivialmente coinciden con los elementos de matriz 1 0

A=1·

0 0

!

0 1

+1·

0 0

!

+1·

0 0 1 0

!

+1·

0 0 0 1

!

(2.50)

es decir, A → (1, 1, 1, 1)Bc . ¿Cu´ales ser´an sus coordenadas en la base B 0 ? Para ello tendremos que plantear la combinaci´on A=

1 1 1 1

!

= a0

1 2 3 4

!

+ b0

2 3 4 1

!

+ c0

3 4 1 2

!

+ d0

4 1 2 3

!

(2.51)

que nos lleva al sistema de ecuaciones  a0 + 2b0 + 3c0 + 4d0 = 1     0 0 0 0 2a + 3b + 4c + d = 1  3a0 + 4b0 + c0 + 2d0 = 1      0 0 0 0 4a + b + 2c + 3d = 1

(2.52)

cuya u ´ nica soluci´on a0 = b0 = c0 = d0 = 1/10 nos da las coordenadas de A en B 0 : A → (1/10, 1/10, 1/10, 1/10)B 0 . Alternativamente, podr´ıamos haber planteado las

62

Espacios vectoriales de dimensi´ on finita ecuaciones de cambio de base entre B y B 0 , que son de la forma 

a





1 2 3 4



a0

     b   2 3 4 1   b0  =      0  c   3 4 1 2  c d0 d 4 1 2 3 {z } | P

     

(2.53)

donde la matriz P de cambio de base en (2.53) (que coincide con la matriz asociada de los sistemas (2.48) y (2.53)) contiene en sus columnas las coordenadas de los vectores de B 0 en Bc que, de nuevo trivialmente coinciden con sus elementos de matriz ya que Bc es la base can´onica. Si en (2.53) hacemos a = b = c = d = 1 obtenemos de nuevo el sistema (2.52) cuya soluci´on nos da las coordenadas de A en B 0 .

´ Apuntes de Algebra Lineal



A. Rodr´ıguez

Get in touch

Social

© Copyright 2013 - 2024 MYDOKUMENT.COM - All rights reserved.