40 Matemáticas I. Parte II. Álgebra Lineal. I.T.I. en Electricidad. Prof: José Antonio Abia Vian

40 – Matem´aticas I Parte II ´ Algebra Lineal Prof: Jos´ e Antonio Abia Vian I.T.I. en Electricidad ´ 41 – Matem´aticas I : Algebra Lineal Tema

1 downloads 47 Views 308KB Size

Recommend Stories


Prof. Titular: Dr. Antonio Brahin
II CATEDRA DE PATOLOGIA Y CLINICA QUIRURGICA Prof. Titular: Dr. Antonio Brahin U.N.T SEMIOLOGIA DE MIEMBROS INFERIORES Y ARTERIAL PERIFERICO PRACTI

Física II. Electricidad y Magnetismo
Física II. Electricidad y Magnetismo Proemio Por un prolongado período consideré innecesario el escribir apuntes de clase puesto que hay muy buenos te

~I ~I~ ~IIIII ~II ~ II~ ~II ~I~ ~I ~I~ ~I ~ II~I ~ II~ m
Date Printed: 04/23/2009 JTS Box Number: IFES 69 Tab Number: 92 Document Title: Guia Informativa Document Date: 2001 Document Country: . Per

Story Transcript

40 – Matem´aticas I

Parte II

´ Algebra Lineal

Prof: Jos´ e Antonio Abia Vian

I.T.I. en Electricidad

´ 41 – Matem´aticas I : Algebra Lineal

Tema 4

Espacios vectoriales reales 4.1

Espacios vectoriales

Definici´ on 88.- Un espacio vectorial real V es un conjunto de elementos denominados vectores, junto con dos operaciones, una que recibe el nombre de “suma de vectores” y otra que recibe el nombre de “producto de vectores por n´ umeros reales” o “producto por escalares”, que verifican las siguientes propiedades: (1) u + v ∈ V ;

∀ u, v ∈ V .

(2) u + v = v + u ;

∀ u, v ∈ V .

(3) u + ( v + w ) = ( u + v ) + w ;

∀ u, v , w ∈ V .

(4) Existe un vector, llamado vector cero y denotado por 0 , tal que: 0 + u = u + 0 = u ;

∀u ∈V.

(5) Para cada u ∈ V , existe un vector de V , llamado opuesto de u y denotado por −u , tal que u + ( −u ) = 0 . (6) k u ∈ V ;

∀ k ∈ IR y ∀ u ∈ V .

(7) k( u + v ) = k u + k v ; (8) (k + l) u = k u + l u ; (9) (kl) u = k(l u ); (10) 1u = u ;

∀ k ∈ IR y ∀ u , v ∈ V . ∀ k, l ∈ IR y ∀ u ∈ V .

∀ k, l ∈ IR y ∀ u ∈ V .

∀u ∈V.

Por ser los escalares de IR , se dice que V es un IR -espacio vectorial. Se pueden considerar espacios vectoriales sobre otros cuerpos de escalares, como C . Ejemplo Los conjuntos IRn , los conjuntos de polinomios Pn [X] = {P (X) ∈ IR[X] : gr(P ) ≤ n} y los conjuntos de matrices reales Mm×n = {matrices de tama˜ no m×n }, con las operaciones usuales en cada uno de ellos, son espacios vectoriales reales. Propiedades 89.- Algunas propiedades que se deducen de las anteriores son: (i) 0u = 0 .

(ii) k 0 = 0 .

(iii) (−1) u = −u .

(iv) k u = 0 ⇐⇒ k = 0 ´o u = 0 . (v) El vector cero de un espacio vectorial es u ´nico. (vi) El vector opuesto de cada vector del espacio vectorial es u ´nico.

4.2

.

Subespacios vectoriales

Definici´ on 90.- Un subconjunto W de un espacio vectorial V se dice que es un subespacio vectorial de V , si W es un espacio vectorial con las operaciones definidas en V . Como W ⊆ V , todos los vectores de W verifican las propiedades 2 a 5 y 7 a 10, por tanto es suficiente probar que las operaciones suma y producto por escalares son internas en W , es decir, que se verifican las propiedades (1) y (6) en W : ( 1∗ ) u + v ∈ W ;

Prof: Jos´ e Antonio Abia Vian

∀ u, v ∈ W

( 6∗ ) k u ∈ W ;

∀ u ∈ W y ∀ k ∈ IR

I.T.I. en Electricidad

´ 42 – Matem´aticas I : Algebra Lineal

4.3 Base y dimensi´ on

Estas dos propiedades son equivalentes a la propiedad u ´nica: k u + l v ∈ W ; ∀ u , v ∈ W y ∀ k, l ∈ IR. Nota: Es claro, que si W es un subespacio de V , entonces 0 ∈ W . Ejemplo P2 [X] es un subespacio de P4 [X], pues es un subconjunto suyo y si P (X), Q(X) ∈ P2 [X], el grado de kP (X) + lQ(X) es gr(kP + lQ) = m´ax{gr(kP ), gr(lQ)} ≤ m´ax{gr(P ), gr(Q)} ≤ 2, por lo que est´a en P2 [X]. Sin embargo, {P (X) : gr(P ) = 2} no es un subespacio de P4 [X], por dos razones: primero, porque no contiene al polinomio cero; y segundo, no verifica la propiedad (1∗ ) ya que X2 y 2X − X2 son polinomios del conjunto pero su suma X2 + (2X − X2 ) = 2X es un polinomio de grado 1 que no est´a en el conjunto. 4 Definici´ on 91.- Se dice que un vector v ∈ V es una combinaci´ on lineal de los vectores v1 , v2 , . . . , vn si, y s´olo si, ∃ c1 , c2 , . . . , cn ∈ IR tales que v = c1 v1 + c2 v2 + · · · + cn vn . Definici´ on 92.- Dado un conjunto de vectores S = {v1 , v2 , . . . , vk } de un espacio vectorial V , llamaremos subespacio lineal generado por S y que denotaremos por lin S ´o lin{v1 , v2 , . . . , vk } , al conjunto de todas las combinaciones lineales que se pueden formar con los vectores de S : n o lin S = lin{ v1 , v2 , . . . , vk } = c1 v1 + c2 v2 + · · · + ck vk : ∀ ci ∈ IR y se dir´a que S genera lin S o que v1 , v2 , . . . , vk generan lin S . Naturalmente lin S es un subespacio vectorial de V y, de hecho, es el m´as peque˜ no que contiene a los vectores de S (ver ejercicio 4.6). Definici´ on 93.- Dado un conjunto S = { v1 , v2 , . . . , vk } de vectores del espacio vectorial V , la ecuaci´on vectorial c1 v1 + c2 v2 + · · · + ck vk = 0 tiene al menos una soluci´on, a saber: c1 = c2 = · · · = ck = 0 . Si esta soluci´on es u ´nica, entonces se dice que S es un conjunto linealmente independiente (o que los vectores de S son linealmente independientes). Si existen otras soluciones, entonces se dice que S es linealmente dependiente (los vectores son linealmente dependientes). Ejemplo El vector 2X − X2 de P2 [X] est´a generado por los vectores X − 1 y X2 − 2:  −λ − 2µ = 0 λ=2 2X − X2 = λ(X − 1) + µ(X2 − 2) = λX − λ + µX2 − 2µ = (−λ − 2µ) + λX + µX2 =⇒  µ = −1 luego 2X − X2 = 2(X − 1) + (−1)(X2 − 2) . Ejemplo Los polinomios X + 2 y X2 de P2 [X] son linealmente independientes: si λ(X + 2) + µX2 = 0 (al polinomio cero), se tiene que 0 = λ(X + 2) + µX2 = 2λ + λX + µX2 =⇒ 2λ = 0 , λ = 0 y µ = 0, ya que los coeficientes de ambos polinomios deben coincidir. 4 Nota: Si los vectores { v1 , v2 , . . . , vk } son linealmente dependientes, al menos uno de ellos se puede escribir como una combinaci´on lineal de los restantes; y si son linealmente independientes ninguno de ellos puede ser generado por los restantes. Es decir, se tiene la siguiente caracterizaci´on para que un conjunto de dos o m´as vectores sea linealmente dependiente (ver ejercicio 4.7): “Un conjunto de dos o m´as vectores es linealmente dependiente si, y s´olo si, al menos uno de los vectores es una combinaci´on lineal de los restantes.”

4.3

Base y dimensi´ on

Lema 94.- Si vn+1 = c1 v1 + · · · + cn vn , entonces lin{v1 , . . . , vn , vn+1 } = lin{ v1 , . . . , vn } . Es f´acil asumir que este resultado es cierto, ya que cualquier combinacion lineal de los n + 1 vectores puede reconvertirse a una combinaci´on lineal de los n primeros, por simple sustituci´on. En otras palabras, puede reducirse el n´ umero de generadores mientras haya dependencia lineal, lo que nos lleva a: Definici´ on 95.- Sean V un espacio vectorial y S un conjunto finito de vectores de V . Diremos que S es una base de V si: a) S es linealmente independiente y b) S genera a V

Prof: Jos´ e Antonio Abia Vian

I.T.I. en Electricidad

´ 43 – Matem´aticas I : Algebra Lineal

4.3 Base y dimensi´ on

Observaci´ on: El comentario anterior a esta definici´on nos indica la manera de reducir un conjunto generador del espacio a una base. Igualmente, podemos construir una base a partir de un conjunto linealmente independiente de vectores: si S es linealmente independiente y lin S 6= V , tomando v ∈ V pero que v ∈ / lin S , el conjunto S ∪ { v } es linealmente independiente (ver el Lema 96 siguiente); y as´ı, se a˜ naden vectores a S hasta generar V . Lema 96.- Si S es un conjunto linealmente independiente de vectores de V y v ∈ V −lin S , entonces S∪{v } es linealmente independiente. . De cierta forma, estamos diciendo que una base tiene el menor n´ umero posible de generadores y el mayor n´ umero posible de vectores linealmente independientes (ver Lema 97 siguiente); luego ¿no tendr´a una base un n´ umero fijo de vectores? La respuesta la proporciona el Teorema de la base. Lema 97.- Sean V un espacio vectorial y B una base de V formada por n vectores. Entonces cualquier conjunto { v1 , v2 , . . . , vm } de vectores de V, con m > n , es linealmente dependiente. . Teorema de la base 98.- Cualesquiera dos bases de un espacio vectorial tienen el mismo n´ umero de elementos. Demostraci´on: La demostraci´on es muy sencilla si tenemos en cuenta el Lema anterior, pues si B1 es una base de n elementos y B2 es una base de m elementos, por ser B1 base y B2 linealmente independiente, m 6> n y por ser B2 base y B1 linealmente independiente n 6> m , luego n = m. Definici´ on 99.- Un espacio vectorial V se dice de dimensi´ on finita si tiene un conjunto finito de vectores que forman una base, y llamaremos dimensi´ on de V , dim V , al n´ umero de vectores de cualquier base de V . Al espacio vectorial V = {0 } le consideramos de dimensi´on finita, de dimensi´on cero, a´ un cuando no tiene conjuntos linealmente independientes. Si no existe un conjunto finito de este tipo, se dice que V es de dimensi´ on infinita (y no nos son ajenos pues IR[X] es un espacio vectorial de dimensi´ on infinita).

Ejemplo P2 [X] = {P (X) ∈ IR[X] : gr(P ) ≤ 2} tiene dimensi´on 3, pues B = {1, X, X2 } forman una base. En general, dim(Pn [X]) = n + 1 y B = {1, X, . . . , Xn } es una base suya. Ejemplo 100 Los conjuntos IRn = IR × IR × · · · × IR = {(x1 , . . . , xn ) : xi ∈ IR, ∀ i} habituales de suma y producto por escalares x + y = (x1 , . . . , xn ) + (y1 , . . . , yn ) = (x1 + y1 , . . . , xn + yn ) λx = λ(x1 , . . . , xn ) = (λx1 , . . . , λxn )

con las operaciones

son espacios vectoriales con dim IRn = n , ya que cualquier vector x ∈ IRn puede escribirse de la forma x = (x1 , x2 , . . . , xn ) = x1 (1, 0, . . . , 0) + x2 (0, 1, . . . , 0) + · · · + xn (0, 0, . . . , 1) y este conjunto de vectores n o B = e1 = (1, 0, . . . , 0), e2 = (0, 1, . . . , 0), . . . , en = (0, 0, . . . , 1) es linealmente independiente. A esta base se la denomina base can´ onica de IRn .

4

Conocer a priori la dimensi´on de un espacio facilita la obtenci´on de bases: Proposici´ on 101.- Si V es un espacio vectorial, con dim V = n. Entonces, un conjunto de n vectores de V es base de V , b) si genera a V . . a) si el conjunto es linealmente independiente, o

4.3.1

Coordenadas en una base

Definici´ on 102.- Sean V un espacio vectorial de dimensi´on finita y B = {v1 , v2 , . . . , vn } una base de V . Para cada vector v ∈ V , se llaman coordenadas de v en la base B a los n u ´nicos n´ umeros reales c1 , c2 , . . . , cn tales que v = c1 v1 + c2 v2 + · · · + cn vn . Fijando un orden para los vectores de la base, el vector de IRn , de las coordenadas de v en B se denota por ( v )B = (c1 , c2 , . . . , cn ) y m´as usualmente por [ v ]B cuando lo escribimos como vector columna en las operaciones con matrices: [ v ]B = (c1 , c2 , . . . , cn )t . Prof: Jos´ e Antonio Abia Vian

I.T.I. en Electricidad

´ 44 – Matem´aticas I : Algebra Lineal

4.3 Base y dimensi´ on

Ejemplo Si B = { v1 , v2 , v3 } es una base de V y v = v1 − v2 + 2 v3 , se tiene que ( v )B = (1, −1, 2) ( v1 )B = (1, 0, 0) ( v2 )B = (0, 1, 0) ( v3 )B = (0, 0, 1)         o tambi´en 1 1 0 0 [v]B =  −1  [v1 ]B =  0  [v2 ]B =  1  [v3 ]B =  0  2 0 0 1

4

Nota: Al usar vectores de coordenadas, es imprescindible mantener el orden de los vectores. Si, en el ejemplo anterior, tomamos como base B1 = { v2 , v3 , v1 }, tenemos que ( v )B1 = (−1, 2, 1) que es un vector de coordenadas distinto de ( v )B = (1, −1, 2). Fijada una base, la unicidad de las coordenadas asigna a cada vector de V un u ´nico vector de IRn , de manera que disponer de las coordenadas es, en el fondo, disponer del vector. Adem´as, se cumple (ver ejercicio 4.14): [ v + w ]B = [ v ]B + [w ]B

y

[λ v ]B = λ[v ]B ,

luego [λ1 v1 +· · ·+λn vn ]B = λ1 [v1 ]B + · · · + λn [ vn ]B

y con esto, no es dificil probar que: v ∈ lin{v1 , . . . , vk } ⊆ V ⇐⇒ [v]B ∈ lin{[v1 ]B , . . . , [vk ]B } ⊆ IRn {v1 , . . . , vk } lin. independiente en V ⇐⇒ {[v1 ]B , . . . , [vk ]B } lin. independiente en IRn {v1 , . . . , vn } base de V ⇐⇒ {[v1 ]B , . . . , [vn ]B } base de IRn por lo que se puede trabajar sobre las coordenadas en lugar de sobre los vectores.

4.3.2

Espacios de las filas y las columnas de una matriz

De lo anterior, tenemos que independientemente del espacio vectorial en que nos encontremos, fijada una base, podemos trasladar todo el trabajo operativo sobre los vectores de IRn ; por lo que resulta muy interesante conocer esta secci´on.   a11 a12 . . . a1n  a21 a22 . . . a2n    Definici´ on 103.- Consideremos la matriz Am×n =  . .. ..  .  .. . ... .  am1 am2 . . . amn Los m vectores de IRn : r1 = (a11 , . . . , a1n ), r2 = (a21 , . . . , a2n ), . . . , rm = (am1 , . . . , amn ) , se denominan vectores fila de A y al subespacio lineal generado por ellos, Ef (A) = lin{r1 , r2 , . . . , rm } , espacio de las filas de A. Por supuesto Ef (A) ⊆ IRn . Los n vectores de IRm : c1 = (a11 , . . . , am1 ) , c2 = (a12 , . . . , am2 ), . . . , cn = (a1n , . . . , amn ), se denominan vectores columna de A y el subespacio lineal generado por ellos, Ec (A) = lin{c1 , c2 , . . . , cn } , espacio de las columnas de A. Por supuesto Ec (A) ⊆ IRm . Proposici´ on 104.- Si A es una matriz de tama˜ no m×n , entonces las operaciones elementales sobre las filas (resp. columnas) de A no cambian el espacio de las filas (resp. columnas) de A. Demostraci´on: Puesto que hacer operaciones elementales sobre las filas es hacer combinaciones lineales de los vectores fila, el subespacio lineal generado es el mismo. (Igual para las columnas.) Corolario 105.- Sea A una matriz, entonces: a) Los vectores no nulos de una forma escalonada de la matriz A , forman una base de Ef (A) . b) Los vectores no nulos de una forma escalonada de la matriz At , forman una base de Ec (A) . Demostraci´on: Basta probar que los vectores no nulos de una forma escalonada son linealmente independientes, pero eso se comprueba f´acilmente ya que debajo de cada elemento principal s´olo hay ceros. Prof: Jos´ e Antonio Abia Vian

I.T.I. en Electricidad

´ 45 – Matem´aticas I : Algebra Lineal

4.4 Cambios de base

Teorema 106.- Sea A una matriz de tama˜ no m×n , entonces:

dim(Ef (A)) = dim(Ec (A)).

Demostraci´on: El resultado es inmediato, teniendo en cuenta que rg(A) = rg(At ), y que el rango coincide con el n´ umero de vectores no nulos en la forma escalonada, as´ı como el resultado anterior. Estos resultados nos permiten usar el m´etodo de Gauss, y por lo tanto nos ofrecen un operativo sencillo, para comprobar cuando un conjunto de vectores es linealmente independiente y para obtener bases. Ejemplo ¿Los vectores X − 1, X + 1 y X2 − 1 de P2 [X] son linealmente independientes? Tomemos la base B = {1, X, X2 } de P2 [X], entonces formamos por filas la matriz:         F2 +F1 (X − 1)B −1 1 0 F + 1 F −1 1 0 −1 1 0 F3 −F1 2 2  0 2 0  3−→  0 2 0 A =  (X + 1)B  =  1 1 0  −→ 2 0 −1 1 0 0 1 −1 0 1 (X − 1)B Por lo anterior, los vectores fila de la u ´ltima matriz son linealmente independientes y dim Ef (A) = 3 . En consecuencia, los tres vectores fila de la matriz A inicial que generan Ef (A) son tambi´en base, luego linealmente independientes y los polinomios del enunciado tambi´en son linealmente independientes. Adem´as, forman una base de P2 [X] (¿por qu´e?). 4

4.4

Cambios de base

Puesto que las coordenadas est´an referidas a una base, al cambiar la base de trabajo, habr´a que cambiar a las coordenadas en la nueva base. Pero este proceso puede realizarse f´acilmente, teniendo en cuenta lo siguiente: Definici´ on 107.- Sean B1 = {u1 , u2 , . . . , un } y B2 = { v1 , v2 , . . . , vn } son bases de un espacio vectorial V . Recibe el nombre de matriz de transici´ on o matriz de cambio de la base B1 a la base B2 , la matriz de dimensiones n×n , que por columnas es µ ¶ [u1 ]B2 [u2 ]B2 ··· [un ]B2 P = , es decir, la columna i -´esima est´a constituida por las coordenadas en la base B2 , del vector ui de la base B1 . En otras palabras, la matriz de cambio de base tiene por columnas las coordenadas en la base de llegada de los vectores de la base de partida. El porqu´e la matriz de paso se contruye as´ı, puede observarse en la prueba de la proposici´on siguiente: Proposici´ on 108.- Sea P la matriz de paso de una base B1 en otra base B2 de un espacio V . Entonces: 1.- ∀ x ∈ V se tiene que [ x ]B2 = P · [x ]B1 . 2.- P es inversible y su inversa, P −1 , es la matriz de paso de la base B2 a la base B1 . Demostraci´on: Sea B1 = {u1 , u2 , . . . , un } y sea x = c1 u1 + c2 u2 + · · · + cn un . Entonces, Apartado 1:   c1 µ ¶ c   2 P [x]B1 = [u1 ]B2 [u2 ]B2 · · · [un ]B2  .   ..  cn = c1 [u1 ]B2 + c2 [u2 ]B2 + · · · + cn [un ]B2 = [c1 u1 + c2 u2 + · · · + cn un ]B2 = [x]B2 Apartado 2: como los vectores de la base B1 son linealmente independientes, sus vectores de coordenadas en la base B2 tambi´en lo son. Luego las columnas de P son vectores linealmente independientes y rg(P ) = n, por lo que P es inversible. Adem´as, [ x ]B2 = P [ x ]B1 =⇒ P −1 [x ]B2 = P −1 P [x ]B1 =⇒ P −1 [x ]B2 = [ x ]B1 y P −1 es la matriz de cambio de la base B2 en la base B1 .

Prof: Jos´ e Antonio Abia Vian

I.T.I. en Electricidad

´ 46 – Matem´aticas I : Algebra Lineal

4.5 Espacios vectoriales con producto interior

Ejemplo Consideremos las bases B = {1, X, X2 } y B1 = {X − 1, X + 1, X2 − 1} de P2 [X]. La matriz de paso de la base B1 a la base B ser´a:    −1 1 µ ¶ −1 1 −1 2 2 P = [X − 1]B [X + 1]B [X2 − 1]B =  1 1 0  y P −1 =  21 12 0 0 1 0 0

−1 2 1 2

 

1

la matriz de paso de B a B1 . Ejemplo Consideremos en IR3 la base can´ onica Bc = { e1 = (1, 0, 0), e2 = (0, 1, 0), e3 = (0, 0, 1)} y la base B1 = {v1 = (1, 0, −1), v2 = (2, −1, 1), v3 = (0, −1, 1)}. Como v1 = 1(1, 0, 0) + 0(0, 1, 0) − 1(0, 0, 1) = e1 − e3 , se tiene que ( v1 )Bc = (1, 0, −1) ; y lo mismo para los otros vectores, luego la matriz de paso de la base B1 a la base Bc ser´a: µ P =

¶ [v1 ]Bc

[v2 ]Bc

[v3 ]Bc

 1 2 0 =  0 −1 −1  −1 1 1 

−1 1 2 0 =  0 −1 −1  −1 1 1 

y

P −1

la matriz de paso de la base Bc a la base B1 .

4

Nota: A la vista del ejemplo anterior, obtener las coordenadas de un vector de IRn en la base can´onica de IRn es inmediato, pues ( x )Bc = x . Pero ¡ciudado!, al trabajar con vectores de IRn no hay que confundir el vector con las coordenadas en una base, pues la igualdad anterior u ´nicamente es cierta en la base can´onica.

4.5 4.5.1

Espacios vectoriales con producto interior Producto interior. Norma. Distancia

Definici´ on 109.- Un producto interior en un espacio vectorial real V es una funci´on que a cada par de vectores u , v ∈ V le asocia un n´ umero real, que denotaremos por h u , v i , de tal manera que se cumplen las siguientes propiedades: 1.- h u , v i = h v , u i ; ∀ u , v ∈ V . 2.- h u + v , w i = h u , w i + h v , w i ; ∀ u , v , w ∈ V . 3.- hk u, v i = kh u , v i ; ∀ u , v ∈ V y ∀ k ∈ IR . 4.- h u , u i ≥ 0; ∀ u ∈ V

y

h u , u i = 0 ⇐⇒ u = 0 .

Otra propiedades que se deducen de las anteriores son: 1.- h 0, u i = 0

2.- h u , v + w i = h u , v i + h u , w i

3.- h u , k v i = kh u , v i

Ejemplo Considerar en P2 [X], la funci´on hP (X), Q(X)i = P (1)Q(1) + P 0 (1)Q0 (1) + P 00 (1)Q00 (1) . (1) hP (X), Q(X)i = P (1)Q(1) + P 0 (1)Q0 (1) + P 00 (1)Q00 (1) = Q(1)P (1) + Q0 (1)P 0 (1) + Q00 (1)P 00 (1) = hQ(X), P (X)i ³ ´ ³ ´ ³ ´ (2) hP (X) + R(X), Q(X)i = P (1) + R(1) Q(1) + P 0 (1) + R0 (1) Q0 (1) + P 00 (1) + R00 (1) Q00 (1) ³ ´ ³ ´ = P (1)Q(1)+P 0 (1)Q0 (1)+P 00 (1)Q00 (1) + R(1)Q(1)+R0 (1)Q0 (1)+R00 (1)Q00 (1) = hP (X), Q(X)i + hR(X), Q(X)i 0 0 00 00 (3) hkP (X), Q(X)i = kP ³ (1)Q(1) + kP (1)Q (1) + kP (1)Q (1) ´

= k P (1)Q(1) + P 0 (1)Q0 (1) + P 00 (1)Q00 (1) = khP (X), Q(X)i

Prof: Jos´ e Antonio Abia Vian

I.T.I. en Electricidad

´ 47 – Matem´aticas I : Algebra Lineal

4.5 Espacios vectoriales con producto interior

³ ´2 ³ ´2 ³ ´2 (4) hP (X), P (X)i = P (1)P (1) + P 0 (1)P 0 (1) + P 00 (1)P 00 (1) = P (1) + P 0 (1) + P 00 (1) ≥ 0 . Y, se da la igualdad si y s´olo si, P (1) = P 0 (1) = P 00 (1) = 0. Entonces, sea P (X) = a + bX + cX2 , de donde P (X) = b + 2cX y P 00 (X) = 2c ; de las igualdades se tiene: a+b+c=0  b + 2c = 0 P (1) = P 0 (1) = P 00 (1) = 0 ⇐⇒ ⇐⇒ a = b = c = 0 ⇐⇒ P (X) = 0 .  2c = 0 Luego tenemos un producto interno definido en P2 [X] . 4 0

A partir de un producto interior sobre un espacio V se definen los conceptos de norma, distancia y ´angulo. Definici´ on 110.- Si V es un espacio vectorial con producto interior, entonces la m´ odulo) de un vector v ∈ V se denota mediante kv k y se define como p k v k = + h v , v i.

norma (o longitud o

La distancia entre dos vectores u y v de V se denota mediante d( u , v ) y se define como p d( u, v ) = ku − v k = + h u − v , u − v i. Desigualdad de Cauchy-Schwarz 111.- Para todo u , v ∈ V, espacio con producto interior, se tiene 2

2

hu, vi2 ≤ kuk kvk Propiedades b´ asicas de la norma 112.-

o en la forma

|hu, vi| ≤ kuk kvk .

.

Propiedades b´ asicas de la distancia 113.-

1.- ku k ≥ 0 ; ∀ u ∈ V

1.- d( u , v ) ≥ 0; ∀ u , v ∈ V

2.- ku k = 0 ⇐⇒ u = 0

2.- d( u , v ) = 0 ⇐⇒ u = v

3.- kk u k = |k| k u k; ∀ u ∈ V y ∀ k ∈ IR

3.- d( u , v ) = d(v , u) ; ∀ u, v ∈ V

4.- ku + v k ≤ k uk+kv k ; ∀ u , v ∈ V

4.- d( u , v ) ≤ d(u , w )+d( w , v ); ∀ u, v , w ∈ V

La prueba de estas propiedades es an´aloga a la de las propiedades del m´odulo colplejo. Observaci´ on: Sean V un espacio con producto interior y B = {u1 , . . . , un } una base de V . Tomemos dos vectores v = a1 u1 + · · · + an un y w = b1 u1 + · · · + bn un , entonces hv, wi = ha1 u1 + · · · + an un , wi = a1 hu1 , wi + · · · + an hun , wi = a1 hu1 , b1 u1 + · · · + bn un i + · · · + an hun , b1 u1 + · · · + bn un i = a1 hu1 , u1 ib1 + · · · + a1 hu1 , un ibn + · · · + an hun , u1 ib1 + · · · + an hun , un ibn    hu1 , u1 i · · · hu1 , un i b1 ¡ ¢   ..  .. .. t .. = a1 · · · an    .  = (v)B QB [w]B = [v]B QB [w]B . . . hun , u1 i · · · hun , un i

bn

luego, fijada una base, un producto interior se puede obtener a partir de las coordenadas en la base. La matriz QB obtenida se denomina matriz de Gram o matriz m´etrica. Por las propiedades del producto interior, QB es sim´etrica y los elementos de la diagonal positivos. 4.5.1.1

El espacio eucl´ıdeo n -dimensional IRn

Definici´ on 114.- Sobre el espacio vectorial IRn definimos la funci´on que a cada x , y ∈ IRn le asocia n P h x , y i = x · y = (x1 , . . . , xn ) · (y1 , . . . , yn ) = x1 y1 + · · · + xn yn = xi yi i=1

Como puede comprobarse f´acilmente dicha funci´on es un producto interior, el que se conoce como producto interior eucl´ıdeo o producto escalar eucl´ıdeo (ya usado en IR2 y IR3 ). Este producto interior da lugar a la norma y distancia eucl´ıdeas, ya conocidas: p p k x k = x21 + · · · + x2n y d( x , y ) = kx − y k = (x1 − y1 )2 + · · · + (xn − yn )2 . Se llama espacio eucl´ıdeo n -dimensional a IRn con el producto interior eucl´ıdeo. Prof: Jos´ e Antonio Abia Vian

I.T.I. en Electricidad

´ 48 – Matem´aticas I : Algebra Lineal

4.5 Espacios vectoriales con producto interior

Nota: Si la matriz m´etrica del producto interior en la base B , QB , es la identidad, el producto interior se reduce al producto escalar eucl´ıdeo de los vectores de coordenadas. Esto ocurre precisamente para las bases ortonormales que se estudian en la siguiente secci´on.

4.5.2

Ortogonalidad

Definici´ on 115.- Si u y v son vectores distintos de cero de un espacio con producto interior, como conse,v i cuencia de la desigualdad de Cauchy-Schwarz se tiene que −1 ≤ khuukk ´nico v k ≤ 1 y, por tanto, existe un u ´ angulo, θ , tal que hu, v i cos θ = , con 0 ≤ θ ≤ π k uk k v k Definici´ on 116.- En un espacio vectorial con producto interior, dos vectores u y v se dicen que son ortogonales si h u, v i = 0. Suele denotarse por u ⊥ v . Si u es ortogonal a todos los vectores de un conjunto W , se dice que u es ortogonal a W . Se dice que S = {v1 , v2 , . . . , vk } es un conjunto ortogonal si los vectores son ortogonales dos a dos, es decir, si vi ⊥ vj para todo i 6= j . Ejemplo Los vectores de la base can´onica de IR3 con el producto escalar eucl´ıdeo son ortogonales entre si, pero no lo son si el producto interior definido es: h v , w i = v1 w1 + v1 w2 + v2 w1 + 2v2 w2 + v3 w3 . (Pru´ebese que es un producto interior). En efecto: h e1 , e2 i = h(1, 0, 0), (0, 1, 0)i = 0 + 1 + 0 + 0 + 0 = 1 6= 0. 4 Nota: Si dos vectores son ortogonales, el ´angulo que forman es de π radianes (los famosos 90 grados). De hecho, en IRn con el producto escalar eucl´ıdeo, la ortogonalidad coincide con la perpendicularidad. Una curiosidad: Teorema general de Pit´ agoras 117.- Si u y v son dos vectores ortogonales de un espacio vectorial con producto interior, entonces 2 2 2 ku + v k = kuk + kv k . Este resultado, de f´acil comprobaci´on, se reduce en IR2 con el producto escalar al Teorema de Pit´agoras. Tambi´en es sencillo probar el resultado siguiente (ver ejercicio 4.21): Proposici´ on 118.- Si w ⊥ { v1 , v2 , . . . , vk } , entonces w ⊥ lin{ v1 , v2 , . . . , vk } . Mucho m´as interesante es el siguiente, que relaciona ortogonalidad e independencia: Teorema 119.- Si S = {v1 , v2 , . . . , vk } un conjunto finito de vectores no nulos, ortogonales dos a dos, entonces S es linealmente independiente. . 4.5.2.1

Bases ortonormales. Proceso de Gram-Schmidt

Definici´ on 120.- Sean V un espacio vectorial de dimensi´on n con producto interior. Se dice que la base B = {v1 , v2 , . . . , vn } es una base ortonormal de V , si B es un conjunto ortogonal y kvi k = 1 , ∀ i . n³ ´ ³ ´o −1 √1 √1 , √1 , √ Ejemplo Las bases can´onica y B1 = , son ortonormales en IR2 con el producto escalar 2 2 2 2 √ eucl´ıdeo. La base B2 = {(2, 0), (0, − 2)} es ortonormal para el producto interior hx, yi = x14y1 + x22y2 . 4 Teorema 121.- Si B = {v1 , v2 , . . . , vn }³es una base ortonormal para un ´ espacio V con producto interior, entonces ∀ v ∈ V se tiene que ( v )B = h v , v1 i, hv , v2 i, . . . , h v , vn i . Es decir, v = h v , v1 i v1 + h v , v2 i v2 + · · · + h v , vn i vn , Demostraci´on: Si v = c1 v1 + · · · + ci vi + · · · + cn vn , para cada i, se tiene que hv, vi i = hc1 v1 + · · · + ci vi + · · · + cn vn , vi i 2

= c1 hv1 , vi i + · · · + ci hvi , vi i + · · · + cn hvn , vi i = ci hvi , vi i = ci kvi k = ci Prof: Jos´ e Antonio Abia Vian

I.T.I. en Electricidad

´ 49 – Matem´aticas I : Algebra Lineal

4.6 Ejercicios

Es decir, en una base ortonormal, la obtenci´on de cordenadas puede resultar m´as sencilla. Pero no s´olo eso, si no que tambi´en se tiene: Teorema 122.- Si P es la matriz de paso de una base ortonormal B1 a otra base ortonormal B2 , entonces P es una matriz ortogonal (es decir, P −1 = P t ). La prueba es puramente operativa, usando la definici´on de matriz de paso y el apartado b) del ejercicio 4.24 (ver tambi´en el ejercicio 4.29). Definici´ on 123.- Sean V un espacio vectorial con producto interior, W subespacio de V y B = { w1 , w2 , . . . , wk } una base ortonormal de W . Para cada v ∈ V , llamaremos proyecci´ on ortogonal de v sobre W al vector de W ProyW ( v ) = h v , w1 i w1 + h v , w2 i w2 + · · · + h v , wk iwk . Al vector v −ProyW ( v ) se le llama componente ortogonal de v sobre W . El vector proyecci´on ortogonal no depende la base ortonormal elegida, es decir, tomando cualquier base ortonormal se obtiene el mismo vector. La prueba puede encontrarse en el Anexo 1, p´ag. 49, tras la demostraci´on del Lema 124 siguiente. Lema 124.- Sean V un espacio vectorial con producto interior, W un subespacio de V y B una base ortonormal de W . Entonces para cada v ∈ V , el vector v − ProyW ( v ) es ortogonal a W . . Proceso de ortonormalizaci´ on de Gram-Schmidt 125.- Sean V un espacio vectorial con producto interior y de dimensi´on finita. Vamos a describir este proceso que construye a partir de una base B = { v1 , v2 , . . . , vn } una base ortonormal B ∗ = { u1 , u2 , . . . , un } . Demostraci´on: 1 a etapa.- Como v1 6= 0 por ser de B , el vector u1 =

v1 tiene norma 1 y lin{u1 } = lin{v1 } . kv1 k

2 a etapa.- Sea W1 = lin{ u1 }, por el Lema anterior, el vector v2 − ProyW1 ( v2 ) es ortogonal a W1 , en particular a u1 , y es distinto del vector 0 pues ProyW1 ( v2 ) ∈ W1 y v2 ∈ / W1 = lin{ v1 }, entonces tiene que v2 − ProyW1 ( v2 ) v2 − h v2 , u1 i u1 ° u2 = ° ° v2 − ProyW ( v2 )° = k v2 − h v2 , u1 i u1 k ∈ lin{ v1 , v2 } 1 es ortogonal a u1 y tiene norma 1. Adem´as, lin{ u1 , u2 } = lin{v1 , v2 } . 3 a etapa.- Sea ahora W2 = lin{ u1 , u2 } , como antes, el vector v3 − ProyW2 ( v3 ) es ortogonal a W2 , en particular a u1 y u2 , y es distinto del vector 0 , pues ProyW2 ( v3 ) ∈ W2 y v3 ∈ / W2 = lin{v1 , v2 }, entonces se tiene que v3 − ProyW2 (v3 ) v3 − h v3 , u1 i u1 − h v3 , u2 iu2 ° u3 = ° ° v3 − ProyW (v3 )° = k v3 − h v3 , u1 i u1 − h v3 , u2 iu2 k ∈ lin{v1 , v2 , v3 } 2 es ortogonal a u1 y u2 , y tiene norma 1. Adem´as, lin{ u1 , u2 , u3 } = lin{v1 , v2 , v3 } . n a etapa.- Con la repetici´on del proceso se ha construido un conjunto ortonormal de n vectores no nulos, B ∗ = { u1 , u2 , . . . , un } , tal que lin B ∗ = lin B = V . Luego B ∗ es una base ortonormal de V .

4.6

Ejercicios

4.1 Determinar si son espacios vectoriales los siguientes conjuntos: a) IR2 con las operaciones: (x, y) + (x0 , y 0 ) = (x + x0 , y + y 0 ) y k(x, y) = (2kx, 2ky) . b) A = {(x, 0) : x ∈ IR} con las operaciones usuales de IR2 . c) IR2 con las operaciones: (x, y) + (x0 , y 0 ) = (x + x0 + 1, y + y 0 + 1) y k(x, y) = (kx, ky) . d) El conjunto de los n´ umeros reales estr´ıctamente positivos, IR+ −{0} , con las operaciones: x+x0 = xx0 k y kx = x .

Prof: Jos´ e Antonio Abia Vian

I.T.I. en Electricidad

´ 50 – Matem´aticas I : Algebra Lineal

4.6 Ejercicios

4.2 ¿Cu´ales de los siguientes conjuntos son subespacios vectoriales de IR3 ´o IR4 ? a) {(a, 1, 1) ∈ IR3 : a ∈ IR} ⊆ IR3

b) {(a, b, c) ∈ IR3 : b = a + c} ⊆ IR3

c) {(a, b, c, d) ∈ IR4 : a + 2d = 7} ⊆ IR4

d) {(a, b, c, d) ∈ IR4 : ba = 0} ⊆ IR4

4.3 Sean v1 = (2, 1, 0, 3) , v2 = (3, −1, 5, 2) y v3 = (−1, 0, 2, 1) vectores de IR4 . ¿Cu´ales de los vectores (2, 3, −7, 3) , (0, 0, 0, 0), (1, 1, 1, 1) y (−4, 6, −13, 4) , est´an en lin{ v1 , v2 , v3 } ? −1 −1 −1 −1 −1 4.4 ¿Para qu´e valores reales de λ los vectores v1 = (λ, −1 2 , 2 ) v2 = ( 2 , λ, 2 ) y v3 = ( 2 , 2 , λ) forman un conjunto linealmente dependiente en IR3 ?

4.5 Dados tres vectores linealmente independientes u , v y w , demostrar que u + v , v + w y w + u son tambi´en linealmente independientes. 4.6 Sea V un espacio vectorial y S = { v1 , . . . , vk } un conjunto de vectores de V . Probar que: a) lin S es un subespacio vectorial de V . b) Si W es un subespacio de V que contiene a los vectores de S , entonces lin S ⊆ W . 4.7 Probar que si los vectores v1 , . . . , vk son linealmente dependientes, al menos uno de ellos se puede escribir como una combinaci´on lineal de los restantes. 4.8 Determinar la dimensi´on de los siguientes subespacios de IR4 : a) Todos los vectores de la forma (a, b, c, 0) . b) Todos los vectores de la forma (a, b, c, d) con d = a + b y c = a − b . c) Todos los vectores de la forma (a, b, c, d) con a = b = c = d. 4.9 Demostrar que los vectores soluci´on de un sistema no homog´eneo compatible, AX = B , de m ecuaciones con n inc´ognitas no forman un subespacio de IRn . ¿Qu´e ocurre si el sistema es homog´eneo, es decir, si B = 0? 4.10 Sean E y F subespacios de un espacio V . Probar que: subespacio de V .

E ∩ F = {v ∈ V : v ∈ E y v ∈ F } es un

4.11 Considerar en IR4 los conjuntos de vectores: A = {(1, 2, −1, 3), (0, 1, 0, 3)}

B = {(1, −1, 1, 0), (2, 3, 1, 2), (0, 0, 0, 1)}

a) Hallar las dimensiones de lin(A) y de lin(B), y encontrar una base b) Hallar las ecuaciones param´etricas de lin(A) y de lin(B) . c) Hallar las ecuaciones cartesianas de lin(A) y de lin(B). d) Hallar la dimensi´on de lin(A) ∩ lin(B) . 4.12 Consideremos en el espacio vectorial IR3 la base B = {u1 , u2 , u3 } . Sea E el subespacio engendrado por los vectores v1 = u1 + 3 u3 , v2 = 2 u1 − 3 u2 + u3 , v3 = 4u1 − 3u2 + 7 u3 . Sea F el subespacio engendrado por los vectores w1 = u1 + u2 + u3 , w2 = 2 u1 + 3 u2 + 4 u3 , w3 = 3 u1 + 4 u2 + 5 u3 . Hallar una base de E , una base de F , el subespacio E ∩ F y una base de E ∩ F . 4.13 Sea M2×2 el espacio vectorial de las matrices cuadradas de orden 2 sobre IR y sea E el subconjunto de µ ¶ a b+c M2×2 formado por las matrices de la forma con a, b, c ∈ IR . −b + c a a) Demostrar que E es un subespacio vectorial. µ ¶ µ ¶ µ ¶ 1 0 0 1 0 1 b) Probar que las matrices A1 = , A2 = y A3 = , forman una base de E . 0 1 −1 0 1 0 4.14 Sea B una base de un espacio vectorial V de dimensi´on n. Demostrar que el conjunto {v1 , v2 , . . . , vn } es una base de V si, y s´olo si el conjunto {[ v1 ]B , [ v2 ]B , . . . , [vn ]B } es una base de IRn . Prof: Jos´ e Antonio Abia Vian

I.T.I. en Electricidad

´ 51 – Matem´aticas I : Algebra Lineal

4.6 Ejercicios

4.15 En una cierta base { u1 , u2 , u3 , u4 } de un espacio vectorial V , un vector w tiene por coordenadas (3, 1, 2, 6). Hallar las coordenadas de W en otra base { v1 , v2 , v3 , v4 } cuyos vectores verifican que v1 = u1 + u2 , v2 = 2 u4 − u1 , v3 = u2 − u3 y v4 = 2 u1 − u2 . 4.16 En IR3 se consideran las bases B = { v1 = (2, 0, 0), v2 = (0, −1, 2), v3 = (0, 0, −3)} y la base can´onica Bc = {e1 , e2 , e3 }. Hallar las coordenadas respecto de la base B del vector x = 4 e1 + e2 − 5 e3 . 4.17 Se consideran en IR3 las bases B = { u1 , u2 , u3 } y B 0 = {v1 , v2 , v3 }, siendo u1 = (−3, 0, −3) , u2 = (−3, 2, −1) , u3 = (1, 6, −1) y v1 = (−6, −6, 0) , v2 = (−2, −6, 4) , v3 = (−2, −3, 7). a) Hallar la matriz de paso de B a B 0 . b) Calcular la matriz de coordenadas, [ w ]B , siendo w = (−5, 8, −5). c) Calcular [ w ]B 0 de dos formas diferentes 4.18 Sean u = (u1 , u2 , u3 ) y v = (v1 , v2 , v3 ) . Determinar si h u, v i = u1 v1 − u2 v2 + u3 v3 define un producto interior en IR3 . 4.19

a) Encontrar dos vectores de IR2 con norma eucl´ıdea uno y cuyo producto interior eucl´ıdeo con (−2, 4) sea cero. b) Demostrar que hay un n´ umero infinito de vectores en IR3 con norma eucl´ıdea uno y cuyo producto interior eucl´ıdeo con (−1, 7, 2) es cero.

−1 4.20 Sean a = ( √15 , √ ) y b = ( √230 , √330 ) . Demostrar que { a , b} es ortonormal si IR2 tiene el producto 5 interior h u , v i = 3u1 v1 + 2u2 v2 donde u = (u1 , u2 ) y v = (v1 , v2 ), y que no lo es si IR2 tiene el producto interior eucl´ıdeo.

4.21 Sea V un espacio con producto interior. Demostrar que si w es ortogonal a cada uno de los vectores v1 , v2 , . . . , vk entonces es ortogonal a lin{v1 , v2 , . . . , vk }. 4.22 Considera IR3 con el producto interior euclideo. Utiliza el proceso de Gram-Schmidt para transformar, en cada caso, la base {u1 , u2 , u3 } en una base ortonormal. a) u1 = (1, 1, 1) , u2 = (−1, 1, 0) , u3 = (1, 2, 1). b) u1 = (1, 0, 0) , u2 = (3, 7, −2) , u3 = (0, 4, 1). 4.23 Sea IR3 con el producto interior h u , v i = u1 v1 + 2u2 v2 + 3u3 v3 . Utilizar el proceso de Gram-Schmidt para transformar la base formada por los vectores u1 = (1, 1, 1) , u2 = (1, 1, 0) y u3 = (1, 0, 0) en una base ortonormal. 4.24 Sea B = { v1 , v2 , v3 } una base ortonormal de un espacio V con producto interior. Probar que: 2

a) k w k = h w , v1 i2 + h w , v2 i2 + h w , v3 i2 ; b) h u , w i = ( u )B · ( w )B = [ u ]tB [ w ]B ;

∀w ∈V.

∀ u, w ∈ V .

4.25 Tomemos en IR4 el producto interior euclideo. Expresar el vector w = (−1, 2, 6, 0) en la forma w = w1 + w2 donde, w1 est´e en el subespacio W generado por los vectores u1 = (−1, 0, 1, 2) y u2 = (0, 1, 0, 1), y w2 sea ortogonal a W . 4.26 Suponer que IR4 tiene el producto interior euclideo. a) Hallar un vector ortogonal a u1 = (1, 0, 0, 0) y u4 = (0, 0, 0, 1), y que forme ´angulos iguales con los vectores u2 = (0, 1, 0, 0) y u3 = (0, 0, 1, 0) . b) Hallar un vector x de longitud 1, ortogonal a u1 y a u2 , tal que el coseno del ´angulo entre x y u3 sea el doble del coseno del ´angulo entre x y u4 . 4.27 Hallar la distancia del vector u = (1, 1, 1, 1) de IR4 al subespacio generado por los vectores v1 = (1, 1, 1, 0) y v2 = (1, 1, 0, 0) .

Prof: Jos´ e Antonio Abia Vian

I.T.I. en Electricidad

´ 52 – Matem´aticas I : Algebra Lineal

4.6 Ejercicios

4.28 Dados los vectores x = (x1 , x2 , x3 ) e y = (y1 , y2 , y3 ) de IR3 , demostrar que la expresi´on h x , y i = 2x1 y1 + 2x2 y2 + x3 y3 + x1 y2 + x2 y1 define un producto interior. Encontrar una base { u1 , u2 , u3 } ortonormal respecto al producto interior anterior tal que u2 y u3 tengan igual direcci´on y sentido que los vectores (0, 1, 0) y (0, 0, 1) , respectivamente. 4.29 Probar que una matriz A de orden n es ortogonal si, y s´olo si sus vectores fila forman un conjunto ortonormal en IRn .

Prof: Jos´ e Antonio Abia Vian

I.T.I. en Electricidad

Get in touch

Social

© Copyright 2013 - 2024 MYDOKUMENT.COM - All rights reserved.