Espacio vectorial con producto escalar

Capítulo 8 Espacio vectorial con producto escalar Nuestro punto de partida es un espacio vectorial V definido sobre K = R o K = C. Vamos a desarrollar
Author:  Juan Maidana Vega

1 downloads 227 Views 417KB Size

Story Transcript

Capítulo 8 Espacio vectorial con producto escalar Nuestro punto de partida es un espacio vectorial V definido sobre K = R o K = C. Vamos a desarrollar simultáneamente la noción de producto escalar y sus consecuencias sobre ambos cuerpos, e iremos observando las diferencias en cada caso.

8.1. Productos escalares Producto escalar Un producto escalar sobre un espacio vectorial real o complejo es una función 〈|〉 : V × V → K que aplica un par de vectores x, y en un escalar real o complejo 〈x|y 〉, con las siguientes propiedades para todo x, y , z ∈ V , y α ∈ K: 1. 〈x|x〉 es real, con 〈x|x〉 ≥ 0, y 〈x|x〉 = 0 si y solamente si x = 0. 2. 〈x|αy 〉 = α〈x|y 〉 para todos los escalares α. 3. 〈x|y + z 〉 = 〈x|y 〉 + 〈x|z 〉. 4. 〈x|y 〉 = 〈y |x〉. Para espacios reales queda 〈x|y 〉 = 〈y |x〉. Nota 8.1.1. Observemos que de la definición anterior se tiene que 〈βx|y 〉 = 〈y |βx〉 = β〈y |x〉 = β〈y |x〉 = β〈x|y 〉. 281

Depto. de Álgebra Por tanto, no es lineal respecto a la primera componente. No hay unicidad en la literatura respecto a la segunda propiedad del producto escalar sobre un espacio vectorial complejo. En muchos textos aparece la condición de linealidad respecto a la primera componente, es decir, 〈βx|y 〉 = β〈x|y 〉, y entonces se deduce que 〈x|αy 〉 = α〈x|y 〉. Esto solamente afecta a los productos escalares definidos en espacios vectoriales sobre el cuerpo de los números complejos. En cualquier caso, el contenido fundamental de la teoría no cambia, aunque algunas definiciones deben ser retocadas.

Ejemplo 8.1.1.- Consideremos la aplicación 〈|〉 : R2 × R2 → R dada por 〈x|y 〉 = 2x1 y 1 + 3x2 y 2 , donde µ µ ¶ ¶ x1 y1 x= . ,y = x2 y2 Entonces 1. 〈x|x〉 = 2x12 + 3x22 es un número real no negativo, pues es la suma de números no negativos, y solamente vale cero cuando x = 0. 2. 〈x|αy 〉 = 2x1 (αy 1 ) + 3x2 (αy 2 ) = α(2x1 y 1 + 3x2 y 2 ) = α〈x|y 〉. 3. 〈x|y + z 〉 = 2x1 (y 1 + z 1 ) + 3x2 (y 2 + z 2 ) = 〈x|y 〉 + 〈x, z 〉. 4. 〈y |x〉 = 2y 1 x1 + 3y 2 x2 = 〈x|y 〉. Entonces 〈|〉 es un producto escalar sobre R2 .

282

Álgebra Lineal y Geometría

Depto. de Álgebra

Producto escalar estándar La función 〈|〉e : Rn × Rn → R, que definimos como 〈x|y 〉e = xt y =

n X

i =1

x i y i = y t x.

es un producto escalar sobre R, que denominamos producto escalar estándar sobre Rn . La función 〈|〉e : Cn × Cn → C, que definimos como 〈x|y 〉e = x∗ y =

n X

i =1

xi y i = y t x

es un producto escalar sobre C, que denominamos producto escalar estándar sobre Cn . P RUEBA : Vamos a probar el caso complejo, porque el caso real es idéntico. 1. 〈x|x〉e ≥ 0. Por la definición, 〈x|x〉e =

n X

i =1

xi xi =

n X

i =1

|x1 |2 ≥ 0,

y solamente toma el valor cero cuando x = 0. 2. 〈x|αy 〉e = α〈x|y 〉e . 〈x|αy 〉e = x∗ (αy ) = α(x∗ y ) = α〈x|y 〉e . 3. 〈x|y + z 〉e = 〈x|y 〉 + 〈x|z 〉e . 〈x|y + z 〉e

= x∗ (y + z ) = x∗ y + x∗ z

= 〈x|y 〉e + 〈x|z 〉e .

4. 〈x|y 〉e = 〈y |x〉e . 〈x|y 〉e = x∗ y = (y ∗ x)∗ = y ∗ x = 〈y |x〉e .



Álgebra Lineal y Geometría

283

Depto. de Álgebra

Ejemplo 8.1.2.- Sea P una matriz no singular de orden n sobre C. La aplicación φP : Cn × Cn → C definida por φP (v , w ) = v ∗ P ∗ P w es un producto escalar sobre Cn . Para probarlo, basta considerar que φP (v , w ) = 〈v ′ |w ′ 〉e , donde v ′ = P v , w ′ = P w y se siguen fácilmente las propiedades. El carácter no singular de P interviene para asegurar que v ′ 6= 0 si y solamente si v 6= 0.

Ejemplo 8.1.3.- Sea K uno de los cuerpos R o C y consideremos el espacio vectorial V = M (n × n, K) de las matrices de orden n con coeficientes en K. Se define un producto escalar sobre V mediante la expresión 〈A|B〉 = traza(A ∗ B). Si A = (ai j ) y B = (b i j ), entonces 〈A|B〉 =

Pn Pn i =1

j =1 a i j b i j .

Ejemplo 8.1.4.- Sea V el conjunto de funciones continuas en el intervalo [a, b] con valores reales. Entonces V es un R-espacio vectorial, sobre el que se puede definir el producto escalar 〈 f |g 〉 =

284

Zb

f (x)g (x) d x.

a

Álgebra Lineal y Geometría

Depto. de Álgebra P Ejemplo 8.1.5.- Sea V el conjunto de sucesiones {ck } ⊂ C que verifican n≥0 |cn |2 < ∞. Tiene estructura de C-espacio vectorial y podemos definir un producto escalar con X ck dk . 〈{ck }|{d k }〉 = n≥0

Como consecuencia de la definición de un producto escalar, se verifica que 〈x + y |z 〉 = 〈x|z 〉 + 〈y |z 〉. En efecto, pues 〈x + y |z 〉 = 〈z |x + y 〉 = 〈z |x〉 + 〈z |y 〉

= 〈x|z 〉 + 〈y |z 〉.

〈x|0〉 = 〈0|x〉 = 0. Tenemos que 〈0|x〉 = 〈0 · x|x〉 = 0 · 〈x|x〉 = 0, y también 〈x|0〉 = 0. Fijado x ∈ V , si 〈x|y 〉 = 0 para todo y ∈ V , entonces x = 0. Basta tomar y = x. Si 〈x|y1 〉 = 〈x|y2 〉 para todo x ∈ V , entonces y1 = y2 , pues 〈x|y1 − y2 〉 = 0 para todo x ∈ V . Espacios vectoriales euclídeos y unitarios Los espacios vectoriales reales con un producto escalar se denominan espacios euclídeos. Los espacios vectoriales complejos con un producto escalar se denominan espacios unitarios.

De forma conjunta, hablaremos de espacios vectoriales con producto escalar o producto interior y lo notaremos por el par (V, 〈|〉). Si L ⊂ V es un subespacio vectorial de un espacio (V, 〈|〉) con producto escalar, entonces (L, 〈|〉|L ) es un espacio con producto escalar, al considerar la restricción de la aplicación 〈|〉. Álgebra Lineal y Geometría

285

Depto. de Álgebra

8.2. * Expresión matricial de un producto escalar Sea (V, 〈|〉) un espacio vectorial con producto escalar de dimensión finita y B = {u1 , . . . , un } una base de V . Matriz de Gram La matriz de Gram del producto escalar 〈|〉 respecto de la base B es la matriz cuadrada de orden n dada por 

  G = 

〈u1 |u2 〉 . . . 〈u1 |un 〉 〈u2 |u2 〉 . . . 〈u2 |un 〉 .. .. . . 〈un |u1 〉 〈un |u2 〉 . . . 〈un |un 〉 〈u1 |u1 〉 〈u2 |u1 〉 .. .



 ¡ ¢   = 〈ui |u j 〉 . 

Ejemplo 8.2.1.- En Rn , con respecto a la base estándar, la matriz de Gram del producto escalar estándar 〈|〉e es igual a G = (〈ei |e j 〉e ) = I n . Lo mismo ocurre con el producto estándar de Cn con respecto a la base estándar.

Ejemplo 8.2.2.- Consideremos en R2 el producto escalar dado por 〈x|y 〉 = 2x1 y 1 + 3x2 y 2 , y tomemos la base ¶ µ ¶ µ 1 −1 , u2 = }. B = {u1 = 1 2 Entonces 〈u1 |u1 〉 = 5, 〈u1 |u2 〉 = 4, 〈u2 |u2 〉 = 14, y G =

286

µ

5 4 4 14



.

Álgebra Lineal y Geometría

Depto. de Álgebra

En el caso real, la matriz G es simétrica, mientras que en el caso complejo es hermitiana. La matriz de Gram permite una escritura más compacta de un producto escalar. Sean x, y ∈ V , y B = {u1 , . . . , un } una base de V . Si 

  [x]B =  





x1 x2 .. .

     , [y ]B =   

xn

y1 y2 .. . yn



  , 

entonces 〈x|y 〉 = 〈 = = =

n X

x i ui

i =1 n X n X

i =1 j =1 n X n X

n X

j =1

y j uj 〉

〈xi ui |y j u j 〉

xi y j 〈ui |u j 〉 i =1 j =1 [x]∗B ·G · [y ]B .

Expresión matricial del producto escalar Sea [x]B , [y ]B los vectores coordenados de dos vectores x, y respecto de una base B de un espacio vectorial (V, 〈|〉) con producto escalar. Si G es la matriz de Gram asociada a 〈|〉 respecto de la base B, entonces 〈x|y 〉 = [x]∗B ·G · [y ]B .

Por supuesto, la matriz de Gram G depende de la base elegida, por lo que es natural preguntarnos qué ocurre en un cambio de base. Sean G y G ′ las matrices de Gram respecto de bases B y B ′ , respectivamente. Sea P = M(B ′ , B) la matriz del cambio de base de B ′ a B. Entonces [x]B = P [x]B ′ , [y ]B = P [y ]B ′ , Álgebra Lineal y Geometría

287

Depto. de Álgebra y 〈x|y 〉 = [x]∗B G[y ]B

= [x]∗B ′ P ∗GP [y ]B ′ .

Por tanto, [x]∗B ′ G ′[y ]B ′ = [x]∗B ′ P ∗GP [y ]B ′ para todo x, y ∈ V, de donde G ′ = P ∗GP . Producto escalar y cambio de base Sea (V, 〈|〉) un espacio vectorial con producto escalar, y B, B ′ bases de V . Si G y G ′ son las matrices de Gram respectivas del producto escalar 〈|〉, y P = M(B ′ , B) la matriz del cambio de base de B ′ a B, entonces G ′ = P ∗GP. Decimos que las matrices son *-congruentes. El estudio de la *-congruencia de matrices es un tema de profundas ramificaciones cuando cambiamos el cuerpo base.

Ejemplo 8.2.3.- Sea V = R3 con el producto escalar estándar 〈|〉e , y consideremos las bases       1 2 0 B = {e1 , e2 , e3 }, B ′ = {u′1 =  −1  , u′2 =  0  , u′3 =  1 }. 1 1 −1 La matriz de Gram respecto de la base B ′ es     〈u′1 |u′1 〉e 〈u′1 |u′2 〉e 〈u′1 |u′3 〉e 3 1 0 5 −1  . G ′ =  〈u′2 |u′1 〉e 〈u′2 |u′2 〉e 〈u′2 |u′3 〉e  =  1 0 −1 2 〈u′3 |u′1 〉e 〈u′3 |u′2 〉e 〈u′3 |u′3 〉e

La matriz de Gram respecto de la base B es la matriz identidad, y la matriz del cambio de base de B ′ a B es   1 2 0 0 1 . P = M(B ′ , B) =  −1 1 −1 1 288

Álgebra Lineal y Geometría

Depto. de Álgebra Entonces

como sabíamos.



 3 1 0 5 −1  = G ′ , P t I 3P =  1 0 −1 2

La matriz de Gram de un producto escalar es hermitiana (simétrica en el caso real). Sin embargo, no toda matriz hermitiana (simétrica) da lugar a un producto escalar.

8.3. Norma Norma de un vector Sea (V, 〈|〉) un espacio vectorial con producto escalar. Se denomina norma del vector x al número p kxk = 〈x|x〉.

La definición tiene sentido por las propiedades del producto escalar. Aunque no aparece en la notación, la norma de un vector depende del producto escalar usado.

Ejemplo 8.3.1.- En V = R4 , consideremos el producto escalar estándar 〈|〉e . Entonces el vector   1   p  1  v=  tiene como normas kv k = 1 + 1 + 1 + 1 = 2.  −1  −1

En cambio, con respecto al producto escalar definido por 〈x|y 〉 = x1 y 1 +2x2 y 2 + 3x3 y 3 + 4x4 y 4 se tiene que p p kv k = 1 + 2 + 3 + 4 = 10.

Álgebra Lineal y Geometría

289

Depto. de Álgebra

Nota 8.3.1. En Rn o Cn con el producto escalar estándar, la norma asociada se ¡P ¢1/2 . denomina norma euclídea o 2-norma, y se suele notar como kxk2 = ni=1 |xi |2 Propiedades de la norma Sea (V, 〈|〉) un espacio vectorial con producto escalar. Para cualesquiera x, y ∈ V y escalar α ∈ K se verifica 1. kxk ≥ 0, y kxk = 0 si y solamente si x = 0. 2. kαxk = |α| kxk. 3. kx − y k = ky − xk. P RUEBA : Son inmediatas a partir de la definición de norma.



Dado x ∈ V no nulo, es frecuente usar otro vector u ∈ V que tenga la misma dirección y sentido que x, pero de norma igual a 1. Basta considerar

u=

1 kx k

x.

Este proceso se denomina normalización.

Desigualdad CBS o de Cauchy-Schwarz Sea (V, 〈|〉) un espacio vectorial con producto escalar, y x, y ∈ V . Entonces |〈x|y 〉| ≤ kxk ky k . La igualdad se da si y solamente si un vector es múltiplo del otro.

P RUEBA : Si x = 0 no hay nada que probar. Sea α = 〈x|y 〉/〈x|x〉, y observemos que α= 290

〈y |x〉 , 〈x|x〉

y

〈x|αx − y 〉 = 0. Álgebra Lineal y Geometría

Depto. de Álgebra Entonces 0 ≤ kαx − y k2 = 〈αx − y |αx − y 〉 = α〈x|αx − y 〉 − 〈y |αx − y 〉 = −〈y |αx − y 〉 = −α〈y |x〉 + 〈y |y 〉 〈x|y 〉 = − 〈y |x〉 + ky k2 kxk2 1 (ky k2 kxk2 − 〈x|y 〉〈y |x〉). = 2 kx k

Como 〈y |x〉 = 〈x|y 〉, se tiene que 〈x|y 〉〈y |x〉 = |〈x|y 〉|2 , de donde 0≤

ky k2 kxk2 − |〈x|y 〉|2 kxk2

.

Observemos que el valor 0 solamente se toma cuando ky k2 kxk2 − |〈x|y 〉|2 = 0. Como kxk2 > 0, se deduce que ky k2 kxk2 − |〈x|y 〉|2 ≥ 0, y tenemos la desigualdad. Veamos ahora las condiciones de igualdad. Si y = αx, entonces |〈x|y 〉| = |α| kxk2 = kxk ky k . Recíprocamente, si |〈x|y 〉| = kxk ky k, entonces kαx − y k = 0, de donde y = αx.



Esta desigualdad es una de las más importantes en matemáticas, y se suele usar bajo el nombre de desigualdad CBS, con la “B” correspondiente a Victor Bunyakovskii, matemático ruso que extendió el resultado de Cauchy sobre números reales a sumas de integrales. Una de las consecuencias de la desigualdad CBS es la extensión al caso ndimensional del resultado clásico de la geometría del plano acerca de la relación entre las longitudes de los lados de un triángulo.

Desigualdad triangular Sean x, y ∈ V . Entonces kx + y k ≤ kxk + ky k . La igualdad se da si y solamente si y o x es múltiplo no negativo del otro.

Álgebra Lineal y Geometría

291

Depto. de Álgebra P RUEBA : Se tiene que

kx + y k2 = 〈x + y |x + y 〉 = 〈x|x〉 + 〈x|y 〉 + 〈y |x〉 + 〈y |y 〉 = kxk2 + ky k2 + 2 Re(〈x|y 〉) ≤ kxk2 + ky k2 + 2|〈x|y 〉|.

Por la desigualdad CBS, |〈x|y 〉| ≤ kxk ky k, y entonces kx + y k2 ≤ kxk2 + ky k2 + 2 kxk ky k = (kxk + ky k)2 . Si kx + y k = kxk+ky k entonces todas las desigualdades son igualdades y 〈x|y 〉 = kxk ky k. Recíprocamente, si 〈x|y 〉 = kxk ky k, entonces 〈x|y 〉 es un número real y 〈x|y 〉 = 〈y |x〉 y kx + y k2 = (kxk + ky k)2 . Por tanto, la igualdad se tiene si y solamente si 〈x|y 〉 = kxk ky k .

(8.3.1)

Si uno de los vectores x, y es múltiplo real no negativo del otro, se obtiene la igualdad (8.3.1). Si se tiene la igualdad (8.3.1), entonces se sigue la igualdad en la desigualdad CBS, lo que implica que uno de los vectores es múltiplo del otro. Por ejemplo, si y = αx, 〈x|y 〉 = 〈x|αx〉 = α kxk2 ,

kxk ky k = kxk kαxk = |α| kxk2 , y al igualar nos queda que α = |α|, de donde α ∈ R, y no negativo. Si los dos vectores x, y son no nulos, entonces α > 0.



Si x = 0, nos vale cualquier α. Si x 6= 0, entonces y = αx 6= 0, de donde α > 0.

Un resultado interesante es que si una norma procede de un producto escalar, podemos recuperar la expresión de dicho producto a partir de la norma. 292

Álgebra Lineal y Geometría

Depto. de Álgebra

Producto escalar a partir de la norma Sea (V, 〈|〉) un espacio vectorial con producto escalar y k·k la norma asociada. Consideremos u, v ∈ V . 1. Si V es un R-espacio vectorial, entonces 〈u|v 〉 =

¢ 1¡ ku + v k2 − ku − v k2 . 4

2. Si V es un C-espacio vectorial, entonces ¢ 1¡ ku + v k2 − ku − v k2 4 ¢ i¡ + ku + i v k 2 − ku − i v k 2 . 4

〈u|v 〉 =

P RUEBA : Es una sencilla comprobación, a partir de 〈u|v 〉 + 〈v |u〉 = 2 Re(〈u|v 〉), 〈u|v 〉 − 〈v |u〉 = 2i Im(〈u|v 〉).

 En un espacio vectorial euclídeo, la desigualdad CBS nos garantiza que si x, y ∈ V no nulos, entonces −1 ≤

〈x|y 〉 ≤ 1. kx k ky k

Entonces existe un único valor θ ∈ [0, π] tal que cos θ =

〈x|y 〉 . kx k ky k

Ángulo entre vectores El único valor θ ∈ [0, π] tal que cos(θ) =

〈x|y 〉 . kx k ky k

se denomina ángulo entre los vectores x, y .

Álgebra Lineal y Geometría

293

Depto. de Álgebra

Ejemplo 8.3.2.- En R3 con el producto escalar estándar, consideremos los vectores     0 0 x =  1 ,y =  0 . 1 −1 Entonces

p 3π 2 −1 =− , de donde θ = . cos(θ) = p 2 4 2·1

Damos ahora un resultado matricial, que parece no relacionado con productos escalares, pero la demostración más sencilla se basa en el producto escalar estándar de Cn . Relación entre A, A ∗ A y A A ∗ Sea A una matriz de orden m × n. Entonces 1. null(A) = null(A ∗ A), null(A ∗ ) = null(A A ∗ ). 2. rango(A) = rango(A ∗ A) = rango(A A ∗ ) = rango(A ∗ ). 3. Col(A ∗ ) = Col(A ∗ A), Col(A) = Col(A A ∗ ). P RUEBA : 1. Si A v = 0, entonces (A ∗ A)v = 0, por lo que null(A) ⊂ null(A ∗ A). Recíprocamente, si (A ∗ A)v = 0, entonces kA v k2 = 〈A v |A v 〉e = v ∗ A ∗ A v = 0 de donde A v = 0, y tenemos la igualdad null(A) = null(A ∗ A). Si aplicamos este resultado a A ∗ nos queda la segunda igualdad. 2. A partir de lo anterior, rango(A) = dim(Col(A)) = n − dim(null(A)) = n − dim(null(A ∗ A)) = dim(Col(A ∗ A)) = rango(A ∗ A),

y si aplicamos este resultado a A ∗ , nos queda rango(A ∗ ) = rango(A A ∗ ). 294

Álgebra Lineal y Geometría

Depto. de Álgebra 3. Si b ∈ Col(A ∗ A), entonces b = A ∗ A u = A ∗ (A u), de donde b ∈ Col(A ∗ ). Así, Col(A ∗ A) ⊂ Col(A ∗ ), y como son de la misma dimensión, tenemos que Col(A ∗ A) = Col(A ∗ ). Entonces, si tomamos A ∗ en lugar de A, obtenemos Col(A) = Col((A ∗ )∗ ) = Col((A ∗ )∗ A ∗ ) = Col(A A ∗ ).



8.4. * Normas vectoriales En un espacio vectorial general V , aunque no tenga producto escalar, se puede definir el concepto de norma de un vector.

Normas vectoriales Una norma sobre un espacio vectorial V es una aplicación k·k : V → R que satisface las siguientes condiciones: kxk ≥ 0, y kxk = 0 si y solamente si x = 0, kαxk = |α| kxk, kx + y k ≤ kxk + ky k, para todo x, y ∈ V y todo escalar α ∈ K . Por las propiedades que hemos visto, la norma inducida por un producto escalar es una norma vectorial, que se denomina norma euclídea, y se representa por k·k2 . Sobre Cn existen otras normas, como por ejemplo kxk1 =

Pn

i =1 |x i |,

que llamamos 1-norma,

kxk∞ = m´ax{|xi | | i = 1, . . . , n}, que es la norma infinito. Es fácil probar las condiciones de la definición. Una pregunta natural es si dada una norma vectorial k·k existe un producto escalar ψ del que proceda. La respuesta para espacios reales y complejos procede de M. Frechet y J. von Neumann. Álgebra Lineal y Geometría

295

Depto. de Álgebra

Identidad del paralelogramo Dada una norma k·k en un espacio vectorial V , existe un producto escalar ψ en V tal que kxk2 = ψ(x, x) si y solamente si la identidad del paralelogramo kx + y k2 + kx − y k2 = 2(kxk2 + ky k2 ) se verifica para todo x, y ∈ V . P RUEBA : Veremos el caso real. Es inmediato que si existe un producto escalar 〈|〉, entonces se verifica la identidad del paralelogramo, pues kx + y k2 + kx − y k2 = 〈x + y |x + y 〉 + 〈x − y |x − y 〉

= 〈x|x〉 + 〈x|y 〉 + 〈y |x〉 + 〈y |y 〉

+〈x|x〉 − 〈x|y 〉 − 〈y |x〉 + 〈y |y 〉

= 2(kxk2 + ky k2 ).

La parte difícil es establecer el recíproco. Supongamos que la norma k·k verifica la identidad del paralelogramo. Vamos a probar que la función 1 ψ(x, y ) = (kx + y k2 − kx − y k2 ) 4 define un producto escalar tal que ψ(x, x) = kxk2 . Es inmediato que ψ(x, x) = kxk2 , por lo que es un número real no negativo, y solamente se anula en x = 0. ψ(x, y ) = ψ(y , x). Tenemos que ver lo que ocurre con las dos restantes propiedades. Por la identidad del paralelogramo, podemos escribir kx + y k2 + kx + z k2 = kx − y k2 + kx − z k2 =

1 (kx + y + x + z k2 + ky − z k2 ), 2 1 (kx − y + x − z k2 + kz − y k2 ), 2

y al restar ambas igualdades nos queda kx + y k2 − kx − y k2 + kx + z k2 − kx − z k2 = 296

k2x + (y + z )k2 − k2x − (y + z )k2 . 2 Álgebra Lineal y Geometría

Depto. de Álgebra Entonces ψ(x, y ) = =

=

1 k2 k k2 k k2 k k2 4 (kx + y − x − y + x + z − x − z ) 1 2 2 x + (y + z )k − k2x − (y + z )k ) 8 (k2 ° °2 ° ° 1 1 ° ° − °x − 1 (y + z )°2 ) = 2ψ(x, 1 (y + z )). ( x + ( y + z ) 2 2 2 2

(8.4.1)

Si sustituimos z = 0 tenemos la igualdad

1 ψ(x, y ) = 2ψ(x, y ) para todo y ∈ V. 2 Si aquí cambiamos y por y + z , obtenemos ψ(x, y + z ) = 2ψ(x, 12 (y + z )), y la ecuación 8.4.1 nos proporciona ψ(x, y ) + ψ(x, z ) = ψ(x, y + z ). Ahora probemos que ψ(x, αy ) = αψ(x, y ) para todo número real α. Por lo anterior, el resultado es válido para los números enteros. Si α = β/γ es racional, entonces β β β γ2 ψ(x, y ) = ψ(γx, βy ) = βγψ(x, y ), de donde ψ(x, y ) = ψ(x, y ). γ γ γ Como las funciones kx + αy k y kx − αy k son funciones continuas en α, la definición de ψ garantiza que ψ(x, αy ) es una función continua de α. Por tanto, si α es irracional y {αn } es una sucesión de racionales que tiende a α, se verifica que ψ(x, αn y ) → ψ(x, αy ), y ψ(x, αn y ) = αn ψ(x, y ) → αψ(x, y ), de donde ψ(x, αy ) = αψ(x, y ).



La identidad del paralelogramo se denomina así porque expresa que la suma de los cuadrados de las diagonales de un paralelogramo es igual a dos veces la suma de los cuadrados de los lados, en el caso real.

8.5. Ortogonalidad Vectores ortogonales Sea (V, 〈|〉) un espacio vectorial con producto escalar y v , w ∈ V . Decimos que v y w son ortogonales si 〈v |w 〉 = 0. En tal caso, lo notaremos como v ⊥w . Álgebra Lineal y Geometría

297

Depto. de Álgebra

Ejemplo 8.5.1.- En V = C2 con el producto escalar estándar, los vectores µ µ ¶ ¶ 2 + 3i 1+i v= ,w = son ortogonales. −1 + 5i −i

Ejemplo 8.5.2.- Sea V = C ([−1, 1]) el R-espacio vectorial de las funciones continuas en el intervalo [−1, 1], donde tenemos el producto escalar Z1 f (x)g (x) d x. 〈 f |g 〉 = −1

Para cada i ≥ 0, definimos las funciones p 0 : x 7→ 1, p 1 : x 7→ x, y µ ¶ µ ¶ 2h + 1 h p h+1 : x 7→ xp h (x) − p h−1 (x), para h > 1. h +1 h +1 Estas funciones polinómicas se llaman polinomios de Legendre. Es fácil verificar que p k ⊥p h para k 6= h. En el mismo espacio podemos definir otro producto escalar mediante Z1 f (x)g (x) d x. 〈 f |g 〉 = p −1 1 − x2 Para i ≥ 0 definimos las funciones q i ∈ V como q 0 : x 7→ 1, q 1 : x 7→ x y q h+1 : x 7→ 2xq h (x) − q h−1 (x) si h > 1. Estas funciones polinómicas se llaman polinomios de Chebyshev. De nuevo se verifica que q k ⊥q h si k 6= h. Ambos productos son casos especiales de una construcción más general. Sean −1 < r, s ∈ R. Se define en V un producto escalar mediante la expresión Z1 f (x)g (x)(1 − x)r (1 + x)s d x. 〈 f |g 〉 = −1

298

Álgebra Lineal y Geometría

Depto. de Álgebra

Podemos decir entonces que dos vectores son ortogonales cuando el ángulo entre ellos es igual a π/2. Los vectores ortogonales verifican una propiedad clásica. Teorema de Pitágoras Sea (V, 〈|〉) un espacio vectorial con producto escalar y consideremos vectores v , w ∈ V . Si v ⊥w entonces kv + w k2 = kv k2 +kw k2 . El recíproco se tiene para R-espacios vectoriales. P RUEBA : Se verifica que kv + w k2 = 〈v + w |v + w 〉 = 〈v |v 〉 + 〈v |w 〉 + 〈w |v 〉 + 〈w |w 〉 = kv k2 + kw k2 + 2 Re(〈v |w 〉).

A partir de aquí tenemos el resultado.



Conjuntos ortonormales Un conjunto S = {u1 , u2 , . . . , ur } es un conjunto ortogonal si ui ⊥u j cuando i 6= j , y ui 6= 0 para todo i = 1, . . . , r . Un conjunto T = {u1 , u2 , . . . , ur } es un conjunto ortonormal si ui ⊥u j cuando i 6= j y kui k = 1 para todo i = 1, . . . , r . Es fácil ver que un conjunto ortogonal es linealmente independiente. En efecto, consideremos un conjunto ortogonal {u1 , . . . , ur }, y una combinación lineal α1 u1 + α2 u2 + . . . + αr ur = 0. Si realizamos el producto escalar a ambos lados de esta igualdad por ui , para cada i = 1, . . . , r , nos queda 0 = 〈 ui |

r X

j =1

αj uj 〉 =

r X

j =1

α j 〈ui |u j 〉.

Todos los sumandos de la derecha son nulos, salvo 〈ui |ui 〉, que es positivo. Entonces αi = 0, para todo i = 1, . . ., r . Álgebra Lineal y Geometría

299

Depto. de Álgebra

Ejemplo 8.5.3.- Consideremos V = R3 con el producto escalar estándar. El conjunto       1 1 −1 B ′ = {u1 =  −1  , u2 =  1  , u3 =  −1 } 0 1 2 p es ortogonal, pero no es ortonormal. Como ku1 k = 2, ku2 k = p un conjunto p 3, ku3 k = 6, el conjunto B = { p1 u1 , p1 u2 , p1 u3 } es ortonormal. 2

3

6

Expansión de Fourier Si B = {u1 , u2 , . . . , un } es una base ortogonal de un espacio vectorial con producto escalar, entonces cada x ∈ V se puede expresar como

x=

〈u1 |x〉 ku1 k

2

u1 +

〈u2 |x〉 ku2 k

2

u2 + · · · +

〈un |x〉 kun k2

un .

Esta expresión se denomina expansión de Fourier del vector x. Los es〈u |x〉 calares xi = kui k2 son las coordenadas de x respecto de la base B, y se i denominan coeficientes de Fourier. P RUEBA : Si x = α1 u1 + α2 u2 + · · · + αn un , entonces 〈u j |x〉 = 〈u j |

n X

i =1

αi ui 〉 =

n X

i =1

° °2 αi 〈u j |ui 〉 = α j °u j ° .



Ejemplo 8.5.4.- En R3 , consideremos la base ortogonal respecto al producto escalar estándar dada por 

     1 1 0      B = {u1 = −1 , u2 = 1 , u3 = 0 }, 0 0 1 300

Álgebra Lineal y Geometría

Depto. de Álgebra

Figura 8.1: Joseph Fourier (1768-1830) Entonces el vector



 2 x =  −3  4

verifica

x=

〈u1 |x〉e 2

ku1 k

u1 +

〈u2 |x〉e ku2 k

2

u2 +

〈u3 |x〉e ku3 k

2

5 2

1 2

u3 = u1 − u2 + 4 u3 ,

por lo que sus coordenadas respecto a B son   5/2 [x]B =  −1/2  . 4

Proyección ortogonal de un vector Sea W ⊂ V un subespacio de dimensión finita de (V, 〈|〉), con BW = {w1 , . . . , wr } una base ortogonal de W . Para cada x ∈ V , el vector proyW (x) =

r 〈w |x〉 X i

i =1

kwi k2

wi

es un vector de W que verifica 〈w |x − proyW (x)〉 = 0 para todo w ∈ W . Álgebra Lineal y Geometría

301

Depto. de Álgebra P RUEBA : Como proyW (x) es combinación lineal de la base de W , pertenece al subespacio. Observemos en primer lugar que, para cada j = 1, . . . , r se tiene que 〈w j |x − proyW (x)〉 = 〈w j |x〉 − 〈w j | = 〈w j |x〉 −

r 〈w |x〉 X i

i =1

kwi k2

r 〈w |x〉 X i

i =1

kwi k2

wi 〉

〈w j |wi 〉 = 〈w j |x〉 − 〈w j |x〉 = 0.

Por tanto, x −proyW (x) es un vector ortogonal a todos los elementos de la base de W . Sea ahora w ∈ W , por lo que admite una expresión de la forma w = Pr j =1 α j w j . Entonces 〈w |x − proyW (x)〉 = 〈

r X

j =1

α j w j |x − proyW (x)〉 =

r X

j =1

α j 〈w j |x − proyW (x)〉 = 0.

 Este vector proyW (x) se denomina proyección ortogonal de x sobre W . En principio, su expresión depende de la base elegida, pero veremos más adelante que queda unívocamente determinado por x y W .

Ejemplo 8.5.5.- Si en el ejemplo anterior consideramos W = 〈u1 , u2 〉, y el mismo vector x, entonces proyW (x) =

〈u1 |x〉e ku1 k

2

u1 +

〈u2 |x〉e ku2 k

2

5 2

1 2

u2 = u1 − u2 .

Las bases ortogonales y ortonormales hacen que el cálculo del producto escalar sea sencillo 302

Álgebra Lineal y Geometría

Depto. de Álgebra

Expresión del producto escalar con respecto a una base ortogonal /ortonormal Sea B = {u1 , . . . , un } una base de un espacio vectorial (V, 〈|〉) con producto escalar y tomemos v , w ∈ V con expresiones

v=

n X

i =1

v i ui , w =

n X

w j uj .

j =1

1. Si B es ortogonal, entonces 〈v |w 〉 =

n X

i =1

kui k2 v i w i .

2. Si B es ortonormal, entonces 〈v |w 〉 =

n X

i =1

v i w i = [v ]∗B [w ]B .

P RUEBA : Supongamos que B es una base ortogonal. Entonces 〈ui |u j 〉 = 0 si ı 6= j y 〈u1 |ui 〉 = kui k2 . De aquí, 〈v |w 〉 = 〈 =

n X

i =1 n X

i =1

v i ui |

n X

j =1

w j uj 〉 =

n n X X

i =1 j =1

v i w j 〈ui |u j 〉

v i w i kui k2 .

En el caso ortonormal, cada kui k es igual a 1.



8.6. Matrices unitarias En esta sección examinamos las matrices cuadradas cuyas columnas (o filas) son ortonormales respecto al producto escalar estándar. Álgebra Lineal y Geometría

303

Depto. de Álgebra

Matrices unitarias y ortogonales Una matriz unitaria es una matriz compleja Un×n cuyas columnas (o filas) constituyen una base ortonormal de Cn . Una matriz ortogonal es una matriz real Q n×n cuyas columnas (o filas) constituyen una base ortonormal de Rn . Las matrices unitarias y ortogonales tienen unas propiedades interesantes, una de las cuales es ¡que son fáciles de invertir. Para ello, observemos que las colum¢ nas de Un×n = u1 u2 . . . un forman un conjunto ortonormal si y solamente si ½ 1 si i = j , ∗ ∗ ⇔ U ∗U = I ⇔ U −1 = U ∗ . [U U ]i j = ui u j = 0 si i 6= j , Notemos que U ∗U = I si y solamente si UU ∗ = I , es decir, las columnas de U son ortonormales si y solamente si las filas de U son ortonormales. Otra importante propiedad es que la multiplicación por una matriz unitaria no cambia la longitud de un vector. En efecto, si U es una matriz unitaria, entonces kU xk22 = x∗U ∗U x = x∗ x = kxk22 , para todo x ∈ Cn . (8.6.1)

Las matrices unitarias tienen un papel destacado en los cambios de base de espacios unitarios. Cambio de base ortonormal Sean B y B ′ bases ortonormales de un espacio vectorial (V, 〈|〉) con producto escalar de dimensión finita. Entonces la matriz de cambio de base P = M(B, B ′ ) es unitaria.

P RUEBA : Sean B = {u1 , . . . , un } y B ′ = {u′1 , . . . , u′n } las bases ortonormales. Entonces 〈ui |u j 〉 = 〈u′i |u′j 〉 = δi j .

La matriz de paso entre las bases es de la forma

P = M(B, B ′ ) =

304

¡

[u1 ]B ′ [u2 ]B ′ . . . [un ]B ′

¢



  = 

a11 a21 .. .

a12 a22 .. .

an1 an2

... ... .. .

a1n a2n .. .

. . . ann



  . 

Álgebra Lineal y Geometría

Depto. de Álgebra Esto significa que ui = 〈ui |u j 〉 = 〈 = =

n X

k=1

k=1

aki u′k |

n X n X

k=1 l =1 n X k=1

Pn

n X

l =1

aki u′k , de donde al j u′l 〉

aki al j 〈u′k |u′l 〉

aki ak j , pues solamente aparecen los términos con k = l .

Esta última expresión es el elemento (i , j ) de la matriz P ∗ P . Dado que I = (〈ui |u j 〉), tenemos el resultado. 

8.7. Método de Gram-Schmidt Los espacios Rn y Cn tienen unas bases ortonormales muy sencillas, como son las bases estándar. Sin embargo, nos planteamos una pregunta: dado un espacio de dimensión finita con un producto escalar, ¿tiene una base ortonormal? Pensemos en un subespacio vectorial, dado por un sistema de generadores, y del que queremos calcular una base ortonormal para, posteriormente, realizar proyecciones. La respuesta a esta pregunta la encontramos con el procedimiento de Gram-Schmidt.

Figura 8.2: Jorgen P. Gram (1850-1916), Erhard Schmidt (1876-1959) Partamos entonces de un espacio vectorial (V, 〈|〉) con un producto escalar. Sea S = {v1 , . . . , vs } un conjunto de vectores linealmente independientes. Vamos a construir un conjunto ortonormal de vectores {q1 , . . . , qs } tal que para Álgebra Lineal y Geometría

305

Depto. de Álgebra cada k ∈ {1, . . . , s} se verifica que el subespacio vectorial generado por los vectores {v1 , . . . , vk } es igual que el subespacio vectorial generado por {q1 , . . . , qk }. El proceso es por inducción sobre s. Para s = 1, tomamos simplemente q1 = v1 / kv1 k. En general, escribimos

q1′ = v1 , q2′ = v2 − λ12 q1′ .. .

′ qs′ = vs − λ1s q1′ − . . . − λs−1,s qs−1 ,

para ciertos escalares λi j . Buscamos esta forma en los vectores qi′ para que generen el mismo subespacio vectorial que los vi . Queremos imponer la condición de ortogonalidad en el conjunto {q1′ , . . . , qs′ }. Para ello tiene que ocurrir que ° °2 〈q1′ |q2′ 〉 = 0 = 〈q1′ |v2 〉 − λ12 °q1′ ° ,

de donde podemos calcular λ12 y entonces tenemos el vector q2′ . Es claro que el subespacio generado por {q1′ , q2′ } es igual que el subespacio generado por ′ , con la igualdad de los {v1 , v2 }. En general, si tenemos construidos q1′ , . . . , qk−1 espacios generados por los vectores ′ }, {v1 , . . . , vk−1 } y {q1′ , . . . , qk−1

entonces para obtener qk′ imponemos las condiciones ° °2 = 〈q1′ |vk 〉 − λ1k °q1′ ° ° °2 = 〈q2′ |vk 〉 − λ2k °q2′ ° .. . ° ′ °2 ′ ′ ′ ° 0 = 〈qk−1 |qk 〉 = 〈qk−1 |vk 〉 − λk−1,k °qk−1

0 = 〈q1′ |qk′ 〉 0 = 〈q2′ |qk′ 〉 .. .

y podemos calcular todos los λ j k . Se tiene además que los subespacios generados por {v1 , . . . , vk } y {q1′ , . . . , qk′ } son iguales. Si ahora normalizamos qi = °°q1′ °° qi′ i

conseguimos el conjunto ortonormal. Observemos que la normalización de cada qi′ se puede realizar en cada paso. La forma de los coeficientes λi k es la asociada a la proyección ortogonal ′ de vk sobre el subespacio Wk−1 = 〈q1′ , . . . , qk−1 〉, si usamos su base ortogonal ′ ′ {q1 , . . . , qk }. Podemos escribir entonces que 1

q1′ = v1 , qk′ = vk − proyWk−1 (vk ), 2 ≤ k ≤ s. 306

Álgebra Lineal y Geometría

Depto. de Álgebra

Procedimiento de ortogonalización de Gram-Schmidt Si S = {v1 , v2 , . . . , vs } es un conjunto de vectores linealmente independiente, entonces la sucesión de Gram-Schmidt definida por

q1′ = v1 , qk′ = vk − proyWk−1 (vk ) = vk − es una base ortogonal de 〈S〉.

〈qi′ |vk 〉 ′ ° °2 qi , 2 ≤ k ≤ s, ′ i =1 °q °

k−1 X

i

Si escribimos qi = °°q1′ °° qi′ , i = 1, 2, . . ., s, entonces {q1 , q2 , . . . , qs } es una base i ortonormal de 〈S〉. Además, para cada i = 1, 2, . . ., s, se verifica que el subespacio generado por {v1 , v2 , . . . , vi } es igual al subespacio generado por {q1′ , q2′ , . . . , qi′ }, que coincide con el subespacio generado por {q1 , q2 , . . . , qi }. Otra forma equivalente de expresar lo anterior es que si (V, 〈|〉) es un espacio vectorial con producto escalar y de dimensión finita, entonces tiene una base ortonormal.

Método de Gram-Schmidt Entrada: conjunto S = {v1 , v2 , . . . , vs } linealmente independiente. Salida: conjunto ortonormal {q1 , q2 , . . . , qs } que verifica 〈q1 , . . . , qk 〉 = 〈v1 , . . . , vk 〉 para todo k = 1, . . . , s. 1. Definimos q1′ = v1 . 2. Para k = 2, . . . , s calculamos ′ qk′ = vk − proyWk−1 (vk ),Wk−1 = 〈q1′ , . . . , qk−1 〉, ′ k−1 〈q j |vk 〉 X = vk − λ j k q ′j , donde λ j k = ° °2 . ° ′° j =1 °q j °

3. Normalizamos el conjunto {q1′ , . . . , qs′ } mediante

qk = ° ° Álgebra Lineal y Geometría

1

° q′ , k ′° k qk

= 1, 2, . . . , s.

307

Depto. de Álgebra

Ejemplo 8.7.1.- En V = R4 , con respecto al producto escalar estándar, sean       1 3 1        2   1   0  v1 =  . ,v =  ,v =   0  2  0  3  1  −1 −1 −1

Vamos a calcular una base ortonormal del subespacio vectorial 〈v1 , v2 , v3 〉. El proceso es:

q1′ = v1

〈q ′ |v2 〉e q2′ = v2 − λ12 q1′ , λ12 = °1 °2 = 1, °q ′ ° 1    

q2′ = v2 − q1′ = 

0 2 0 0



  , 

q3′ = v3 − λ13 q1′ − λ23 q2′ , 〈q1′ |v3 〉e λ13 = ° °2 = 2, °q ′ ° 1

〈q2′ |v3 〉e 1 λ23 = ° °2 = , °q ′ ° 2 2  1 2

  

q3′ = v3 − 2q1′ − q2′ =  Entonces



1   2

q1 = p 

308

1 0 0 −1





     , q2 =   

0 1 0 0



1 0 1 1



  .  

 1     , q3 = p   3

1 0 1 1



  . 

Álgebra Lineal y Geometría

Depto. de Álgebra Ejemplo 8.7.2.- Sea V = C ([−1, 1]) con el producto escalar Z1 〈 f |g 〉 = f (x)g (x) d x. −1

Para cada i ≥ 0, sea f i la función polinómica f i : x 7→ x i . Entonces, para cada n > 0, el conjunto { f 0 , f 1 , . . . , f n } es linealmente independiente y forma una base de un subespacio W . Si aplicamos el procedimiento de Gram-Schmidt a esta base, obtenemos una nueva base {p 0 , p 1 , . . . , p n } que es ortonormal; los p j son los polinomios de Legendre.

Ejemplo 8.7.3.- Sea V el espacio de la funciones f : R → R tales que es finita, con el producto escalar Z∞ 〈 f |g 〉 = f (x)g (x) d x.

¯2 R∞ ¯ ¯ ¯ −∞ f (x) d x

−∞

Sea h la función definida por   1 h(x) = −1  0

si 0 < x ≤ 21 , si 12 < x ≤ 1, en otro caso.

Esta función se denomina wavelet de Haar. Para cada j , k ∈ N, se define la funj j j ción h k ∈ V mediante h k (x) = 2 j /2 h(2 j x −k). Entonces el conjunto {h k | j , k ∈ N} es ortonormal.

Nota 8.7.1. ¿Qué ocurre si se aplica el procedimiento de Gram-Schmidt a un conjunto {v1 , . . . , vs } que ya es ortogonal? Los vectores qk′ , 2 ≤ k ≤ s, que se construyen en cada paso son de la forma

qk′

= vk −

k−1 X j =1

λ j k q ′j ,

donde λ j k

〈q ′j |vk 〉 = ° °2 . ° ′° °q j °

Observemos que q2′ es igual a v2 y, por inducción, todos los coeficientes λ j k son nulos. Por tanto, se llega a que qi′ = vi , i = 1, . . ., s. Si el conjunto de partida es ortonormal, entonces qi = vi , i = 1, . . . , s. Álgebra Lineal y Geometría

309

Depto. de Álgebra El razonamiento anterior nos permite enunciar el siguiente resultado.

Ampliación de un conjunto ortogonal a una base ortogonal Sea (V, 〈|〉) un K-espacio vectorial de dimensión finita n con producto escalar y S = {v1 , . . . , vs } un conjunto ortogonal (ortonormal). Entonces existe una base B ortogonal (ortonormal) de V tal que S ⊂ B.

P RUEBA : Dado que el conjunto S es linealmente independiente, existen vectores ws+1 , . . . , wn tales que B0 = {v1 , . . . , vs , ws+1 , . . . , wn } es una base de V . Si aplicamos el procedimiento de Gram-Schmidt al conjunto B0 , entonces los vectores qi′ son iguales a los vi , para i = 1, . . . , s, por lo que habremos construi′ , . . . , qn′ }. Si el conjunto de partida es do una base ortogonal B = {v1 , . . . , vs , qs+1 ortonormal, obtendremos, tras normalizar, una base ortonormal que contiene a S. 

8.8. Factorización QR 8.8.1. Factorización QR reducida El proceso de Gram-Schmidt ¡se puede ver también en la forma de facto¢ rización de matrices. Sea A m×s = v1 v2 . . . vs una matriz con columnas independientes. Cuando se aplica Gram-Schmidt a las columnas de A, estamos calculando una base ortonormal {q1 , q2 , . . . , qs } de Col(A), donde

q1′ = v1 , q2′ = v2 − λ12 q1′ , .. .

′ . qs′ = vs − λ1s q1′ − . . . − λs−1,s qs−1

Escribamos los vectores vi en función de los q j . Entonces

310

v1 = q1′ v2 = λ12 q1′ + q2′

= r 11 q1 , = r 12 q1 + r 22 q2 ,

vs

= r 1s q1 + . . . + r s−1,s qs−1 + r ss qs ,

.. . ′ = λ1s q1′ + . . . + λs−1,s qs−1 + qs′

Álgebra Lineal y Geometría

Depto. de Álgebra que en forma matricial podemos expresarlo como  ¡

v1 v2 . . . vs

¢

=

¡

¢  

q1 q2 . . . qs 

r 11 r 12 . . . r 1s 0 r 22 . . . r 2s .. . 0

0

. . . r ss



  . 

Observemos que todos los r i i son positivos, pues son normas de vectores. Tenemos así que A m×s = Q m×s R s×s , donde las columnas de Q forman una base ortonormal de Col(A), y R es una matriz triangular superior con elementos no nulos en la diagonal. A esta descomposición la llamaremos factorización QR reducida o rectangular, porque la matriz Q es rectangular y R es cuadrada.

Ejemplo 8.8.1.- Partimos del ejemplo (8.7), donde      1 1 3       1  0   2  v1 =  ,v =  ,v =   0  2  0  3  1 −1 −1 −1 y habíamos calculado



1   2

q1 = p 

1 0 0 −1





     , q2 =   

0 1 0 0





 1     , q3 = p   3



  ,  1 0 1 1



  . 

El cambio de base viene dado por los coeficientes λi j del proceso, y podemos despejar los vectores vi en función de los vectores q j . ° ° p v1 = °q1′ ° q = 2q , 1 ° ′° ° ′° p 1 ° ° ° ° v2 = λ12 °q1 ° q1 + q2° q2° = 2q1 +2q2 ° ° p p v3 = λ13 °q1′ ° q1 +λ23 °q2′ ° q2 + °q3′ ° q3 = 2 2q1 +q2 + 3q3 .

La descomposición QR reducida queda de la forma p   p p 2 2 2 2 ¢ ¡ ¢ ¡  0 2 1 . A = v1 v2 v3 = q1 q2 q3 p 0 0 3

Álgebra Lineal y Geometría

311

Depto. de Álgebra

8.8.2. * Factorización QR completa Se puede conseguir otra factorización con Q unitaria y R rectangular. Consiste en añadir a R filas de ceros hasta hacerla m × s, y en añadir a Q m − s columnas ortogonales a las anteriores para formar una matriz unitaria. En este caso se la llama factorización QR completa.

Ejemplo 8.8.2.- Para obtener la factorización QR completa del ejemplo anterior, debemos ampliar el conjunto {q1 , q2 , q3 } a una base ortonormal. Como los subespacios son iguales, ampliamos {v1 , v2 , v3 } a una base. Para ello, consideramos una forma escalonada por filas de la matriz ¢ ¡ v1 v2 v3 e1 e2 e3 e4 , donde ei , i = 1, 2, 3, 4 son los vectores de la base estándar. Nos queda   1 0 0 0 −1/2 −1/2 −1    0 1 0 0 1/2 −1/2 0    0 1 0   0 0 1 0 0 0 0 1 0 −2 1

lo que indica que podemos tomar para ampliar e1. Sea v4 = e1 . Hay que calcular

q4′ = v4 − λ14 q1′ − λ24 q2′ − λ34 q3′ que sea ortogonal a q1′ , q2′ , q3′ . Efectuando los cálculos llegamos a   1/6   p 0   ′ λ14 = 1/2, λ24 = 0, λ34 = 1/3, q4 =   , q4 = 6q4′ .  −1/3  1/6

Entonces

A=

¡

¢

¡

 p

¢  

v1 v2 v3 = q1 q2 q3 q4 

2 0 0 0

p

p  2 2 2  2 1 p  . 0 3  0 0

Existe un procedimiento directo para el cálculo de una factorización QR completa basado en las matrices de Householder. 312

Álgebra Lineal y Geometría

Depto. de Álgebra

8.9. Descomposición ortogonal Complemento ortogonal Sea M un subconjunto de un espacio vectorial (V, 〈|〉) con producto escalar. Definimos el complemento ortogonal M ⊥ como M ⊥ = {x ∈ V | 〈m|x〉 = 0 para todo m ∈ M}.

En otras palabras, el conjunto M ⊥ es el conjunto de vectores x que son ortogonales a todos los elementos de M. Esto lo notaremos como x⊥M. Vamos a probar en primer lugar que M ⊥ es un subespacio vectorial de V . Sean v1 , v2 ∈ M ⊥ . Entonces 〈m|v1 + v2 〉 = 〈m|v1 〉 + 〈m|v2 〉 = 0 para todo m ∈ M, y 〈m|αv1 〉 = α〈m|v1 〉 = 0 para todo m ∈ M. Esto es independiente de la estructura de M. Sin embargo, el caso que nos interesa especialmente es cuando M es un subespacio vectorial W de dimensión finita de V . En tal caso, existe una base finita de W formada por los vectores w1 , . . . , wr . La definición impone, en principio, un conjunto infinito de condiciones para caracterizar a los elementos de W ⊥ . Sin embargo, vamos a ver que W ⊥ = {x ∈ V | 〈wi |x〉 = 0 para todo i = 1, . . . , r }.

(8.9.1)

Es claro que si x ∈ W ⊥ , entonces está en el conjunto de la derecha. Si ahora 〈wi |x〉 = 0 para todo i = 1, . . . , r , consideremos un vector w ∈ W . Entonces w se puede expresar como combinación lineal de w1 , . . . , wr , esto es,

w=

r X

i =1

αi wi , y 〈w |x〉 = 〈

r X

i =1

αi wi |x〉 =

r X

i =1

αi 〈wi |x〉 = 0.

Tenemos así el resultado.

Álgebra Lineal y Geometría

313

Depto. de Álgebra Ejemplo 8.9.1.- Consideremos el subespacio W = 〈w1 , w2 〉 ⊂ R3 , con el producto escalar estándar, donde 

   1 2    w1 = −1 , w2 = 0  . 0 1 Entonces W ⊥ viene dado por las soluciones del sistema lineal homogéneo ½

  −1/2 x1 −x2 = 0, esto es W ⊥ = 〈h1 =  −1/2 〉. 2x1 +x3 = 0, 1

La caracterización del complemento ortogonal dado por las ecuaciones (8.9.1), que hemos usado en el ejemplo anterior, nos permiten definir un método para calcular unas ecuaciones implícitas de W ⊥ a partir de un conjunto de generadores de W = 〈w1 , . . . , wr 〉. Están dadas por las relaciones 〈wi |x〉 = 0, i = 1, . . . , r En el caso de Kn con el producto escalar estándar, lo anterior toma la forma 

 M x = 0, donde M = 

w1∗ .. .

wr∗



 .

El uso de la palabra “complemento” para referirnos a W ⊥ tiene su origen en el siguiente resultado. Complemento ortogonal y suma directa Sea W un subespacio vectorial de dimensión finita de un espacio vectorial V con producto escalar. Entonces V = W ⊕ W ⊥. En particular, si V es de dimensión finita, entonces dimW ⊥ = dimV − dimW .

314

Álgebra Lineal y Geometría

Depto. de Álgebra P RUEBA : Si v ∈ W ∩ W ⊥ , entonces v es un vector ortogonal a sí mismo, es decir, 〈v |v 〉 = 0, de donde v = 0. Sea BW = {w1 , . . . , wr } una base ortogonal de W , que existe por el procedimiento de Gram-Schmidt. Si v ∈ V , tenemos el vector asociado r 〈w |v 〉 X k proyW (v ) = wk ∈ W. 2 k=1 kwk k Recordemos que v − proyW (v ) ∈ W ⊥ . Dado que v = proyW (v ) + (v − proyW (v )), tenemos el resultado.



Ejemplo 8.9.2.- En V la matriz  3  G =  1 0

= R3 consideremos el producto escalar 〈|〉 inducido por 1

0



 t −1   , expresado como 〈x|y 〉 = x G y . −1 2 5

La matriz G define un producto escalar porque es de la forma G = U t DU , donde     1 1/3 0 3 0 0       0  U =  0 1 −3/14  , D =  0 14/3 . 0 0 1 0 0 25/14 Como U es no singular y D tiene valores positivos en su diagonal, es fácil ver que 〈x|x〉 ≥ 0 para todo vector x, y que 〈x|x〉 = 0 si y solamente si x = 0. El resto de propiedades son inmediatas. Consideremos el subespacio vectorial W = 〈w1 〉, donde 

 1 w1 =  1  . −1 Entonces x ∈ W ⊥ si y solamente si 〈w1 |x〉 = 0, esto es, 

3

1

0





 x 1  ¡ ¢   1 1 −1   1 5 −1  x2 = 0, o bien 4x1 + 7x2 − 3x3 = 0. x3 0 −1 2 Álgebra Lineal y Geometría

315

Depto. de Álgebra Una base de W ⊥ es {v1 , v2 }, donde     3/4 −7/4 1 . v1 =  0  , v2 =  1 0

El resultado anterior nos permite probar que el vector proyW (v ) solamente depende del subespacio W y v . En efecto, la suma directa implica que existen unos únicos w ∈ W, w ′ ∈ W ⊥ tales que v = w + w ′ . La expresión v = proyW (v ) + (v −proyW (v )) prueba que el cálculo de proyW (v ) se puede hacer con cualquier base ortogonal de W . Propiedades del complemento ortogonal Si W1 y W2 son subespacios de un espacio vectorial (V, 〈|〉) con producto escalar de dimensión finita, entonces (W1⊥ )⊥ = W1 . Si W1 ⊂ W2 , entonces W2⊥ ⊂ W1⊥ . (W1 + W2 )⊥ = W1⊥ ∩ W2⊥ . (W1 ∩ W2 )⊥ = W1⊥ + W2⊥ . P RUEBA : Sea v ∈ (W1⊥ )⊥ . Como V = W1 ⊕ W1⊥ , entonces v = a + b, con a ∈ W1 y b ∈ W1⊥ . De aquí, 0 = 〈v |b〉 = 〈a|b〉 + 〈b|b〉 = 〈b|b〉, de donde b = 0, y tenemos que v ∈ W1 . Por tanto, (W1⊥ )⊥ ⊂ W1 . Como dim(W1⊥ )⊥ = dimV − dimW1⊥ = dimW1 , tenemos la igualdad entre los subespacios. Si v ∈ W2⊥ , entonces v es ortogonal a todos los vectores de W2 , entre los que se encuentran los de W1 . Por tanto, v ∈ W1⊥ . 316

Álgebra Lineal y Geometría

Depto. de Álgebra Dado que W1 ,W2 ⊂ W1 +W2 , el resultado anterior implica que (W1+W2 )⊥ ⊂ W1⊥ ∩ W2⊥ . Para la otra inclusión, sea v ∈ W1⊥ ∩ W2⊥ y tomemos un vector cualquiera w ∈ W1 + W2 . Entonces existen w1 ∈ W1 , w2 ∈ W2 tales que w = w1 + w2 . De aquí, 〈v |w 〉 = 〈v |w1 〉 + 〈v |w2 〉 = 0. | {z } | {z } w1 ∈W1⊥

w2 ∈W2⊥

Por tanto, v ∈ (W1 + W2 )⊥ .

Aplicamos lo anterior para obtener (W1⊥ + W2⊥ )⊥ = (W1⊥ )⊥ ∩ (W2⊥ )⊥ = W1 ∩ W2 .



Ejemplo 8.9.3.- Este teorema proporciona un método para el cálculo de la intersección de dos subespacios vectoriales. Consideremos R4 con el producto escalar estándar y los subespacios dados por         0 1 1 1          1   1   2   2  U = 〈u1 =   , u2 =  〉,V = 〈v1 =   , v2 =  〉.  0   1   1   1  1 1 0 2

Calculamos en primer lugar U ⊥ y V ⊥ . El conjunto U ⊥ es el espacio de soluciones del sistema lineal homogéneo ½ x1 + 2x2 + x3 + 2x4 = 0, x2 + x4 = 0, por lo que calculamos la forma escalonada reducida por filas de la matriz de coeficientes:  x1 = −x3 , #  "  ¶ µ  1 0 1 0 x2 = −x4 , 1 2 1 2 rref , − → ,  x = x3 , 0 1 0 1 0 1 0 1   3 x4 = x4 ,     −1 0      0   −1  ⊥ U = 〈 u3 =  ,u =  〉.  1  4  0  0 1 Álgebra Lineal y Geometría

317

Depto. de Álgebra Análogamente para V ⊥ : "

1 1 1 1 1 2 1 0

#

 x1 = −x3 −2x4 , #    1 0 1 2 x2 = x4 , rref , − → ,  x = x3 , 0 1 0 −1   3 x4 = x4 ,     −2 −1      1   0  V ⊥ = 〈v3 =   , v4 =  〉.  0   1  0 1 "

El subespacio U ⊥ +V ⊥ está generado por los vectores {u3 , u4 , v3 , v4 }. Ahora tenemos en cuenta la relación U ∩ V = (U ⊥ + V ⊥ )⊥ , por lo que calculamos el espacio ortogonal a este conjunto de vectores:

¡ Entonces

u3 u4 v3 v4

¢t



−1

0

−2

1

1 0





1 0 0 −1



     0 −1 0 1   0 1 0 −1   rref    = → − .  −1 0 1 0   0 0 1 −1      0 1

0 0 0



  U ∩ V = (U + V ) = 〈w1 =   ⊥

⊥ ⊥

1 1 1 1

0



  〉. 

Ejemplo 8.9.4.- El espacio W debe ser de dimensión finita para que se cumplan las propiedades del complemento ortogonal. Consideremos V el R-espacio vectorial de las sucesiones a = {an | an = 0 salvo un número finito de términos }, P con el producto escalar 〈a|b〉 = i ≥1 ai b i . Para cada h ≥ 1, sea vh la sucesión que contiene la entrada h-ésima igual a 1 y las restantes son iguales a cero. Entonces B = {vh | h ≥ 1} es una base ortonormal de V . Consideremos el subespacio W generado por las combinaciones lineales finitas del conjunto de sucesiones {v1 − v2 , v2 − v3 , . . .}. Este subespacio es propio, pues v1 6∈ W y no es 318

Álgebra Lineal y Geometría

Depto. de Álgebra de dimensión finita. Si 0V 6= y entonces podemos escribir y = ciertos números reales ai y an 6= 0. Si y ∈ W ⊥ , entonces

Pn

i =1 a i vi

para

a1 − a2 = 0, a2 − a3 = 0, . . . , an − an+1 = 0, y esto contradice el carácter no nulo de y . Por tanto, W ⊥ = 0V , aunque W 6= V . Además, V 6= W ⊕ W ⊥ y (W ⊥ )⊥ = V 6= W .

Ahora vamos a aplicar el cálculo del complemento ortogonal para ampliar un conjunto ortogonal a una base. Ampliación de un conjunto ortogonal a una base ortogonal del espacio Entrada: conjunto ortogonal S 0 = {q1′ , . . . , qs′ }. ′ , . . . , qn′ }. Salida: base ortogonal B = {q1′ , . . . , qs′ , qs+1 1. Calculamos el complemento ortogonal S 0⊥ = 〈u′s+1 , . . . , u′n 〉. 2. Aplicamos el procedimiento de Gram-Schmidt a dicho conjunto.

Ejemplo 8.9.5.- Consideremos los vectores ortonormales     −2 0    1  0   1  q1 =   , q2 =   .  1  3 0  2 0

El conjunto ortogonal a S 0 = {q1 , q2 } está definido por las soluciones del sistema lineal homogéneo ½ Como

"

− 23 x1 +

1 x 3 2

x3

−2/3 1/3 0 2/3 0

0

Álgebra Lineal y Geometría

1

+

0

#

rref

− →

"

2 x 3 4

= 0, = 0.

1 −1/2 0 −1 0

0

1

0

#

, 319

Depto. de Álgebra una base del espacio de soluciones es     1/2 1        1   ′  0   u′3 =   , u4 =   .  0   0      1

0

Ahora aplicamos el procedimiento de Gram-Schmidt al conjunto {u′3 , u′4 }.   1/2    1    q3′ = u′3 =  ,  0    0

q4′

q4′

=

u′4 − λq3′ , 〈q3′ |u′4 〉e λ= ′ ′ 〈q3 |q3 〉e



1





    0  2    =  −   0  5    1

2 = , 5    1/2 4/5      1    −2/5  . =   0    0  0

1

De esta forma ya tenemos un conjunto ortogonal {q1 , q2 , q3′ , q4′ } que contiene al original. Para que sea ortonormal, basta normalizar los vectores qi′ , i = 3, 4: p   p   4 5 5/5 15   p   p  2 5/5   −2 5/15  1 1     ° q′ =  q3 = ° .  , q4 = ° ′ ° q4′ =  ° °q ′ ° 3  °    q 0 0 3 4     p 0 5/3

Una última aplicación del complemento ortogonal es el cálculo de unas ecuaciones implícitas de un subespacio vectorial de Kn a partir de un conjunto de generadores. Por simplicidad, suponemos fijada la base estándar del espacio vectorial Kn , que es ortonormal respecto al producto escalar estándar, y sea W el subespacio vectorial generado por un conjunto S. 320

Álgebra Lineal y Geometría

Depto. de Álgebra

De paramétricas a implícitas: ortogonal 1. Se considera la matriz A, de orden m × n, cuyas columnas son las componentes de los elementos de S. 2. Calculamos unas ecuaciones implícitas de W ⊥ a partir de A ∗ . 3. Obtenemos una base h1 , . . . , hs de null(A ∗ ) mediante la forma escalonada de A ∗ . 4. Si consideramos la matriz T=

¡

h1 . . . h s

¢

entonces T ∗ es la matriz de coeficientes de un sistema lineal homogéneo que define a W .

Ejemplo 8.9.6.- Sea W el subespacio vectorial de R4 generado por los vectores     1 0     ¢ ¡  2   1  u1 =   , u2 =   , y formemos la matriz A = u1 u2 .  1   0  2 1

Entonces el complemento ortogonal W ⊥ está definido por las soluciones del sistema lineal homogéneo A t x = 0: µ ¶ µ ¶ 1 2 1 2 rref 1 0 1 0 t A = − → , 0 1 0 1 0 1 0 1

de donde ⊥

W ≡

½

x1 x2

+x3

+x4



 = 0,  ⊥ , y W = 〈h 1 =  = 0 

−1 0 1 0

Entonces, unas ecuaciones implícitas de W son ½ −x1 +x3 = 0, W≡ −x2 +x4 = 0.

Álgebra Lineal y Geometría





     , h2 =   

0 −1 0 1



  〉. 

321

Depto. de Álgebra

8.10. Isometrías Recordemos que las matrices unitarias U verifican que U ∗ = U −1 , que es equivalente a decir que sus columnas o filas forman una base ortonormal de Cn . En el caso real, U t = U −1 , y las llamamos ortogonales. También presentamos un tipo especial de homomorfismo entre espacios vectoriales con producto escalar. Isometría Sean (V, 〈|〉V ), (W, 〈|〉W ) espacios vectoriales de dimensión finita con producto escalar. Una aplicación lineal f : V → W es una isometría si 〈v1 |v2 〉V = 〈 f (v1 )| f (v2 )〉W para todo v1 , v2 ∈ V .

Ejemplo 8.10.1.- Sean V = R2 ,W = R3 con el producto escalar estándar. La aplicación lineal f : R2 → R3 dada por   µ ¶ a1 a1 v= 7→ f (v ) =  a2  a2 0 es una isometría. Es claro que f no tiene inversa.

Nota 8.10.1. Si f : V → W es una isometría y v ∈ V , entonces ° ° ° f (v )°2 = 〈 f (v )| f (v )〉W = 〈v |v 〉V = kv k2 , W

V

es decir, conserva la ° norma. ° Recíprocamente, supongamos que f es una aplica° ción lineal tal que f (v )°W = kv kV para todo v ∈ V . Como el producto escalar se puede recuperar a partir de la norma (pág. 293), concluimos que f es una isometría. 322

Álgebra Lineal y Geometría

Depto. de Álgebra

Condición equivalente de isometría Sean V y W espacios vectoriales con producto escalar y de la misma dimensión finita n. Si f ∈ Hom(V,W ), las siguientes afirmaciones son equivalentes: 1. f es una isometría. 2. f es isomorfismo e isometría. 3. Si {v1 , . . . , vn } es una base ortonormal de V { f (v1 ), . . . , f (vn )} es una base ortonormal de W .

entonces

4. Existe {v1 , . . . , vn } base ortonormal de V tal que { f (v1 ), . . . , f (vn )} es una base ortonormal de W . P RUEBA : (1) ⇒ (2). Supongamos que f es isometría. Si v 6= 0 es un vector de V entonces 0 6= 〈v |v 〉 = 〈 f (v )| f (v )〉, por lo que f (v ) 6= 0. Esto implica que ker f = 0; dado que dimV = dimW , tenemos que f es isomorfismo. (2) ⇒ (3). Sea ahora {v1 , . . . , vn } una base ortonormal de V . Como f es isomorfismo, { f (v1 ), . . . , f (v )n } es una base de W . Además, 〈 f (vi )| f (v j )〉 = 〈vi |v j 〉 = δi j , por lo que también es una base ortonormal. (3) ⇒ (4). Es inmediato. (4) ⇒ (1). Sea {v1 , . . . , vn } una base ortonormal de V y tomemos vectores P P u, v ∈ V . Entonces u = ni=1 ai vi , v = nj=1 b j v j y 〈u|v 〉 = Además, 〈 f (u)| f (v )〉 = 〈 f =

Ã

n X

i =1 n X n X

i =1 j =1

!

ai vi | f

n X

a i bi .

i =1

Ã

n X

j =1

!

b j vj 〉

ai b j 〈 f (vi )| f (v j )〉 =

n X

i =1

ai b i = 〈u|v 〉.

 Las matrices unitarias complejas de orden n forman un grupo, que notaremos por U (n). Las matrices ortogonales reales también tienen estructura de Álgebra Lineal y Geometría

323

Depto. de Álgebra grupo, notado por O(n). Es claro que si A es una matriz ortogonal, entonces 1 = det(I ) = det(A A t ) = det(A)2 , de donde det(A) = ±1. El conjunto de matrices ortogonales de orden n con determinante igual a 1 forma un grupo respecto al producto, que notaremos por SO(n), y se denomina grupo especial ortogonal. También es llamado el grupo de las rotaciones de Rn y representa los movimientos directos. Es interesante una reformulación del teorema de condición equivalente de isometría (pág. 323) cuando el espacio vectorial de partida y llegada coinciden. Isometría y matriz unitaria Sea f : V → V una aplicación lineal, con (V, 〈|〉) un K-espacio vectorial de dimensión finita. Son equivalentes: 1. f es isometría. ° ° 2. Si v ∈ V , entonces kv k = ° f (v )°.

3. Para toda base ortonormal B de V , la matriz de f respecto de la base B es unitaria. 4. Existe una base ortonormal B de V tal que la matriz de f respecto de la base B es unitaria. P RUEBA : Si f es isometría, ° °2 kv k2 = 〈v |v 〉 = 〈 f (v )| f (v )〉 = ° f (v )° , ° ° de donde kv k = ° f (v )°, pues son números no negativos. Como la norma define al producto escalar, la igualdad de las normas implica que f es isometría. Tenemos así la equivalencia entre las dos primeras condiciones. Sea entonces B = {v1 , . . . , vn } una base ortonormal de V y llamemos A = MB ( f ). Por el teorema de equivalencia de isometrías, el conjunto { f (v1 ), . . . , f (vn )} es una base ortonormal de V , de donde 〈 f (vi )| f (v j )〉 = δi j , i , j = 1, . . ., n. Por el teorema de expresión del producto escalar respecto de una base ortonormal (pág. 303), se tiene que 〈 f (vi )| f (v j )〉 = [ f (vi )]∗B [ f (v j )]B . Si unimos ambas expresiones, nos queda que A ∗ A = I . 324

Álgebra Lineal y Geometría

Depto. de Álgebra Supongamos ahora que existe una base ortonormal B tal que la matriz de f respecto de la base B es unitaria. Si llamamos A es esta matriz, entonces 〈 f (u)| f (v )〉 = [u]∗B A ∗ A[v ]B = [u]∗B [v ]B = 〈u|v 〉.

 En particular, la última equivalencia nos dice que si un endomorfismo f está definido por una matriz unitaria U respecto de una base ortonormal, entonces f es una isometría.

Álgebra Lineal y Geometría

325

Depto. de Álgebra

326

Álgebra Lineal y Geometría

Get in touch

Social

© Copyright 2013 - 2024 MYDOKUMENT.COM - All rights reserved.