Espacios vectoriales con producto interior

Espacios vectoriales con producto interior Longitud, norma o módulo de vectores y distancias entre puntos Generalizando la fórmula pitagórica de la l

2 downloads 115 Views 128KB Size

Recommend Stories

Story Transcript

Espacios vectoriales con producto interior

Longitud, norma o módulo de vectores y distancias entre puntos Generalizando la fórmula pitagórica de la longitud de un vector de R2 o de R3 , definimos la norma, longitud o módulo de un vector v = (v1 , . . . , vn ) en Rn mediante la fórmula q kvk = v21 + · · · + v2n . Análogamente, si v es un vector de Cn , la norma, módulo o longitud de v se define mediante la fórmula: q k v k = | v1 |2 + · · · + | v n |2 . Como vemos, en el caso complejo es necesario asegurarse de calcular previamente el módulo de cada componente del vector antes de elevarla al cuadrado, de lo contrario podría resultar un radicando negativo o incluso no real que nos impidiese demostrar las propiedades deseadas de la norma. Otra forma de escribir la norma de un vector complejo es: √ kvk = v¯1 v1 + · · · + v¯n vn . En cualquiera de los dos casos, la “función norma” definida en Rn o Cn tiene todas las propiedades algebraicas del módulo de un vector del plano o del espacio, a saber: 1. kvk ≥ 0, siendo kvk = 0 solamente en el caso v = 0. 2. kcvk = |c|kvk. 3. ku + vk ≤ kuk + kvk (desigualdad triangular). Longitudes de vectores y distancias La posibilidad de calcular longitudes de vectores de un espacio vectorial es equivalente a la de calcular distancias entre pares de puntos de ese espacio vectorial ya que, por un lado, la longitud de un vector es la distancia desde el punto representado por ese vector al origen de coordenadas (toda longitud de un vector es una distancia) y, por otro lado, la distancia entre los puntos representados por dos vectores u, v es igual a la longitud del vector diferencia u − v (toda distancia es la longitud de un vector). Así, por el mero hecho de poder calcular la norma de cada vector, podemos definir la distancia entre dos vectores cualesquiera:

Producto escalar y producto hermítico A continuación vamos a ver que la posibilidad de calcular longitudes de vectores de un espacio vectorial real se puede obtener como consecuencia de poder realizar una operación

1

Versión de 26 de noviembre de 2015, 23:10 h.

dist(u, v) = ku − vk.

algebraica con vectores llamada producto escalar, la cual es conocida por los estudiantes de Física para los vectores del plano y del espacio. Empezamos observando que el cuadrado de la norma de un vector de Rn ,

kvk2 = v21 + · · · + v2n se puede obtener como resultado de una operación que ya conocemos, a saber: la multiplicación de matrices. Efectivamente, kvk2 es igual al producto de la matriz 1 × n obtenida a hallar la traspuesta de v (considerado como un vector columna) por el propio vector v (como matriz n × 1):   v1  ..  T v v = (v1 · · · vn )  .  = v21 + · · · + v2n = kvk2 . vn Esta propiedad nos lleva definir la operación de producto escalar de dos vectores de Rn mediante   v1  ..  T (1) v · u = u v = ( u1 · · · u n )  .  = u1 v1 + · · · + u n v n

producto escalar

vn Análogamente, definimos la operación de producto interior complejo (o producto hermítico) de dos vectores de Cn mediante multiplicación, no por el vector traspuesto, sino por el conjugado traspuesto u∗ = (u¯ )T = uT :   v1  ..  ∗ T v ·u = u v = (u¯ ) v = (u¯ 1 · · · u¯ n )  .  = u¯ 1 v1 + · · · + u¯ n vn (2) vn En ambos casos, la norma euclidiana de los vectores se expresa en términos del producto escalar/producto hermítico mediante √ (3) kvk = v·v Propiedades del producto escalar en Rn La definición (1) del producto escalar en Rn nos permite demostrar muy fácilmente las siguientes propiedades: 1. 2. 3. 4.

(cu)·v = c(u·v). (u + w)·v = u·v + w·v. u ·v = v ·u (conmutatividad o simetría). u ·u ≥ 0 siendo u ·u = 0 solamente en el caso u = 0 (definida positiva).

En vista de la tercera propiedad, las dos primeras son equivalentes a (cada una de) las siguientes: 1’ (cu)·v = c(u ·v) y (u + w)·v = u ·v + w ·v. (“linealidad en la primera variable”: la aplicación ( )·v definida por x 7→ x ·v es lineal). 2’. u ·(cv) = c(u ·v) y u ·(v + w) = u ·v + u ·w. (“linealidad en la segunda variable”: la aplicación u ·( ) definida por x 7→ u ·x es lineal). Al expresar de esta forma las propiedades características del producto escalar en Rn , vemos que se puede decir que el producto escalar en Rn es una función real de dos variables vectoriales que es bilineal, simétrica y definida positiva. 2

producto hermítico conjugado traspuesto

Consecuencia de la propiedad “definida positiva”: Si A es una matriz real, el espacio nulo de AT A es el mismo que el de A. Por un lado, es evidente que los vectores del espacio nulo de A son también vectores del espacio nulo de AT A ya que si Ax = 0 entonces también AT Ax = 0. Supongamos ahora que x es un vector del espacio nulo de AT A, es decir, AT Ax = 0. Entonces x AT Ax = 0. Pero esto significa que el vector Ax tiene norma cero porque xT AT Ax = k Axk2 . Pero si Ax tiene norma cero, por la propiedad de definida positiva, el propio Ax es el vector cero y x pertenece al espacio nulo de A. T

Propiedades del “producto interior complejo” o producto hermítico en Cn El producto interior que hemos definido en Cn tiene propiedades muy parecidas a las del producto escalar de Rn . La diferencia fundamental es que la tercera propiedad toma ahora la forma: 3. u ·v = v ·u (“simetría conjugada” o “simetría hermitiana”). Ésta es justamente la propiedad necesaria para garantizar que la función (3) definida a partir del producto hermítico tenga todas las propiedades de una norma. Como consecuencia de esta diferencia entre el producto hermítico y el producto escalar, las dos primeras propiedades (que se pueden describir juntas como “linealidad en la primera variable”) ya no tienen como consecuencia la linealidad en la segunda variable, sino una especie de “linealidad conjugada” que se expresa como: u ·(cv) = c¯(u ·v) y u ·(v + w) = u ·v + u ·w. Evidentemente las propiedades del producto escalar de Rn son un caso particular de las del producto hermítico de Cn y, por tanto, todas las consecuencias de la últimas se cumplen también para las primeras. A partir de este momento, todos los razonamientos y cálculos estarán basados en el producto escalar (en Rn ) o el producto hermítico (en Cn ) por lo que todos los resultados que obtengamos serán consecuencia de las propiedades características del producto hermítico (de las que las propiedades del producto escalar son un caso particular) y que se pueden enunciar en forma completamente general como los axiomas de un producto interior en un espacio vectorial (real o complejo), a saber: Si V es un espacio real o complejo, se llama producto interior en V a toda función compleja hu, vi definida para u, v ∈ V y tal que: 1. hcu, vi = chu, vi, hu + w, vi = hu, vi + hw, vi. (“lineal en la primera variable”: la aplicación h · , vi definida por x 7→ hx, vi es lineal). 2. hu, vi = hv, ui (simetría compleja, conjugada o hermitiana). 3. hu, ui ≥ 0 siendo hu, ui = 0 solamente en el caso u = 0 (definida positiva). Combinando las dos primeras se deduce que todo producto interior complejo es una aplicación sesquilineal (versión compleja de la propiedad de ser bilineal de producto escalar de Rn ): 1’. hu, cvi = c¯hu, vi, hu, v + wi = hu, vi + hu, wi. (“conjugada lineal en la segunda variable”: la aplicación hu, · i definida por x 7→ hu, xi es conjugada lineal).

3

Se llama forma hermitiana a toda forma sesquilineal que tiene simetría conjugada (o simetría hermitiana); por tanto:

forma hermitiana

Un producto interior en un espacio real o complejo es una forma hermitiana definida positiva. En el caso real esto es lo mismo que una forma bilineal simétrica definida positiva.

Perpendicularidad y ángulo entre dos vectores La posibilidad de calcular la longitud de los vectores nos permite definir el concepto de “perpendicularidad” y por lo tanto de “angulo recto”. Además, la posibilidad de calcular el producto escalar o hermítico de dos vectores cualesquiera nos permite definir también el ángulo que forman dos vectores no nulos cualesquiera. Vectores perpendiculares Definición: Diremos que dos vectores u, v son perpendiculares u ortogonales si las dos diagonales, u + v y u − v, del paralelogramo que forman tienen la misma longitud, y escribiremos u⊥v

si y sólo si

k u + v k = k u − v k.

Dado que la norma o longitud de vectores se puede expresar en términos del producto escalar o hermítico, una forma equivalente de expresar la perpendicularidad de vectores es la igualdad de las siguientes dos normas al cuadrado

ku + vk2 = (u + v)·(u + v) = u·u + v·v + 2u·v

(4)

ku − vk2 = (u − v)·(u − v) = u·u + v·v − 2u·v

(5)

Por tanto podemos escribir: u⊥v

si y sólo si

u · v = 0.

Así, usando el producto escalar, es muy sencillo saber si dos vectores de Rn o de Cn son perpendiculares: si su producto escalar es cero lo son, en caso contrario no lo son. El ejemplo fundamental de vectores perpendiculares es el los vectores de la base canónica de Rn o de Cn , que son las columnas e1 , . . . , en de la matriz identidad n × n. Conjuntos ortogonales, vectores unitarios y conjuntos ortonormales Se llama conjunto ortogonal de vectores a todo conjunto de vectores u1 , . . . , uk tales que ui ·u j = 0 siempre que i 6= j. Una matriz A (que no tiene porqué ser cuadrada) es tal que AT A es una matriz diagonal si y sólo si las columnas de A forman un conjunto ortogonal. Si u1 , . . . , uk es un conjunto ortogonal de vectores no nulos y tomamos esos vectores como columnas para definir una matriz A = [u1 , . . . , uk ], entonces A tiene la propiedad de que el producto AT A (cuyos elementos son todos los productos escalares ui ·u j ) es una matriz cuadrada cuyos elementos diagonales son no nulos (es más, son positivos por ser los cuadados de las normas de los vectores no nulos u1 , . . . , uk ) y los elementos fuera de la diagonal son cero por ser cada uno un producto escalar de vectores perpendiculares. De lo dicho hasta aquí se deduce la siguiente propiedad:

4

Definición de perpendicularidad u ortogonalidad.

Propiedad:

Todo sistema ortogonal de vectores no nulos, u1 , . . . , uk , es un conjunto libre.

Para comprender el porqué, observamos que, según lo dicho más arriba, si formamos la matriz que tiene esos vectores como columnas, A = [u1 , . . . , uk ], entonces AT A = [ AT u1 , . . . , AT uk ] es una matriz diagonal con elementos diagonales no nulos y por tanto sus columnas son linealmente independientes. Esto implica que los vectores u1 , . . . , uk son independientes. De lo contrario, dado que el producto matriz por vector conserva las relaciones de dependencia lineal, cualquier relación de dependencia lineal que hubiera entre los vectores u1 , . . . , uk persistiría entre los AT u1 , . . . , AT uk . Otra forma de llegar a la misma conclusión es pensar que, al ser AT A una matriz diagonal, su determinante es det( AT A) = Πik=1 kui k2 6= 0. Pero también det( AT A) = (det AT )(det A) = (det A)2 de donde det A 6= 0 y por tanto las columnas de A son independientes. Vectores unitarios. Un vector de longitud (o norma, o módulo) igual a 1 se llama un vector unitario. Dado que la norma de un vector es un número no negativo, las siguientes ecuaciones son expresiones equivalentes de que u es un vector unitario:

kuk = 1 ,

k u k2 = 1 ,

u ·u = 1.

La idea más importante que se debe tener en mente en relación con los vectores unitarios es el hecho de que todo vector no nulo v 6= 0 se puede reescalar para convertirlo en un vector unitario: Proposición.

Para todo vector no nulo v, el vector u =

1 v kvk

es un vector unitario.

Sistemas ortonormales. Un sistema ortogonal de vectores, los cuales, además, son unitarios se llama un sistema ortonormal. A partir de un sistema ortogonal cualquiera de vectores no nulos se puede obtener un sistema ortonormal sin más que reescalar cada vector apropiadamente. Las columnas de una matriz real U forman un conjunto ortonormal si y sólo si U T U = I. Matrices Ortogonales. Se llama matriz ortogonal a toda matriz cuadrada real cuyas columnas son vectores unitarios ortogonales dos a dos, es decir una matriz cuadrada real cuyas columnas forman un sistema ortonormal. ¡Cuidado! Una matriz ortogonal no es aquella cuya columnas forman un sistema ortogonal. Es requisito de una matriz ortogonal que, además de ser las columnas un sistema ortogonal, sea una matriz cuadrada y que sus columnas sean vectores unitarios. Caracterización: Si A es una matriz ortogonal, AT A es una matriz identidad y por tanto AT es la inversa de A. Recíprocamente: Si A es una matriz cuadrada tal que AT A = I entonces las columnas de A forman un sistema ortonormal y por tanto A es una matriz ortogonal. Caso complejo: Matrices Unitarias. Se llama matriz unitaria a toda matriz cuadrada compleja cuyas columnas son vectores unitarios ortogonales dos a dos, es decir cuyas columnas forman un sistema ortonormal. Si todos los elementos de una matriz unitaria son números reales (esto es, tienen todos parte imaginaria nula) entonces esa matriz es una matriz ortogonal. Por tanto, el conjunto de las matrices unitarias contie al conjunto de las matrices ortogonales.

5

La caracterización de matrices unitarias se apoya en la operación de “traspuesta conjugada” o adjunta1 de una matriz compleja. Si A es una matriz compleja, se llama matriz adjunta de A, y se denota A∗ , a la matriz cuyos elementos son los conjugados de los elementos de la matriz traspuesta de A o, equivalentemente, la traspuesta de aquella cuyos elementos son los conjugados de los elementos de A: T A∗ = AT = A¯ .

Matriz adjunta.

Propiedades: La operación de calcular la matriz adjunta de una matriz dada tiene las siguientes propiedades: 1. ( A∗ )∗ = A. 2. ( A + B)∗ = A∗ + B∗ .

¯ ∗. 3. (cA)∗ = cA 4. ( AB)∗ = B∗ A∗ .

5.

 A −1 = ( A ∗ ) −1 .

6. det A∗ = det A.

Caracterización de matrices unitarias: Si A es una matriz unitaria, A∗ A es una matriz identidad y por tanto A∗ es la inversa de A. Recíprocamente: Si A es una matriz cuadrada tal que A∗ A = I entonces las columnas de A forman un sistema ortonormal para el producto hermítico y por tanto A es una matriz unitaria. El producto escalar asociado con una norma y el teorema de Pitágoras Cualquiera de las fórmulas (4) o (5) nos permite dar una fórmula para el producto escalar en términos de la función norma: Despejando en dichas fórmulas el producto escalar u ·v obtenemos las siguientes “fórmulas de polarización”:

u·v =

1 2

k u + v k2 − k u k2 − k v k2



(6)

u·v =

1 2

k u k2 + k v k2 − k u − v k2



(7)

Cualquiera de esas fórmulas es equivalente al teorema de Pitágoras. Por ejemplo, la primera de ellas, (6), implica que si u y v son perpendiculares entonces u ·v = 0 y por tanto:

Teorema de Pitágoras

k u + v k2 = k u k2 + k v k2 Componentes longitudinal y transversal de un vector respecto a una dirección dada Se llama proyección ortogonal de un vector v sobre (la recta definida por) un vector no nulo u, y se denota por proyu (v), a aquél múltiplo de u que restado de v da como resultado un vector perpendicular a u. Es decir: un múltiplo de u, cu, es la proyección ortogonal de v sobre u si el vector diferencia v − cu es perpendicular a u, es decir, si

(v − cu)·u = 0. De esta ecuación se deduce: c=

v·u u·u

proyu (v) =

y por tanto:

v u · u. u·u

(8)

La proyección ortogonal nos permite calcular la descomposición de un vector dado en suma de dos vectores que sean uno de ellos paralelo y el otro perpendicular a una dirección dada. Sea 1 No

confundir con la matriz de adjuntos.

6

proyección ortogonal

v un vector dado y supongamos dada una dirección (o subespacio vectorial unidimensional) mediante un vector u, Las componentes longitudinal (paralela) y transversal (perpendicular) de v respecto a la dirección de u son dos vectores denotados respectivamente vk y v⊥ tales que vk + v⊥ = v,

vk = cu

y

v⊥ · u = 0

En consecuencia, la componente longitudinal es la proyección ortogonal y la componente transversal es la diferencia entre el vector dado y su proyección ortogonal: vk = proyu (v),

v⊥ = v − proyu (v).

Matriz de la proyección ortogonal Si deseamos hallar la proyección ortogonal de varios vectores v1 , . . . , vk sobre un mismo vector u, es conveniente disponer los cálculos de forma que se evite repetir el mismo cálculo varias veces. Observando la fórmula de la proyección ortogonal hallada más arriba, (8), vemos que se puede reescribir en términos de productos de matrices de la siguiente forma: proyu (v) =

v u · u = 1 (v·u)u = 1 u(v·u) = 1 u(uT v) = 1 (uuT )v = Pu v u·u u·u u·u uT u uT u

donde hemos denotado Pu la matriz cuadrada Pu =

1 1 ( u uT ) = ( u uT ). T uu k u k2

(9)

Esta matriz se llama la matriz de la proyección ortogonal sobre la recta de u. Por tanto, si queremos hallar las proyecciones ortogonales de varios vectores v1 , . . . , vk sobre un mismo vector u, basta calcular una sola vez la matriz Pu y luego calcular los productos Pu v1 , . . . , Pu vk . Observación: En la fórmula (9) de la matriz Pu es importante está dada por:  2   u1 u1 u2 u1  u2 u1 u22     uuT =  ...  u1 . . . un =  . ..  .. . un u n u1 u n u2

comprender que la matriz u uT ... ... ...

 u1 u n u2 u n   ..  . .  u2n

Ángulo entre dos vectores y la fórmula del coseno para el producto escalar Sabiendo calcular la proyección ortogonal de un vector sobre otro, es muy sencillo medir el ángulo entre dos vectores no nulos u, v. Para ello basta hallar la proyección ortogonal de uno de ellos sobre el otro: proyu (v) y observar que se obtiene un triángulo rectángulo en el que v es la “hipotenusa” y las componentes longitudinal y transversal de v son los “catetos”. Suponiendo v ·u ≥ 0, el ángulo entre u y v es el que tiene a vk = proyu (v) como “cateto adyacente”, por lo que la definición “cateto adyacente partido por la hipotenusa” nos dice que su coseno es:

 

k proyu (v)k 1 v·u v·u

v·u u = cos α = = kuk = .

kvk kvk u·u kvkkuk kvkkuk2 De aquí se obtiene la conocida fórmula de los libros de Física: v ·u = kvkkuk cos α. 7

La desigualdad de Cauchy-Schwartz Dado que el coseno de cualquier ángulo tiene un valor absoluto menor o igual que uno, de la “fórmula de los físicos” del producto interior, v ·u = kvkkuk cos α, se puede deducir otra famosa e importante relación entre el producto escalar y la norma, conocida como la desigualdad de Cauchy-Schwartz: |u·v| ≤ kukkvk. Al apoyar esta desigualdad en la definición del coseno, estamos haciéndola provenir del hecho de que todo cateto en un triángulo rectángulo es menor o igual que la hipotenusa, lo cual a su vez es consecuencia del teorema de Pitágoras. Sin embargo, esta desigualdad se puede deducir directamente de las propiedades del producto interior de la siguiente forma: Comenzamos con la siguiente desigualdad, válida para cualesquiera números reales a y b:

k au − bvk2 ≥ 0. Expandiendo este cuadrado de una norma como producto escalar de au − bv por sí mismo, se obtiene:

k au − bvk2 = ( au − bv)·( au − bv) = a2 (u·u) + b2 (v·v) − 2ab(u·v) = a2 kuk2 + b2 kvk2 − 2ab(u·v) Esto tiene un valor no negativo también en el caso particular a = kvk y b = kuk, en el cual se reduce a:  2kukkvk kukkvk − u ·v . La desigualdad de Cauchy-Schwartz es equivalente a decir que este paréntesis es no negativo.

8

desigualdad de CauchySchwartz

Get in touch

Social

© Copyright 2013 - 2024 MYDOKUMENT.COM - All rights reserved.