Story Transcript
1
CUADERNO VI FORMAS BILINEALES Y DETERMINANTES Miguel A. Sainz, Joan Serarols, Anna M. Pérez Dep. de Informática y Matemática Aplicada Universidad de Girona
RESUMEN: Como una extensión de las aplicaciones lineales se van a definir las formas bilineales y sus formas cuadráticas asociadas, fundamentos de importantes conceptos tales como el producto escalar de vectores, norma de un vector, proyección de un vector sobre un subespacio y ángulo de dos vectores, conceptos básicos en la aplicación del álgebra lineal a la geometría. Las formas bilineales se generalizarán a formas multilineales y, en particular, a los determinantes, cuya definición, propiedades y aplicaciones a la solución de sistema lineales, cálculo de la matriz inversa,..., etc se desarrollarán con detalle.
VI.1.- FORMAS BILINEALES Sobre V, e.v.s. K, definimos una forma bilineal como una aplicación f : V2 (x,y)
K f(x,y)
lineal en cada componente, es decir, para cualesquiera que sean los vectores x,x',y,y' de V y el escalar α de K se verifique f(x+x',y) = f(x,y)+f(x',y) ∧ f( α x,y) = α f(x,y) f(x,y+y') = f(x,y)+f(x,y') ∧ f(x, α y) = α f(x,y) La imagen de un par de vectores que son combinación lineal de otros, generalizando por inducción, viene dada por f( α 1 x 1 +...+ α m x m , β 1 y 1 +...+ β m y m ) =
∑
α iβ j f(x i,y j)
1≤ i≤ m 1≤ j≤ m
Ejemplo VI.1.1 Sea la aplicación f : Kn×Kn (x,y)
K f(x,y) = Pri(x)·Pr j(y)
2
en la que la imagen de un par de vectores es el producto de la proyección i-ésima del primer vector por la proyección j-ésima del segundo vector. Tenemos respecto del primer vector componente f(x+x',y) = (x i+x 'i )y j = x iy j+x 'i y j = Pri(x)·Pr j(y)+Pr i(x')⋅Pr j(y) = f(x,y)+f(x',y) f( α x,y) = (α x i)y j = α (x iy j) = α f(x,y) y respecto del segundo vector componente f(x,y'+y) = x i(y '+y j j ) = x i y '+x j i y j = Pri (x)⋅Pr j (y')+Pr i (x)⋅Pr j (y) = f(x,y)+f(x,y') f(x,α y) = xi( α y j) = α (x iy j) = α f(x,y) siendo así una forma bilineal. Una forma bilineal sobre V diremos que es simétrica si y sólo si (∀x,y∈V) (f(y,x) = f(x,y)) y diremos que es forma bilineal alternada si y sólo si (∀x,y∈V) (f(y,x) = –f(x,y)) Si f es alternada (y si en el cuerpo K la suma de un elemento no nulo consigo mismo es distinta de 0), la imagen de un par de vectores iguales es nula ya que al permutar ambos vectores f(x,x) = –f(x,x) ⇒ f(x,x) = 0 y recíprocamente si para cualquier vector x es f(x,x) = 0, cualquiera que sea y verifica 0 = f(x+y,x+y) = f(x,x)+f(x,y)+f(y,x)+f(y,y) = f(x,y)+f(y,x) ⇒ f(y,x) = –f(x,y) es decir, f es alternada. Ejemplo VI.1.2 La aplicación definida por f : R 2× R 2 (x,y)
R x 1 y 2 –x 2 y 1
siendo x = (x1,x2) y = (y1,y2), es una forma bilineal ya que verifica f(x+x',y) = (x 1 +x 1')y 2 –(x 2 +x 2')y 1 = (x 1 y 2 –x 2 y 1 )+(x 1'y 2 –x 2'y 1 ) = f(x,y)+f(x',y) demostrándose de forma análoga las otras condiciones de la definición; además es una forma bilineal no simétrica ya que
3 f(x,y) = x 1 y 2 –x 2 y 1 ≠ y 1 x 2 –y 2 x 1 = f(y,x) pero sí es alternada pues f(y,x) = y 1 x 2 –y 2 x 1 = –(y 2 x 1 –y 1 x 2 ) = –f(x,y) Sea V = Rn, espacio vectorial sobre R y sean los vectores x,y∈V de componentes respectivos x = (x 1,...,x n) , y = (y 1,...,y n); la aplicación de R n×R n en R dada por la fórmula n
f(x,y) =
∑ x iy i i =1
es bilineal ya que n
f(x+x',y) =
∑
n
n
n
(x i+x'i)y i = ∑ (x iy i+x'iy i) = ∑ x i y i + ∑ x ' i y i = f(x,y)+f(x',y)
i =1
f( α x,y) =
i =1
i =1
i =1
n
n
n
i =1
i =1
i =1
∑ ( α xi) y i = ∑ α x iy i = α∑ x iy i = αf(x,y)
demostrándose análogamente la linealidad respecto del segundo vector. Además es una forma bilineal simétrica puesto que f( y,x) =
n
n
i =1
i =1
∑ y ix i = ∑ x iy i = f(x,y)
Se designa por L2 (V,K) como el conjunto de todas las formas bilineales de V en K ; análogamente por S2(V,K) designaremos el conjunto de todas las formas bilineales simétricas de V en K. Se comprueba fácilmente que las formas bilineales L2(V,K) forman un espacio vectorial sobre K y que S2(V,K) es un subespacio de L2(V,K). Sea f∈L2(V,K), V un espacio de dimensión finita, (e1 ,...,en) una base de V y x,y∈V, de forma que x = x 1 e1 +...+x n en
y = y1e1 +...+y n en
entonces por bilinealidad será f(x,y) =
∑
x iy j f(e i,e j)
1≤ i≤ n 1≤ j≤ n
por lo que una forma bilineal queda determinada por los escalares f(ei ,ej) imágenes de los pares de vectores de la base. Por ello, definimos como matriz de la forma bilineal la determinada por estos escalares
4 f( e 1 ,e 1 ) f(e 1 ,e 2 ) . . f(e 1 ,e n ) f( e 2 ,e 1 ) f(e 2 ,e 2 ) . . f(e 2 ,e n ) A f = (f(ei ,ej)) = . . . . . . . . . . . . . . . . . . . . . . . . f( e n ,e 1 ) f(e n ,e 2 ) . . f(e n ,e n ) que será una matriz simétrica si lo es la forma bilineal y hemisimétrica si la forma lineal es alternada. Ejemplo VI.1.3 Para la forma bilineal definida por f : R2×R2 (x,y)
R x 1 y 2 −x 2 y 1
respecto de la base canónica de R2, como f((1,0),(1,0)) f((1,0),(0,1)) f((0,1),(1,0)) f((0,1),(0,1))
= = = =
1⋅0−0⋅1 = 0 1⋅1−0⋅0 = 1 0⋅0−1⋅1 = −1 0⋅1−1⋅0 = 0
la matriz de f será Af =
0 1 –1 0
Si hacemos f(ei ,ej) = aij la fórmula de la forma bilineal puede escribirse como el siguiente producto de matrices: a11 a12 . . a1n f(x ,y) = x 1 x2 . . xn
a21 a22 . . a2n .......... an1 an2 . . ann
y1 y2 = x tA f y .. yn
Ejemplo VI.1.4 En R4, dados los vectores x = (2,3,0,1) y = (4,2,1,0) la imagen del par que forman en la forma bilineal cuya matriz respecto de la base canónica es
5 1 Af = 0 –1 2
2 –1 –2 0 4 2 1 5 0 1 3 1
será
g(x,y) = x tA fy = 2 3 0 1
1 0 –1 2
2 0 1 1
–1 –2 4 2 5 0 3 1
4 7 2 4 = 2 3 0 1 = 39 1 3 0 13
Y la fórmula de g g(x,y) = x 1 y 1 +2x 1 y 2 –x 1 y 3 –2x 1 y 4 +4x 2 y 3 +2x 2 y 4 –x 3 y 1 +x 3 y 2 +5x 3 y 3 +2x 4 y 1 + +x4y2+3x4y3+x4y4 Si V es un espacio vectorial sobre R, de dimensión 3, tal que la matriz de una aplicación bilineal f respecto de una base (e1 ,e2 ,e3), es
Af =
1 2 0 0 1 0 1 3 1
la imagen por f del par de vectores x = 1e1+2e2+3e3 y y = 2e1−1e2+3e3 será 1 2 0 2 0 f(x,y) = 1 2 3 0 1 0 –1 = 1 2 3 –1 = 4 1 3 1 3 2 La matriz de una forma bilineal vimos que estaba asociada a la base respecto de la cual referimos el espacio vectorial. Vamos a ver como cambia esta matriz al cambiar la base del mismo. Sean (e1 ,...,en) y (u 1,...,u n) bases de V con una matriz M de cambio de base. Sean A y B las matrices de una forma bilineal f sobre V, en las bases (e) y (u), respectivamente y dos vectores cualesquiera x e y de V, de componentes respecto de ambas bases x = x 1 e1 +...+x n en = x'1 u 1 +...+x'n u n
y = y 1 e1 +...+y n en = y'1 u 1 +...+y'n u n
Como, según vimos al resolver el problema del cambio de base x = Mx'
y = My'
tendremos f(x,y) = x tA y ⇒ x't By' = (Mx')tA(My') ⇒ x't By' = x't M tAMy' ⇒ B = M tA M t f(x,y) = x' By'
6
Ejemplo VI.1.5 Si una forma bilineal f sobre R3 tiene por matriz respecto de una base (e1 ,e2 ,e3) 1 2 0 A= 0 1 0 1 3 1 y (u1,u2,u3) es otra base definida por u1 = e1 u2 = e1 +e2 u 3 = e1 +e2 +e3 tendremos que 1 1 1 u = eM siendo M= 0 1 1 0 0 1 por lo que, según lo anterior, la matriz B de f respecto de esta nueva base será 1 0 0 B = M AM = 1 1 0 1 1 1 t
1 2 0 0 1 0 1 3 1
1 1 1 1 2 0 0 1 1 = 1 3 0 0 0 1 2 6 1
1 1 1 1 3 3 0 1 1 = 1 4 4 0 0 1 2 8 9
Diremos que dos vectores x,y∈V son vectores ortogonales respecto de una forma bilineal simétrica f sobre V si y sólo si f(x,y) = 0 Diremos que dos subconjuntos A y B de V son subconjuntos ortogonales respecto de una forma bilineal simétrica f cuando todo vector de A sea ortogonal a todo vector de B. Una base (e1 ,e2 ,...,en ) de V es base ortogonal respecto de una forma bilineal simétrica f sobre V si y sólo si para cualesquiera vectores distintos ei ≠ ej es f(ei ,ej) = 0 De manera análoga, diremos que el vector x∈V es un vector normalizado respecto de una forma bilineal simétrica f sobre V si y sólo si f(x,x) = 1 Una base (e1 ,e2 ,...,en ) de V es base ortonormal respecto de una forma bilineal simétrica f sobre V si y sólo si f(ei ,ej) = δij
7 por lo que la matriz de una forma bilineal simétrica f referida a una base que sea ortonormal, respecto de f, es la matriz unidad. Como caso particular, si (e1 ,...,en) y (u 1,...,u n) son bases ortonormales de V, respecto de una forma bilineal simétrica f, la matriz de f respecto a ambas bases es la matriz unidad y de acuerdo con la relación existente entre las matrices en bases distintas, tendremos In = MtInM ⇒ In = MtM ⇒ Mt = M-1 es decir, la matriz de cambio de base entre bases ortonormales cumple la propiedad de que su inversa es igual a su traspuesta. Una matriz con esta propiedad se denomina matriz ortogonal. Recíprocamente, si (e) es una base ortonormal de un espacio vectorial V sobre K, y (u) es otra base de V, tales que u = eM, cumpliéndose que Mt = M-1 entonces (u) es también una base ortonormal ya que si A y B son las matrices de f∈L2(V,K) en ambas bases, respectivamente B = MtAM = MtIM = M-1M = I es decir, una matriz es ortogonal si y sólo si sus vectores columna son ortonormales Ejemplo VI.1.6 Sea (e1 ,e2 ,e3) una base ortonormal de V, espacio vectorial sobre R; sea la nueva base u1 = 1/2e1+ 3/2e2 u2 = − 3/2e1+1/2e2 u3 = e3 La matriz del cambio de base es la matriz regular 1/2 – 3/2 0 M=
3/2 0
1/2 0
0 1
Hallando su traspuesta y su inversa se obtiene 1/2 t
M = – 3/2 0
3/2
0
1/2 0
0 = M-1 1
por lo cual, según los resultados previos, (u 1,u 2,u 3) es base ortonormal, lo que se comprueba fácilmente.
8
Ejercicios VI.1.- Estudiar si son bilineales o no las aplicaciones a) f : R2×R2
R 3 definida por f((x,y),(z,t)) = (x+y,z−t,x−y+z+t)
b) g : R3×R3
R definida por g(x,y) = xx'+yy'+3zz'−2xz'−2zx'
c) h : R2×R2
R definida por h((x,y),(z,t)) = xt−yz
d) t : R×R
R 3 definida por t(x,y) = (x2,xy,y2)
VI.2.- Expresar las siguientes formas bilineales como producto de matrices del tipo xtAy : a) f(x,y) = 2x 1 y 1 +3x 1 y 2 −4x 2 y 1 +x 2 y 2 con x,y∈R 2 . b) f(x,y) = 5x 1 y 1 −x 2 y 1 +2x 2 y 2 con x,y∈R 2 . c) f(x,y) = x 1 y 1 +x 1 y 2 −x 1 y 3 +2x 2 y 1 −x 2 y 3 con x,y∈R 3 . VI.3.- Sea f la forma bilineal sobre R3 cuya matriz asociada en la base canónica es 1 2 3 –1 1 1 1 0 1 a) Hallar dos vectores x,y de R3 tales que f(x,y) ≠ f(y,x). b) Hallar la matriz asociada a f respecto de la base ((1,1,0),(0,1,0),(1,1,1)) de R3. VI.4.- En la base B = ((1,0),(1,1)), la matriz asociada a una forma bilineal es A = para α 1 = , α 2 = , α 3 = y α4 = bilineal en la base C = ((0,1),(1,2)).
α1 α2 α3 α4
.
. Calcular la matriz asociada a dicha forma
VI.5.- Sea E un espacio vectorial sobre K y sean φ, ψ dos formas lineales de E. Demostrar que la aplicación f de E×E en K definida por f(x,y) = φ(x)·ψ(y) es una forma bilineal. VI.6.- Demostrar que, si f, g son dos formas bilineales simétricas sobre V e.v.s.K, tales que para todo x es f(x,x) = g(x,x) entonces f = g. Probar que el resultado no es cierto cuando f y g no son simétricas.
VI.2.- FORMAS CUADRATICAS Dada una forma bilineal f∈ L 2(V,K) se define forma cuadrática fc asociada a f como la aplicación
9 fc : V x
K fc(x) = f(x,x)
La forma cuadrática fc, al estar asociada a la forma bilineal f, viene definida por ella pero diferentes formas bilineales pueden definir la misma forma cuadrática; por ejemplo, si g es una forma bilineal alternada y definimos h(x,y) = g (x ,y)+f(x ,y), se verifica h (x ,x ) = g(x,x)+f(x,x) = 0+f(x,x) = f(x,x), con lo que hc = fc. Sin embargo, entre todas las formas bilineales asociadas a fc existe una única forma bilineal s que es simétrica (y si en el cuerpo K la suma de un elemento no nulo consigo mismo es distinta de 0). En efecto, si s es la aplicación de V2 en K definida por s(x,y) = (fc(x+y)−fc(x)−fc(y))/2 (siendo 2 el elemento 1+1) es una forma bilineal simétrica ya que al ser f bilineal s(x,y) = (fc (x+y)−fc (x)−fc (y))/2 = (f(x+y,x+y)−f(x,x)−f(y,y))/2 = (f(x,y)+f(y,x))/2 s(y,x) = (f(y,x)+f(x,y))/2 = s(x,y) Como s(x,x) = (fc(2x)−fc(x)−fc(x))/2 = (4fc(x)−fc(x)−fc(x))/2 = fc(x) resulta que s está asociada a fc . Además es única, pues cualquier otra forma bilineal simétrica g, asociada a fc verificará fc(x+y) = g(x+y,x+y) = g(x,x)+2g(x,y)+g(y,y) = fc(x)+2g(x,y)+fc(y) ⇒ ⇒ g(x,y) = (fc(x+y)−fc(x)−fc(y))/2 = s(x,y) A esta única aplicación bilineal simétrica s, asociada a la forma cuadrática fc se le denomina forma polar de la forma cuadrática. Se define matriz de una forma cuadrática fc, como la matriz de su forma polar, por lo tanto la matriz de una forma cuadrática siempre es simétrica. Si V es de dimensión finita, (e1 ,..,en) es una base de V y A = (aij) es la matriz de f en esta base, entonces fc(x) = s(x,x) = x tAx =
∑
aij x i x j = a11x21+...+ a nn x 2n+2a 12x 1x 2+...+2a n-1 nx n-1x n
1≤ i≤ n 1≤ j≤ n
es decir, una forma cuadrática es un polinomio en n variables con todos sus términos de segundo grado. Si V es un espacio vectorial real, diremos que la forma cuadrática fc es definida positiva si y sólo si (∀x∈V) (x ≠ 0 ⇒ fc(x) > 0) es decir, si el polinomio anterior tiene un valor numérico positivo cualesquiera que sean xi y xj , no simultáneamente nulos. Análogamente, diremos que la forma cuadrática fc es definida negativa si y sólo si (∀x∈V) (x ≠ 0 ⇒ fc(x) < 0)
10 Ejemplo VI.2.1 La forma cuadrática sobre R2, referida a la base canónica , dada por el polinomio fc(x,y) = x 2 +y 2 tiene por matriz 1 0 0 1 y es definida positiva pues si x e y no son simultáneamente nulos, x2+y2 es mayor que 0. La forma cuadrática definida por el polinomio fc(x,y) = x 2 +y 2 −6xy tiene por matriz 1 –3 –3 1 y no es definida ya que fc(1,1) = −4
fc(0,1) = 1.
Determinar si una forma cuadrática es definida, positiva o negativa, o no lo es, mediante su fórmula suele ser complicado; más adelante veremos procedimientos prácticos para ello. Ejercicios VI.7.- Sea f((x 1,x 2),(y 1,y 2)) = α 1x 1y 1+ α 2x 1y 2+ α 3x 2y 1+ α 4x 2y 2, para α 1 = = y α4 = .
, α2 =
a) Comprobar que f es una forma bilineal. ¿Es simétrica?. ¿Es alternada?. b) Determinar su forma cuadrática asociada. c) Expresar matricialmente f. VI.8.- Determinar las formas cuadráticas representadas por los siguientes productos: a) x
b)
x
y
y
1 –3 –3 4
z
x y
1 –2 –2 4 3 1
3 1 5
x y z
, α3
11 VI.9.- Consideremos la forma cuadrática sobre R4 definida por q(x 1 ,x 2 ,x 3 ,x 4 ) = x12 +x 42 +x 1 x 2 –4x 3 x 4 Hallar la matriz de q en la base canónica de R 4. Siendo f la forma polar de q, hállese f(x,y) para x = (1,1,1,1) e y = (0,0,−1,−1). VI.10.- En la base canónica, una forma cuadrática q(x) definida en R 2 tiene la siguiente expresión: q(x) = 4x12+3x 22–6x 1x 2 Determinar su nueva expresión cuando se toma como base la formada por los vectores u1 = (1,1) y u2 = (−1,1). VI.11.- Probar que las formas cuadráticas 2 2 q 1(x) = x1 +x 2 +8x1x2
q2(y) = y12–14y22 +2y 1 y 2
son equivalentes, haciendo el cambio de variables x1 1 –3 y 1 = x2 0 1 y2 VI.12.- Dadas las siguientes formas cuadráticas: a) x2+y2+z2+4xy+4xz+4yz b) x2+14yz−8xy c) x2−y2−3z2+4xy+6xz−8yz d) 2x2+y2+2z2−4t2+4xy−4xz−4yz+4yt definidas las tres primeras en R 3 y la última en R 4. Se pide expresarlas en forma matricial e indicar si están definidas en signo. VI.13.- En R2(x) se define la forma cuadrática fc(P(x)) = P(–1)2+P(0)2+P(1)2. a) Calcular fc(a1x2+a2x+a3). b) Hallar la expresión matricial respecto de la base (x2,x,1) de la forma polar asociada. c) Demostrar que es definida positiva.
VI.3 .- PRODUCTO ESCALAR Y NORMA. Sea V un espacio vectorial sobre el cuerpo real R. Daremos el nombre de producto escalar a una forma bilineal simétrica cuya forma cuadrática asociada sea definida positiva, que representaremos por
12 : V×V (x,y)
R
A la matriz de la forma bilineal la denominaremos matriz del producto escalar. Un espacio vectorial sobre el cuerpo real en el que se ha definido un producto escalar se denomina espacio euclidiano. Ejemplo VI.3.1 En el espacio vectorial Rn la aplicación Rn×Rn (x,y)
R = x 1 y 1 +...+x n y n
define un producto escalar, que se denomina producto escalar ordinario de Rn, ya que verifica las cinco condiciones que implican la definición. En efecto, 1) = ya que x 1 y 1 +...+x n y n = y 1 x 1 +...+y n x n 2) = α ya que (α x 1)y 1+...+(α x n)y n = α (x 1y 1+...+x ny n) 3) = = = (x1+x1')y 1 +...+(x n +x n')y n = + 4) = x 12 +...+x n2 ≥ 0 5) = 0 ⇔ x 21 +...+x n2 = 0 ⇔ x21 = 0 ∧ ... ∧ x2n = 0 ⇔
⇔
x1 = 0 ∧ ... ∧ xn = 0 ⇔ (x1,...,xn) = (0,...,0)
La matriz de este producto escalar respecto de la base canónica es la matriz unidad de orden n 1 0..0 0 1..0 A f = In= ...... 0 0..1
Si V es un espacio euclidiano, al ser el producto escalar sobre V una forma bilineal simétrica, la imagen del par de vectores x e y viene dada en forma matricial por
< x,y> = x 1 . . xn
y1 . . = x tA y yn
siendo A = () la matriz del producto escalar en la base de referencia; está formada por los
13 productos escalares de los pares de vectores de la base y será una matriz simétrica. Si la base de referencia es ortonormal, la matriz () es la matriz unidad In y el producto escalar de los dos vectores es
< x,y> = x 1 . . xn In
y1 . . = x ty yn
Mediante el producto escalar se define la norma de un vector, que corresponde a lo que intuitivamente se denomina longitud o módulo. Sea V un espacio vectorial sobre R en el que se ha definido un producto escalar, y sea x∈ V; definimos la norma de x, que representaremos por x , como x = () 1/2 que existe, cualquiera que sea x, pues ≥ 0 Los vectores cuya norma es 1 reciben el nombre de vectores normalizados. En el Tabla VI.3.1 están las propiedades más importantes de la norma de un vector. TABLA VI.3.1 ____________________________________________________ Propiedades de la norma 1) x ≥ 0 2) x = 0 equivale a x = 0 3) α x = α x ±1 4) x ≠ 0 implica x = 1 x 5) ≤x · y
(desigualdad de Schwartz)
6) = x · y equivale a {x,y} l.d. 7) x+y ≤x + y (desigualdad triangular) ____________________________________________________ Demostraciones: 1) Obvia, pues por definición la norma es la raíz cuadrada positiva de .
14 2) Aplicando propiedades del producto escalar, tenemos x = 0 ⇔ ()1/2 = 0 ⇔ = 0 ⇔ x = 0 3) α x = () 1/2 = (α 2) 1/2 = (α 2)1/2() 1/2 = α x 4) Expresa esta propiedad que si multiplicamos un vector no nulo por el inverso de su norma se obtiene un vector proporcional a él, obviamente, y normalizado ya que, según 3) ±1 1 x = x = 1 x x El proceso, basado en esta propiedad, de obtener a partir de un vector x otro proporcional a él y normalizado se denomina normalización del vector; existen únicamente dos vectores, opuestos entre si, como resultado de este proceso de normalización ya que si x≠0 1 1 y = 1 ⇔ α x = 1 ⇒ αx = 1 ⇒ α = ⇒ α = ± y = αx x x 5) Si u es un vector normalizado cualquiera, como para todo vector x∈V es ≥ 0 que equivale a que −−+ ≥ 0 ⇔ ⇔ x 2 −−+ 2 u 2 ≥ 0 ⇔ ⇔ x 2− 2 ≥ 0 ⇔ x 2 ≥ 2 ⇔ x ≥ Sea ahora un vector y ≠ 0 por lo que, teniendo en cuenta que y/y es un vector normalizado, sustituyendo u por y /y en la desigualdad anterior, podemos escribir 1 1 x ≥ ⇔ x ≥ ⇔ y y
≤ x · y
Si y = 0 se verifica la desigualdad pues = 0 y y = 0. 6) Si u es un vector normalizado, de acuerdo con el razonamiento anterior = x · u = x ⇔ = 0 ⇔ ⇔ x−u = 0 ⇔ x = u ⇔ x = αu Para cualquier y ≠ 0, al ser y/y un vector normalizado, tendremos 1 α x = α y = y ⇔ {x,y} l.d. y y Si y = 0, la equivalencia es evidente.
15
7) Como x+y 2 = = +++ = x 2 +2+ y 2 ≤ ≤ x 2 +2+ y 2 ≤ x 2+2 x · y + y 2 = ( x + y )2 sacando raíz cuadrada positiva, tenemos la propiedad. Ejemplo VI.3.2 En Rn con el producto escalar ordinario, la norma de un vector es (x 1 ,...x n ) = (x21 +...+x n2 ) 1/2 y, por ejemplo, en R3 (1,−4,8) = (12+(−4)2+8 2)1/2 = 9 Si multiplicamos este vector por el inverso de su norma, 1/9 , tendremos el vector (1/9,−4/9,2/9) que es normalizado y proporcional a él; lo mismo que el opuesto (−1/9,4/9,−2/9) Los vectores de la base canónica de R n con el producto escalar ordinario son normalizados ya que (0,...,0,1,0,...,0) = (02+...+02+1 2+0 2+...+02)1/2 = 1 Ejercicios VI.14.- Sea f : R n ×R n R . Siendo x e y dos vectores de R n , determinar si las aplicaciones que se dan a continuación son o no productos escalares: n
a) f(x,y) =
∑ x iy i i =1
n
n
i =1
j =1
b) f(x,y) = ∑ x i ∑ y j n
c) f(x,y) = ∑
x i2 +y i2
i =1 n
n
d) f(x,y) = ∑ (x i–y i) –∑ 2
i =1
i =1
n
∑ y i2
x i2 –
i =1
16 VI.15.- Demostrar que (R3,⊗) con (x 1 ,x 2 ,x 3 )⊗(y 1 ,y 2 ,y 3 ) = x 1 y 1 −2x 1 y 2 −2x 2 y 1 +6x 2 y 2 +x 2 y 3 +x 3 y 2 +x 3 y 3 es un espacio vectorial euclidiano. VI.16.- En R3, para cualquier par de vectores x = (x1,x2,x3) y = (y1,y2,y3) se define = ax 1 y 1 +ax 2 y 2 +x 3 y 3 +x 1 y 2 +x 2 y 1 Hallar la condición que ha de satisfacer el número real a para que sea un producto escalar. VI.17.- Sea V un espacio vectorial sobre R de dimensión n y sea (a 1 , a 2 ,..., an) una base de V. Demostrar que existe un producto escalar en V para el que esta base es ortonormal. VI.18.- Sea (V,) un espacio vectorial euclidiano, pruébese que, para cualesquiera vectores x,y,z∈V, se verifica 2
2
2
2
|| x+y+z || = || x || + || y || + || z || +2+2+2 VI.19.- Sea el espacio vectorial de los polinomios de grado dos con coeficientes reales sobre R, y sea la l.c. sobre este espacio definida por (a 2x2+a 1x+a 0)·(b2x2+b1x+b0) = (a 2+a 1+a 0)·(b2+b1+b0) ¿Es un producto escalar ?. VI.20.- Sea R3[x] el espacio vectorial de los polinomios con coeficientes reales sobre R y de grado menor o igual a tres. Demostrar que el producto 1
P(x)·Q(x) =
P(x)·Q(x) dx 0
es un producto escalar. Determinar la norma del polinomio x2+2x+7.
VI.4.- ORTOGONALIDAD El concepto de ortogonalidad de vectores respecto de una forma bilineal simétrica en el caso de un producto escalar tiene aplicaciones geométricas interesantes que se verán en el Capítulo dedicado a la Geometría. Sea V e.v.s. R euclidiano; dos vectores x,y de V son ortogonales respecto del producto escalar definido en V, lo que escribiremos x⊥y cuando su producto escalar es nulo, es decir x ⊥ y si y sólo si = 0
17 De la definición se deduce inmediatamente a) Para todo x∈ V es 0 ⊥ x , ya que = (0 ... 0) Ax = 0 b) x ⊥ y equivale a y ⊥ x , ya que = = 0 c) x ⊥ y equivale a αx ⊥ y , ya que = α = 0, para cualquier α∈R* d) x ⊥ y equivale a x+y 2 = x 2+ y 2 , ya que x+y 2 = = +2+ = x 2+ y 2 Un conjunto de vectores A ⊆V es ortogonal si y sólo si todos sus vectores son ortogonales entre sí; por ejemplo, el conjunto {x1,...,xn}⊆V será ortogonal si y sólo si (∀x i,x j∈{x 1 ,...,x n }) (i ≠ j ⇒ = 0) Un conjunto A ⊆V es ortonormal si es ortogonal y todos sus vectores son normalizados; por ejemplo, el conjunto {x1,...,xn}⊆V será ortonormal si y sólo si 0 para i ≠ j = 1 para i = j En particular, si un conjunto de vectores ortonormales forma una base de V, hablaremos de base ortonormal. Una base formada por un vector normalizado se considera ortonornal En la Tabla VI.4.1 figuran las propiedades más interesantes que se deducen de las definiciones precedentes. TABLA VI.4.1 ______________________________________________________________ Propiedades de los conjuntos de vectores ortogonales 1) Si {x1,...,xm} ortogonal y ningún xi es nulo, entonces {x1,...,xm} l.i. 2) (e1 ,...,en) base ortonormal de V x = x1e1 +...+x n en implican = x1y1+...+xnyn y = y1e1 +...+y n en 3) Si V es un espacio vectorial euclidiano de dimensión finita, existe una base ortonormal de V ______________________________________________________________ Demostraciones: 1) En efecto, si α 1 x 1 +...+ α mxm = 0 multiplicando escalarmente por x1 : = = 0 ⇒ α 1 = 0 ⇒ α 1 = 0 por x2 : = = 0 ⇒ α 2 = 0 ⇒ α 2 = 0 .......................................................
18 por xm : = = 0 ⇒ α m = 0 ⇒ α m = 0 luego forman un conjunto l.i. 2) Como es 1 si i = j y 0 si i ≠ j , según hemos obtenido para la imagen de un par de vectores =
∑
x iy j = x 1 y 1 +...+x n y n
1 ≤i ≤n 1 ≤j ≤n
Esta propiedad expresa que si el espacio vectorial está referido a una base ortonormal el producto escalar de dos vectores toma una expresión muy sencilla, análoga a la del producto escalar ordinario de Rn. Por ello, es conveniente averiguar si en un espacio vectorial V sobre R de dimensión finita, en el que se ha definido un producto escalar, es posible hallar una base ortonormal respecto a ese producto. Ello es posible según demuestra la propiedad 3). 3) Si dim (V) = 1 y (e) es una base de V, entonces (e/ e ) es una base ortonormal. Si dim(V) = n, sea (e1,...,en) una base de V. Construimos los vectores v1 = e 1 v2 = e2+ α 21 v1 tal que v2 ⊥ v1 . . . . . . . . . . . . . . . . . . . . . . . vn = en+ α n1 v1 +...+ α n n-1 vn-1 tal que vn ⊥ v1 ∧ ... ∧ vn ⊥ vn-1 que forman un conjunto {v1 ,...,v n} ortogonal, con ningún vector nulo y por tanto l.i., luego forman base de V. Demostremos por inducción que los vectores vi existen y son únicos. Sea S = {i∈N v1 = e 1 , v2 = e2+ α 21 v1 ,..., v i = e i + α i1 v1 +...+ α ii-1 vi-1 no nulos y ortogonales} que contiene a 2, pues para que v2 ⊥ v1 basta hacer
− 0 = = + α 21 ⇒ α 21 =
por ser = ≠ 0. Además es v2 ≠ 0, pues en caso contrario e2+α 21e 1 = 0 y {e1,e2} sería l.d. i∈S ⇒ i+1∈S
pues al ser vi+1 = e i+1 + α i+11 v1 +...+ α i+1i vi tendremos que para que sea v i+1 ⊥ vj (j = 1,...,i) basta hacer 0 = = + α i+11 +...+ α i+1i = − = + α i+1j ⇒ α i+1j = Además vi+1 ≠ 0, pues en caso contrario e i+1+ α i+11 v1 +...+ α i+1 ivi = 0 con lo que ei+1 sería c.l. de v1 ,...,vi y, por ello, de e 1 ,...,e i.
Así hemos construido un conjunto {v1 ,...,vn} que, al ser ortogonal y con todos sus vectores no nulos, será l.i., por lo que es una base ortogonal de V. La base ortonormal buscada será
19 v1 vn ( ,..., ) v1 vn Este proceso de obtener una base ortonormal partiendo de una base cualquiera de V se denomina proceso de ortonormalización de Gram-Schmidt que demuestra que todo espacio vectorial de dimensión finita posee una tal base. Ejemplo VI.4.1 Apliquemos el proceso anterior para obtener una base ortonormal a partir de la base ((1,−1,1),(2,0,1),(1,1,1)) de R3 suponiendo que el producto escalar es el ordinario; el primer vector de la base ortogonal será v1 = (1,−1,1) El segundo vector vendrá definido por las condiciones v2 = (2,0,1)+α 21(1,−1,1) ∧ v2 ⊥ v1 es decir, 0 = = 3+3α 21 ⇒ α 21 = −1 ⇒ v2 = (2,0,1)−(1,−1,1) = (1,1,0) El tercer vector vendrá dado por v3 = (1,1,1)+α 31(1,−1,1)+α 32(1,1,0) ∧ v3 ⊥ v1 ∧ v3 ⊥ v2 con lo cual 0 = = 1+3α 3 1 ⇒ 0 = = 2+2α 3 2
α 31 = −1/3 ⇒ v3 = (−1/3,1/3,2/3) α 32 = −1
luego una base ortogonal es ((1,−1,1),(1,1,0),(−1,1,2)) y normalizándola obtenemos (
1 3
,
–1 3
,
1 3
),(
1
,
1
2
, 0) , (
2
–1 6
,
1 6
,
2
)
6
Diremos que un vector x∈V es ortogonal a un subespacio A si x es ortogonal a todo vector de A; si A es un subespacio de dimensión finita se verifica que "x ortogonal a A equivale a que x es ortogonal a los vectores de cualquier base de A" En efecto, sea (u1,...,un) una base de A. Tendremos x ortogonal a todo vector de A ⇒ x ⊥ u1,...,x ⊥ un Recíprocamente si
x ⊥ u 1 ,..., x ⊥ u n
20
para todo u∈A será u = α 1 u 1 +...+ α nu n ⇒ = = α 1 +...+ α n = 0 Diremos que A y B son subespacios ortogonales cuando todo vector de A es ortogonal a todo vector de B; si A y B son de dimensión finita se verifica que "A ortogonal a B equivale a que los vectores de cualquier base de A son ortogonales a los vectores de otra base de B" En efecto, sean (u1,...,up) base de A y (v1 ,...,vr) base de B. Si todo vector de A es ortogonal a todo vector de B, entonces u 1 ⊥ v1 ,..., u 1 ⊥ vr ,..., u p ⊥ v1 ,..., u p ⊥ vr Recíprocamente, si se verifica lo anterior, para dos vectores cualesquiera u = α 1 u 1 +...+ α pup∈A
v = β1v1 +...+ β r vr∈B
será = α 1 β 1 +..+ α 1 β r+...+ α p β 1 +..+ α p β r ⇒ = 0 Dado un subconjunto X = {x1,...xm}⊆V el conjunto de vectores ortogonales a ellos forman un subconjunto que se denota por X⊥ y verifica que es un subespacio de V. En efecto (∀x∈X⊥ ) (x⊥X) = α + β = 0 ⇒ (α x+ β y) ⊥ x 1 (∀y∈X⊥ ) (y⊥X) ⇒ . . . . . . . . . . . . . . . . . . . . . . . . . . . (∀αβ∈R) = α + β = 0 ⇒ (α x+ β y) ⊥ x m con lo que α x+βy∈X⊥ Dado un subespacio A de V, el conjunto de vectores de V ortogonales a los vectores de A se denomina subespacio ortogonal asociado al subespacio A y se representa por A ⊥. Si V es de dimensión finita se verifican las propiedades de la Tabla VI.4.2 TABLA VI.4.2 ____________________________________________________________ Propiedades de los subespacios ortogonales 1) A⊕A⊥ = V 2) dim(A)+dim(A⊥) = dim(V) 3) Si B es subespacio ortogonal a A, entonces B ⊆ A⊥ 4) Si A y B son subespacios ortogonales, entonces dim(A)+dim(B) ≤ dim(V) ______________________________________________________________
21
Demostraciones: 1) En efecto, por un lado x∈A∩ A⊥ ⇒ x∈A ∧ x∈A⊥ ⇒ x ⊥ x ⇒ = 0 ⇒ x = 0 ⇒ A ∩ A⊥ = {0} y por otro lado, si (u 1 ,...,u m ) es base de A el proceso de ortonormalización de GramSchmidt asegura la existencia de una base (e1 ,...,em) ortogonal de A, que se puede completar para hallar una base de V (e1 ,...,em ,u i m+1 ,...,u i n) y el proceso de Gram-Schmidt vuelve a asegurar una base ortonormal (e1 ,...,em ,em +1 ,...,en) esta vez para V, siendo, entonces (em +1 ,...,en) base de A⊥ pues forman un conjunto l.i. y x∈A⊥ ⇒ x∈V ⇒ x = α 1 e1 +...+ α m em + α m+1em+1 +...+ α n en y multiplicando escalarmente por e1 ,...,em llegamos a
α 1 = ... = α m = 0 ⇒ x = α m+1em+1 +...+ α n en Por tanto (∀v∈V) (v = (β 1 e1 +...+ β m em )+(β m+1em+1 +...+ β n en) = x 1+x 2) , con x 1∈A y x 2∈A⊥ 2) Se deduce inmediatamente de la propiedad anterior. 3) Por definición de subespacio ortogonal. 4) Como B ⊆ A⊥, entonces dim(A)+dim(B) ≤ dim(A)+dim(A⊥) = dim(V). Ejemplo VI.4.2 Consideremos el subespacio [(1,2,−1)] ⊆ R3 , referido éste a la base canónica. Definiendo un producto escalar f en R3 por la fórmula f((x,y,z),(x',y',z')) = xx'+yy'+zz' el subespacio ortogonal asociado vendrá dado por la condición A ⊥ = {(x,y,z)∈R 3 f((x,y,z),(1,2,−1)) = 0} es decir, x+2y−z = 0, resultando ser x = −2y+z ⇒ [(1,2,−1)]⊥ = [(−2,1,0),(1,0,1)] Para otro producto escalar g definido por
22 g((x,y,z),(x',y',z')) = xx'+ 2xy'+3xz'+2yx'+yy'−yz'+3zx'−zy' el subespacio ortogonal asociado al mismo subespacio anterior, vendrá dado por A ⊥ = {(x,y,z)∈R 3 g((x,y,z),(1,2,−1)) = 0} es decir, x+4x−3x+2y+2y+y+3z−2z = 0, resultando z = −2x−5y ⇒
[(1,2,−1)]⊥ = [(1,0,−2),(0,1,−5)]
Vemos que, para un mismo vector el subespacio ortogonal asociado al subespacio generado por él, es distinto según sea el producto escalar que se defina. Sea x un vector no nulo y A un subespacio de V. Llamaremos proyección ortogonal de x sobre A, que denotaremos por prA(x), al vector definido por las condiciones 1) prA(x)∈A 2) (x−prA(x)) ⊥ A Según esta definición, tenemos que x'∈A es proyección de x sobre A si y sólo si x−x' es ortogonal a A. Además el vector proyección de x sobre A es único pues si x' y x'' son dos proyecciones de x sobre A tendremos que x'−x''∈A y además al verificarse que (∀ v∈ A)( = − 0 2) ∠(α x,y) = π −∠(x,y) si α < 0 3) ∠(x,y) = 0
equivale a y = αx , con α > 0
26 ∠(x,y) = π
equivale a y = αx , con α < 0
∠(x,y) = π/2 equivale a x ⊥ y 4) = x · y ·cos ∠(x,y) 5) pr y (x) = x ·cos ∠(x,y) 6) x ⊥ y equivale a prx(x+y) = x ________________________________________________ Demostraciones: 1) Directamente de la definición de producto escalar cos ∠(x,y) = = = cos ∠(y,x) ⇒ ∠(x,y) = ∠(y,x) x · y y · x 2) Por las propiedades del producto escalar y de la norma tenemos α cos ∠(αx,y) = = α x · y α ·x · y si α > 0, es igual a = cos ∠(x,y) ⇒ ∠(α x,y) = ∠(x,y) x · y y si α < 0, es igual a − = − cos ∠(x,y) ⇒ ∠(α x,y) = π −∠(x,y) x · y 3) Usando la desigualdad de Schwartz, podemos escribir ∠(x,y) = 0 ⇔ = 1 ⇔ x · y ⇔
= x · y ∧ {x,y} l.d. ⇔
> 0 ∧ y = α x ⇒ > 0 ⇒ α > 0 ⇒ α > 0
y análogamente para los otros casos. 4) Se obtiene inmediatamente de la definición de ángulo. Esta propiedad se utiliza en matemática elemental para definir el producto escalar. 5) De acuerdo con el resultado obtenido para la proyección de un vector sobre otro tenemos:
27 pr y (x) = y = y = y = = y 2 y = x = x ·cos ∠ (x,y) x · y 6) Si x e y son ortogonales entonces prx(x+y) = x ⇔ x = x ⇔ = ⇔ = 0 ⇒ x ⊥ y Ejercicios VI.33.- Sea f : R2×R2
R definida por f(x,y) = 2x1y1+x1y2+x2y1+x2y2. Se pide
a) ¿Es un producto escalar en R2 ?. b) Hallar , , siendo x = (2,−2) y = (4,−3). c) Comprobar que 2 ≤ ·. d) Comprobar
≤ + .
e) Si x = (2,−2) ¿cuál debe ser el vector y para que las desigualdades de los apartados c) y d) se conviertan en igualdades?. f) Deducir de la expresión establecida en el apartado c) que −1 ≤ cos (x,y) ≤ 1. Indicar en que casos el coseno de dos vectores es igual a −1, 0, y 1. g) Dado x = (2,−2), hallar los vectores normalizados que le son ortogonales. h) Indicar si la base canónica de R2 es ortonormal para este producto escalar. VI.34.-Calcular los ángulos y las normas de los vectores que determinan los lados del triángulo de vértices (1, α 1 ), (3,1) y (1, α2). Lo mismo para el triángulo de vértices (1,–4,α 3)), (–2,1,α 4) y (5,1,3), para α 1 = , α2 = , α3 = , α4 = .
VI.6.- FORMAS n–LINEALES Y DETERMINANTES Sea V e.v.s. K, de característica distinta de 2; una forma n-lineal es una aplicación f: Vn (x 1 ,...,x n )
K f(x 1 ,...,x n )
tal que sea lineal respecto de todos los vectores componentes de la n-pla, es decir, para todo subíndice 1 ≤ i ≤ n
28 f(x 1 ,..., α x i ,...,x n ) = α f(x 1 ,...,x i ,...,x n ) ∧ f(x 1 ,...,x i + x i' ,...,x n ) = f(x 1 ,...,x i ,...,x n )+ f(x 1 ,...,x'i ,...,x n ) ) Supongamos que V es de dimensión n y (e1 ,...,en) es una base de V; si los vectores xi son x 1 = x 11 e1 +...+x n1 en . . . . . . . . . . x n = x 1n e1 +...+x nn en aplicando las igualdades que definen a la forma n-lineal es fácil obtener, por inducción, que
∑
f(x 1 ,...,x n ) =
x i 1 1 ...x i n n f(e i 1 ,...,e i n )
1 ≤ i1 ≤ n . . . . 1 ≤ in ≤ n
Una forma n-lineal es alternada si y sólo si para cualesquiera 1 ≤ i,j ≤ n, i ≠ j se verifica f(x 1 ,...,x i ,...,x j ,...,x n ) = − f(x 1 ,...,x j ,...,x i ,...,x n ) es decir, es una forma n-lineal tal que aplicada a dos n-plas que se diferencien en una permutación de un par de vectores, cambia de signo. Las propiedades más interesantes de las formas n-lineales alternadas se exponen en la Tabla VI.6.1 TABLA VI.6.1 _____________________________________________________________________ Propiedades de las formas n-lineales alternadas 1) Si (i1,...,in) es una permutación de (1,...,n) de signatura s(i) f(xi 1 ,...,x in) = s(i) f(x1 ,...,x n) 2) f alternada equivale a que (∀i∈[1,n]) (f(x 1,...,x i,...,x i,...,x n) = 0) 3) Si (e1 ,...,en) es una base de V, entonces f(x 1 ,...,x n ) = (
∑
s(i) x i1 1 ...x in n ) f(e 1 ,...,e n )
(i1,..,i n) permutación de (1,..,n) de signatura s(i)
4) (e1 ,...,en) base de V f(e1 ,...,en) = 0
implican f = 0
5) Si f no es la aplicación nula, entonces f(x1,...,xn) = 0 equivale a {x1,...,xn} l.d. _____________________________________________________________________
29 Demostraciones: 1) Es inmediata teniendo en cuenta que cada inversión de dos vectores cambia el signo de la imagen, luego si la permutación (i1,...,in) tiene σ inversiones σ
f(xi 1 ,...,x in) = (−1) f(x1 ,...,x n) = s(i) f(x1 ,...,x n) 2) Si f es alternada la imagen de cualquier n-pla con dos vectores iguales es 0, ya que si f es alternada f(x 1 ,...,x i ,...,x j ,...,x n ) = − f(x 1 ,...,x j ,...,x i ,...,x n ) y si xi = xj , entonces f(x 1 ,...,x i ,...,x i ,...,x n ) = − f(x 1 ,...,x i ,...,x i ,...,x n ) por lo que f(x 1 ,...,x i,...,x i,...,x n ) = 0. Recíprocamente, si la imagen de cualquier n-pla con dos vectores iguales es 0, entonces la forma es alternada 0 = f(x 1 ,...,x i +x j ,...,x j +x i ,...,x n ) = = f(x 1 ,...,x i ,...,x j ,...,x n )+f(x 1 ,...,x i ,...,x i ,...,x n ) + +f(x 1 ,...,x j ,...,x j ,...,x n )+f(x 1 ,...,x j ,...,x i ,...,x n ) = = f(x 1 ,...,x i ,...,x j ,...,x n )+f(x 1 ,...,x j ,...,x i ,...,x n ) ⇒ ⇒
f(x 1 ,...,x j ,...,x i ,...,x n ) = −f(x 1 ,...,x i ,...,x j ,...,x n )
3) La expresión general de la imagen de una n-pla en una forma n-lineal, conocidas las componentes de los vectores, que hemos obtenido antes, es una suma de nn sumandos, cada uno de ellos formado por un producto de las componentes por la imagen de una n-pla formada por vectores de la base; en el caso de forma alternada, si en ella existen dos vectores iguales la imagen es 0, el sumando es 0, quedando n! sumandos no nulos correspondientes a las n! permutaciones sin repetición de los vectores (e1 ,...,en). El resultado es una suma de n! sumandos f(x1 ,...,x n) =
∑
x i 1 1 ...x i n n f(e i 1 ,...,e i n )
(i1,...,i n) permutación de (1,...,n)
extendida a todas las permutaciones de {1,...,n}. Además, según la propiedad 1), tendremos f(e i1 ,...,e in) = s(i) f(e1,...,e n) luego f(x1 ,...,x n) =
∑
s(i) x i 1 1 ...x i n n f(e 1 ,...,e n )
(i1,...,i n) permutación de (1,...,n) de signatura s(i)
4) A partir de 3), pues si f(e1 ,...,en) = 0, entonces la imagen de cualquier n-pla es 0. 5) Supongamos que f no es la aplicación nula y que
30 f(x 1 ,...,x n ) = 0 Si {x1,...,xn} l.i., entonces (x1,...,xn) es una base de V y según la propiedad anterior f sería la aplicación nula. Recíprocamente, si {x 1 ,...,x n } l.d. existe un vector x i que será combinación lineal de los demás x i = α 1 x 1 +...+ α i-1 x i-1 + α i+1 x i+1 +...+ α n x n y al ser f n-lineal alternada, tendremos f(x 1 ,...,x i,...,x n ) = f(x 1 ,..., α 1 x 1 +...+ α i-1 x i-1 + α i+1 x i+1 +...+ α n x n ,...,x n ) = = α 1 f(x 1 ,...,x 1 ,...,x n )+...+ α i-1 f(x 1 ,...,x i-1 ,x i-1 ,...,x n ) +α i+1 f(x 1 ,...,x i+1 ,x i+1 ,...,x n )+...+ α n f(x 1 ,...,x n ,...,x n ) = 0 Ejemplo VI.6.1 En el espacio vectorial K3 sobre K referido a una base (e1 ,e2 ,e3) sean los vectores x 1 = x 11 e1 +x 21 e2 +x 31 e3 x 2 = x 12 e1 +x 22 e2 +x 32 e3 x 3 = x 13 e1 +x 23 e2 +x 33 e3 La imagen de la terna (x1,x2,x3) por una forma n-lineal alternada f sobre K3, referida a la base dada, teniendo en cuenta que las permutaciones de {1,2,3} son Permutación Inversiones Signatura 1,2,3 0 +1 1,3,2 1 −1 2,1,3 1 −1 2,3,1 2 +1 3,1,2 2 +1 3,2,1 3 −1 será f(x 1 ,x 2 ,x 3 ) = (+1)x 11 x 22 x 33 f(e1 ,e2 ,e3)+(−1)x 11x 32x 23 f(e1 ,e2 ,e3)+ +(−1)x21x12x33 f(e1 ,e2 ,e3)+(+1)x 21x 32x 13 f(e1 ,e2 ,e3)+ +(+1)x31x12x23 f(e1 ,e2 ,e3)+(−1)x 31x 22x 13 f(e1 ,e2 ,e3) = = (x 11 x 22 x 33 −x 11 x 32 x 23 −x 21 x 12 x 33 +x 21 x 32 x 13 +x 31 x 12 x 23 −x 31 x 22 x 13 )f(e1 ,e2 ,e3) Consideremos la forma n-lineal alternada sobre V tal que la imagen de la n-pla de la base (e1 ,...,en) es igual a 1. Esta forma la denominaremos determinante en la base (e1 ,...,en) y la denotaremos por el símbolo det, es decir, det(e1 ,...,en) = 1
31 Llamaremos determinante de n vectores x 1 ,...,x n ∈V, referido a la base (e1 ,...,en) a la imagen de la n-pla (x1,...,xn) por la forma determinante, que será igual a det(x 1 ,...,x n ) =
∑
(i1 ,..,in ) permutación de (1,..,n) de signatura s(i)
s(i) xi11...x i n n
Ejemplo VI.6.2 En el espacio vectorial K3 sobre K referido a una base (e1 ,e2 ,e3) para los vectores x 1 = x 11 e1 +x 21 e2 +x 31 e3 x 2 = x 12 e1 +x 22 e2 +x 32 e3 x 3 = x 13 e1 +x 23 e2 +x 33 e3 tendremos que, según el ejemplo anterior det(x 1 ,x 2 ,x 3 ) = (x 11 x 22 x 33 −x 11 x 32 x 23 −x 21 x 12 x 33 +x 21 x 32 x 13 +x 31 x 12 x 23 −x 31 x 22 x 13 ) y así, para R3 referido a la base canónica tendremos, por ejemplo, que det((1,−1,0),(2,3,5),(−2,4,−4)) = = 1⋅3⋅(−4)+(−1)⋅5⋅(−2)+0⋅2⋅4−1⋅5⋅4−(−1)⋅2⋅(−4)−0⋅3⋅(−2) = −3 0 Llamaremos determinante de una matriz cuadrada A sobre K al determinante de los vectores columna a1,a2,..,an, como vectores de K n, e.v.s. K, referido a la base canónica; lo notaremos por det(A) o bien por Ay, en el caso de que la matriz esté explícitamente dada, por a11 a 12 . . a 1n a21 a 22 . . a 2n ......... an1 a n2 . . a nn con lo que a11 a21 det(a 1 ,...,a n ) = .. an1
a12 . . a1n a22 . . a2n = ∑ s(i) ai11...ainn ....... (i1 ,..,in ) permutación de (1,..,n) de signaturas(i) an2 . . ann
y el determinante de una matriz cuadrada es igual a la suma de los n! productos que pueden formarse con n elementos de la matriz tomando, de todas las maneras posibles, uno de cada fila y uno de cada columna; cada sumando tiene un signo igual a s(i), signatura de la permutación de subíndices de fila, supuestos ordenados los factores por los subíndices de columna. Ejemplo VI.6.3
32
El determinante de una matriz de orden 1 será igual al único elemento que la forma a11 = a11 Para el determinante de una matriz cuadrada de orden 2 tendremos a 11 a 12 = +a11a22−a21a12 a 21 a 22 es decir, producto de los elementos de la que llamaremos diagonal principal, menos el producto de los elementos de la diagonal secundaria. Para una matriz de orden tres es a 11 a 12 a 13 a 21 a 22 a 23 = a11a22a33+a21a32a13+a31a12a23−a11a32a23−a21a12a33−a31a22a13 a 31 a 32 a 33 por tanto la suma de los productos de los elementos de la diagonal principal y sus dos paralelas, menos la suma de los productos de los elementos de la diagonal secundaria y sus dos paralelas. Esta regla práctica de obtención de los determinantes de las matrices cuadradas de órdenes 2 y 3 se denomina regla de Sarrus. Para matrices de orden superior a tres el cálculo de su determinante a partir de la definición es muy poco práctico, excepto en los casos particulares siguientes: Matriz diagonal a11 0 . . 0 0 a22 . . 0 = a11a22...ann ......... 0 0 . . ann dado que el único sumando no nulo se obtiene con el elemento a11 de la primera fila, acompañado del elemento a22 de la segunda,..., y del elemento ann de la última fila. En particular, para la matriz unidad I será det(I) = 1. Matrices triangulares a11 a21 ... an1
0 .. 0 a11 a12 . . a1n a22 . . 0 0 a22 . . a2n = = a11a22...ann ...... .......... an2 . . ann 0 0 . . ann
dado que el único sumando no nulo se obtiene con el elemento a11 de la primera fila, acompañado del elemento a 22 de la segunda, ya que no puede formar producto con el a21 por ser de su misma columna,.. y del elemento ann de la última fila. Análogamente
33
0 0 . . a1n ............ = (–1)n(n-1)/2a1n...an-12 an1 0 an-1 2 . . an-1n an1 an2 . . ann dado que el único sumando distinto de 0 tiene como permutación de subíndices de fila la (n,n−1,...,1) que tiene n(n−1)/2 inversiones. Podríamos haber definido como determinante de una matriz cuadrada el determinante de sus vectores fila, aunque de hecho es lo mismo puesto que los determinantes de una matriz y su matriz transpuesta son iguales det(A) = det(At) En efecto, si a los elementos de A les llamamos aij y a'ij a los de At, tenemos que por definición de matriz transpuesta, aji = aij' luego según la definición de determinante y la conmutatividad del producto en K, reordenando los factores según el subíndice de fila, es decir, componiendo con la permutación inversa i -1 det(A) =
∑
=
∑
∑
s(i) ai11...a inn =
(i1 ,..,in ) permutación de (1,..,n) de signaturas(i)
s(i) a1i -1...a ni -1 =
(i1 ,..,in ) permutación de (1,..,n) de signaturas(i)
1
n
-1 t s(i ) ai -1 1...a i -1 n = det(A ) 1
n
(i1-1 ,..,in-1) permutación de (1,..,n) designaturas(i -1)
dado que, una permutación y su inversa tienen la misma signatura. A partir de esta propiedad, cualquier resultado cierto para el determinante de los vectores columna de una matriz será válido para el determinante de los vectores fila, por lo que en las siguientes propiedades de los determinantes se hablará de líneas, refiriéndose tanto a columnas como a filas. Estas propiedades se enuncian en la Tabla VI.6.2 TABLA VI.6.2 ________________________________________________________________ Propiedades de los determinantes 1) det(A) ≠ 0 equivale a que A es regular 2) Un determinante con dos líneas paralelas iguales es 0
34
3) Un determinante con dos líneas paralelas proporcionales es 0 4) Un determinante con los elementos de una línea nulos es 0 5) det(x 1 ,...,x i+x',...,x i n ) = det(x 1 ,...,x i ,...,x n )+det(x 1 ,...,x',..,.x i n) 6) det(x 1 ,..., α x i,...,x n ) = α det(x 1 ,...,x i,...,x n ) 7) Si en un determinante se permutan dos líneas paralelas, el determinante cambia de signo 8) Si a una línea se le suma otra paralela multiplicada por un escalar no nulo, el determinante no varía. 9) Si A y B son matrices cuadradas, entonces det(A·B) = det(B)⋅det(A) 10) Si A es inversible, entonces det(A-1) = 1/det(A). ________________________________________________________________ Demostraciones: 1) Por propiedades de las formas n-lineales alternadas: la imagen de una n-pla de vectores l.d. es igual a 0 y recíprocamente, si la forma n-lineal no es la forma nula ( y det no lo es) si la imagen de una n-pla es 0, entonces los vectores forman un conjunto l.d.. Las propiedades 2) a 7) son consecuencia de 1) y de que el determinante es una forma nlineal alternada, por lo que el determinante conserva la suma y el producto externo respecto de cualquier elemento de la n-pla (propiedades 5) y 6)) y que la imagen cambia de signo si intercambiamos dos vectores (propiedad 7)). 8) Razonando con los vectores columna, p.ej., tendremos, según las propiedades anteriores det(x 1 ,...,x i + α x j ,...,x j ,...,x n ) = det(x 1 ,...,x i ,...,x j ,...,x n )+det(x 1 ,..., α x j ,...,x j ,...,x n ) = = det(x 1 ,...,x i,...,x n ) 9) En efecto, de acuerdo con el resultado de un producto de matrices a11b11+a 12b 21+..+a 1nbn1 a 11b12+a 12b 22+..+a 1nbn2 . . a 11b1p+a 12b 2p+..+a 1n b np AB =
a21b11+a 22b 21+..+a 2nbn1 a 21b12+a 22b 22+..+a 2nbn2 . . a 21b1p+a 22b 2p+..+a 2n b np ........................................................ am1b11+a m2b 21+..+a mnbn1 a m1b12+a m2b 22+..+a mnb n2 . . a m1b1p+a m2b 2p+..+a mn b np
tenemos que los vectores fila p1,...,pn de AB son combinaciones de los vectores fila b 1 ,...,b n de B, ya que para i = 1,...,n es p i = a i1 b 1 +a i2 b 2 +...+a inb n
35 Como el determinante de una matriz cuadrada es el determinante de sus vectores fila, de acuerdo con las propiedades de las formas n-lineales alternadas, tenemos det(AB) = det(p 1,...,p n) = (
∑
s(i) a i11 ...a inn ) det(b 1 ,...,b n ) = det(A)⋅det(B)
(i1,..,in) permutación de (1,..,n) de signatura s(i)
10) Como por definición de matriz inversa es A ⋅A -1 = I, teniendo en cuenta la propiedad anterior y que el determinante de la matriz unidad es 1, tendremos det(A⋅A-1) = 1 ⇒ det(A)⋅det(A-1) = 1 ⇒ det(A-1) = 1/det(A) Como consecuencia inmediata de estas propiedades se deduce que las transformaciones elementales aplicadas a la matriz de un determinante la convierten en otra, cuyo determinante respecto al primero a) cambia de signo si se permutan dos filas (o dos columnas), b) si se multiplica una fila (o una columna) por un escalar no nulo, el determinante queda multiplicado por el escalar, c) no varía si se suma una fila (o columna) otra fila (o columna) multiplicada por un escalar no nulo. Estas propiedades nos permiten construir un método para el cálculo de un determinante consistente en aplicar sucesivas transformaciones elementales sobre su matriz hasta reducirla a una matriz triangular, cuyo determinante se calcula de forma inmediata. Se denomina método de Gauss, es de rápida aplicación y fácilmente programable. Ejemplo VI.6.4 El método de Gauss permite obtener el valor del siguiente determinante 0 0 1 2 2 2 1 3 4 2 2 1 3 4 2 0 0 1 2 2 –1 3 –1 1 5 3 = − 3 –1 1 5 3 = 2 –2 –5 –1 3 –5 –2 –5 –1 3 –5 4 3 2 –1 –4 4 3 2 –1 –4 2 0 1 = 0 2 0 0
3 1 4 2 2 1 0 2 2 0 1 0 –5 12 14 = 0 2·5·5 0 –4 3 –7 0 0 1 –1 0 0
2 1 3 4 2 2 3 1 4 2 0 0 1 2 2 0 1 0 2 2 1 0 –5 –7 –2 0 = 0 –7 –5 –2 0 = 2 0 –4 2 7 –3 0 2 –4 7 –3 0 1 –4 –9 –8 0 –4 1 –9 –8
3 1 4 2 2 1 0 2 2 0 1 0 –5 12 14 = 0 2·5·5·33 0 0 –33 –91 0 0 0 7 14 0
3 1 4 2 1 0 2 2 0 –5 12 14 = −35 0 0 –33 –91 0 0 0 –175
36 Si en una matriz cuadrada A de orden n se suprimen n−h filas e igual número de columnas se obtiene una matriz de orden h cuyo determinante llamaremos menor de A. Para determinarlo basta conocer los subíndices 1 ≤ c1