Álgebra tensorial y diferencial. Giuseppe i Piero

´ Algebra tensorial y diferencial Giuseppe i Piero 20-2-2005 2 ´Indice general ´ 1. Algebra Lineal Tensorial 1.1. Definiciones. Construcciones . .

9 downloads 22 Views 768KB Size

Recommend Stories


Cálculo Diferencial e Integral I
Cálculo Diferencial e Integral I COLEGIO DE BACHILLERES DEL ESTADO DE SONORA Director General Lic. Bulmaro Pacheco Moreno Director Académico Lic. Jo

Cálculo Diferencial e Integral I
Cálculo Diferencial e Integral I COLEGIO DE BACHILLERES DEL ESTADO DE SONORA Director General Lic. Bulmaro Pacheco Moreno Director Académico Profr.

PERE BOHIGAS - GIUSEPPE GRILLI
PERE BOHIGAS - GIUSEPPE GRILLI de la Casa d'Oracio. Aquestes notes son datades i la mes antiga cs del 23 de maig de 1890. Les prsctiques d'exorcismes

Story Transcript

´ Algebra tensorial y diferencial Giuseppe i Piero 20-2-2005

2

´Indice general ´ 1. Algebra Lineal Tensorial 1.1. Definiciones. Construcciones . . . . . . . . . . . . . . . 1.2. Espacios vectoriales. Espacio vectorial dual . . . . . . 1.3. Producto tensorial . . . . . . . . . . . . . . . . . . . . ´ 1.4. Algebra exterior n-´esima de un espacio vectorial . . . 1.5. M´etricas . . . . . . . . . . . . . . . . . . . . . . . . . . 1.6. Producto exterior y contracci´ on interior . . . . . . . . ´ 1.7. Algebra tensorial sim´etrica . . . . . . . . . . . . . . . 1.8. M´ odulo de diferenciales. Derivaciones . . . . . . . . . . 1.9. Diferencial, contracci´ on por un campo, derivada de Lie 1.10. C´ alculo valorado . . . . . . . . . . . . . . . . . . . . . 1.11. M´ odules de jets y operadores diferenciales . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

5 5 7 12 15 20 24 26 28 31 32 35

2. C´ alculo Tensorial en Geometr´ıa Diferencial 2.1. Desarrollo de Taylor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2. Espacio tangente en un punto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3. Derivaciones. M´ odulo de diferenciales . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.4. Variedades diferenciables. Haces . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.5. Anillo de funciones diferenciables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.6. Localizaci´ on en el ´ algebra tensorial diferencial . . . . . . . . . . . . . . . . . . . . . . 2.7. Integraci´ on. F´ ormula de Stokes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.8. Gradiente, divergencia y rotacional . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.9. Ap´endice 1. Normas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.10. Ap´endice 2. Teorema de existencia y unicidad en sistemas de ecuaciones diferenciales 2.11. Ap´endice 3. Inmersi´ on de variedades compactas . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . .

39 39 41 42 44 49 50 52 56 57 58 63

3. Aplicaciones de la teor´ıa 3.1. Sistemas de ecuaciones lineales. Regla de 3.2. M´ aximos y m´ınimos bajo condiciones . . 3.3. Longitudes, ´ areas y vol´ umenes . . . . . 3.4. Ejemplos en F´ısica . . . . . . . . . . . .

. . . .

65 65 66 67 71

Cramer . . . . . . . . . . . . . . .

3

. . . .

. . . .

. . . .

. . . . . . . . . . .

. . . .

. . . . . . . . . . .

. . . .

. . . . . . . . . . .

. . . .

. . . . . . . . . . .

. . . .

. . . . . . . . . . .

. . . .

. . . . . . . . . . .

. . . .

. . . . . . . . . . .

. . . .

. . . . . . . . . . .

. . . .

. . . . . . . . . . .

. . . .

. . . . . . . . . . .

. . . .

. . . . . . . . . . .

. . . .

. . . . . . . . . . .

. . . .

. . . . . . . . . . .

. . . .

. . . . . . . . . . .

. . . .

. . . . . . . . . . .

. . . .

. . . . . . . . . . .

. . . .

. . . .

4

´INDICE GENERAL

Cap´ıtulo 1

´ Algebra Lineal Tensorial Estas notas son provisionales. El cap´ıtulo 2 todav´ıa no es l´ ogicamente consistente (y puede contener erratas). El c´ alculo diferencial tensorial es una de las teor´ıas m´as hermosas que aparecen en toda la Ma´ tem´ atica. En ella conviven en perfecta armon´ıa el Algebra, el An´alisis, la Geometr´ıa Diferencial y la F´ısica. El ochenta por ciento de lo que aqu´ı se dice debiera constituir los conocimientos b´asicos (¡junto con otros!) de todo matem´ atico. Alguna vez he ca´ıdo en la tentaci´on de detenerme en ciertas cuestiones algebraicas que me preocupaban y que al lector quiz´as no le interesen tanto. El que escribe es de formaci´ on algebraica y aunque pueda parecer lo contrario ha renunciado muchas veces a una profundizaci´ on mayor (y compresi´ on m´as clara) de los conceptos desarrollados. Por ejemplo, no he escrito las propiedades universales del ´ algebra exterior y sim´etrica de un espacio vectorial y no s´e si perdon´ armelo. En los nuevos planes de estudios que se est´an perfilando no aparecen las palabras: producto tensorial, tensores, formas diferenciales, etc. Este hecho por s´ı solo califica a toda la comunidad matem´ atica espa˜ nola.

1.1.

Definiciones. Construcciones

1. Comentario: El punto de partida de las Matem´ aticas son los n´ umeros naturales, a partir de ellos vamos definiendo y construyendo toda la Matem´ atica, “Dios nos dio los n´ umeros naturales, el resto de las Matem´ aticas la hicimos los hombres” (creo que dijo Kronecker). La piedra clave de las definiciones y construcciones es la palabra “sea”, y a los matem´ aticos nos parece bien (¡como en el G´enesis!). Demos algunos ejemplos. 1. Los matem´ aticos sabemos sustituir con todo rigor la palabra equivalente por la palabra igual, sabemos identificar una cosa con sus equivalentes. En efecto, consideremos una relaci´ on de equivalencia en un conjunto X. Un punto de X y todos sus equivalentes, los podemos identificar, hacerlos todos una misma cosa, diciendo simplemente: “Sea el subconjunto de X formado por un punto x y todos sus equivalentes. Denotemos este subconjunto por x ¯. Del mismo modo dado un punto y ∈ X y todos sus equivalentes, sea el subconjunto de X formado por y y todos sus equivalentes y denotemos este ¯ el subconjunto y¯. Ahora tendremos que x es equivalente a y si y s´ olo si x ¯ es igual a y¯. Llamemos X conjunto que se obtiene al identificar en X cada elemento con sus equivalentes, es decir, ¯ := {¯ X x, x ∈ X, donde x ¯=x ¯0 si y s´ olo si x es equivalente a x0 } 5

6

Cap´ıtulo 1.

´ Algebra Lineal Tensorial

Misi´ on cumplida”. 1.1 Si establecemos en Z la relaci´ on de equivalencia n ≡ m si y s´ olo si n − m es m´ ultiplo de 5, tendremos que n ¯ =m ¯ si y s´ olo n − m es m´ ultiplo de 5. Si identificamos en Z cada entero con sus ¯ = {¯0, ¯1 . . . , ¯4}. equivalentes, tenemos s´ olo cinco elementos distintos, es decir, Z 1.2 Sea A un anillo. Dado un ideal I ⊂ A, establezcamos la siguiente relaci´ on de equivalencia: a ∈ A es equivalente a a0 ∈ A si y s´ olo si a − a0 ∈ I, es decir, si y s´ olo si existe alg´ un i ∈ I de modo que a = a0 + i. En este caso, A¯ := {¯ a, a ∈ A, de modo que a ¯=a ¯0 si y s´ olo si a − a0 ∈ I} se denota A/I. Resulta que A/I tiene una estructura natural de anillo, definiendo la suma y el producto como sigue ¯ · ¯b := a · b a ¯ + ¯b := a + b a ¯ y para el producto ¯1. el elemento neutro para la suma es 0 2. Dado el semianillo de n´ umeros naturales N, definamos o construyamos el anillo de los n´ umero enteros Z. Para ello, en Matem´ aticas, no podremos hablar de grados bajo cero ni de deudas como se hace con los ni˜ nos peque˜ nos. Antes de empezar a construir Z, cualquiera que sea su construcci´ on o definici´ on, sabr´ıamos decir si n − m es igual a n0 − m0 (para n, m, n0 , m0 ∈ N), sabr´ıamos sumar, multiplicar etc. Basta con saber esto, es decir, en saber c´ omo se comporta Z, para que un matem´ atico sepa ya definirlos, gracias a la palabra sea: “Sea Z el conjunto de parejas de n´ umeros naturales (n, m), que preferimos denotar n−m, donde diremos que n−m es igual a n0 −m0 si n+m0 = m+n0 (observemos que con esta definici´ on n − m = n − m, que si n − m = n0 − m0 entonces n0 − m0 = n − m, y que si 0 0 0 n − m = n − m y n − m0 = n00 − m00 entonces n − m = n00 − m00 ). Definido queda Z, ¿c´ omo definimos la suma? (n − m) + (n0 − m0 ) := (n + n0 ) − (m + m0 ). Defina el lector el producto”. M´ as ejemplos. 3. Hemos definido ya el anillo de los n´ umeros enteros Z, definamos el cuerpo de los n´ umeros racionales Q. En Matem´ aticas no podemos hablar de pasteles y porciones de pasteles, como a los ni˜ nos. n n0 0 0 Pero antes de empezar a construir Q, sabr´ıamos decir cu´ ando m es igual a m (n, m, n , m ∈ Z) y 0 sabemos sumar n´ umero racionales y multiplicarlos. No necesitamos nada m´ as, salvo la palabra “sea”: n Sea Q el conjunto de parejas de n´ umeros enteros (n, m), que preferimos denotar m , donde diremos 0 0 0 n n rn r n 0 que m es igual a m0 si existen r, r 6= 0 tales que rm y r0 m0 tienen el mismo numerador y denominador n n n n0 n0 n n n0 n0 n00 (observemos que m = m , que si m = m 0 entonces m0 = m , y que si m = m0 y m0 = m00 entonces 00 0 0 0 n n n m n+mn n omo definimos la suma? m + m . Defina el lector el 0 := m = m00 ). Definido queda Q ¿c´ mm0 producto. M´ as ejemplos. 3.1 Sea A un anillo y S ⊂ A, un subconjunto que cumpla 1 ∈ S y si s, s0 ∈ S entonces s · s0 ∈ S. Queremos definir el anillo (que denotaremos por AS ) formado por las fracciones a/s, a ∈ A, s ∈ S. Obviamente, queremos que se cumpla que as = ta ts , para todo t ∈ S. No hay mayor problema, digamos que son equivalentes y a los equivalentes hag´ amoslos iguales: a a0 a AS := { , con a ∈ A y s ∈ S | = 0 si existen t, t0 ∈ S tales que las fracciones s s s ta t0 a0 y 0 0 tienen el mismo numerador y denominador } ts ts ¿C´ omo definimos la suma? as + bt := at+bs ¿Y el producto? as · bt := ab st st . 4. Hemos definido Q, definamos ahora R. Aqu´ı a los ni˜ nos se les habla de los n´ umeros reales de un modo muy aproximado a lo que hacemos en Matem´ aticas (la construcci´ on de n´ umero real en Matem´ aticas es la objetivaci´ on formal de la experiencia f´ısica de aproximaci´ on (interminable)). Se les dice algo as´ı como: Vamos a ver cu´ anto mide media circunferencia. Mido y veo que es casi 3, pero si preciso m´ as es 3, 1, si preciso m´ as es 3, 14 y as´ı sucesivamente nos va saliendo que mide

1.2.

Espacios vectoriales. Espacio vectorial dual

7

3, 141592... con infinitas cifras infinitesimales. As´ı, nos dec´ıan que los n´ umeros reales son los n´ umeros con infinitas cifras decimales (despu´es nos dec´ıan que 0, 999999999.... era el mismo n´ umero que 1 ¡Identific´ abamos dos n´ umeros equivalentes!). La construcci´ on que damos en Matem´ aticas de los n´ umeros reales es esencialmente la misma que la que damos para completar cualquier espacio m´etrico (como la construcci´ on de Q a partir de Z, es la misma esencialmente que la que damos para construir AS a partir de A y S). Tenemos claro cuando una sucesi´ on de n´ umeros racionales se aproximan a algo 1 , es decir, definimos primero qu´e es una sucesi´ on de Cauchy. Tenemos claro tambi´en, cu´ ando dos aproximaciones son iguales o equivalentes (cuando la diferencia de las dos sucesiones de Cauchy se aproximen a 0). As´ı pues, dar un n´ umero real equivale a dar las aproximaciones a ´el, siempre que identifiquemos estas aproximaciones. Nos basta con esto para definir R, salvo la palabra sea: “Sea R el conjunto de todas las sucesiones de Cauchy, donde diremos que dos sucesiones de Cauchy son iguales si son equivalentes”. Definido queda R.

1.2.

Espacios vectoriales. Espacio vectorial dual

“Un espacio vectorial es un conjunto en el que podemos sumar sus elementos y multiplicar cada elemento por un escalar, y estas operaciones cumplen propiedades muy naturales”. Sea k un cuerpo (ejemplos: k = Q, R ´o C). 1. Definici´ on : Un k-espacio vectorial es un conjunto, E, dotado de dos operaciones, una llamada suma E × E → E y se escribe (e, e0 ) 7→ e + e0 , y otra llamada producto por escalares k × E → E y se escribe (λ, e) 7→ λ · e, verificando: 1. (E, +) es un grupo abeliano, es decir, a) e + (e0 + e00 ) = (e + e0 ) + e00 , para todo e, e0 , e00 ∈ E. b) Existe un elemento que denotamos por 0 tal que 0 + e = e + 0 = e, para todo e ∈ E. c) Para cada e ∈ E existe otro elemento que denotamos −e tal que e + (−e) = 0. d ) e + e0 = e0 + e, para todo e, e0 ∈ E. 2. λ · (e + v) = λ · e + λ · v, ∀λ ∈ k, e, v ∈ E 3. (λ + µ) · e = λ · e + µ · e ∀λ, µ ∈ k, e ∈ E 4. (λ · µ) · e = λ · (µ · e), ∀λ, µ ∈ k, e ∈ E 5. 1 · e = e, ∀e ∈ E. Los elementos de un espacio vectorial se denominan vectores y los de k escalares. Si k es un anillo y no un cuerpo (ejemplo: k = Z) se dice que E es un k-m´odulo. k n , con la suma (λi )+(µi ) := (λi +µi ) y el producto por escalares λ·(λi ) := (λ·λi ) es un k-espacio vectorial. R3 que es el espacio en el que pensamos que vivimos es un ejemplo de R-espacio vectorial. Sea X un conjunto y C(X) = Aplic(X, k). C(X) con la suma est´andar de funciones (f + g)(x) := f (x) + g(x) y producto est´ andar por escalares (λ · f )(x) := λ · f (x) es un k-espacio vectorial. Observemos que 0 · e = (0 + 0) · e = 0 · e + 0 · e y por tanto 0 · e = 0. Observemos que si e + e0 = 0 sumando −e, obtenemos que e0 = −e. Como 0 = (1 − 1) · e = e + (−1) · e, tenemos que (−1) · e = −e. 1 Aunque ese algo no sea un n´ umero racional. En realidad, lo real, real de verdad son las aproximaciones, que ´ estas se aproximen a algo realmente existente es otra cuesti´ on. Ese algo es una abstracci´ on, sin embargo suele pensarse que este algo es muy real y la aproximaci´ on una abstracci´ on matem´ atica, pero esto es otro tema...

8

Cap´ıtulo 1.

´ Algebra Lineal Tensorial

Las aplicaciones que conservan la estructura de espacio vectorial (“los morfismos de la categor´ıa de k-espacios vectoriales”) son las aplicaciones lineales. Con precisi´on: Sean E, E 0 dos k-espacios vectoriales, 2. Definici´ on : Una aplicaci´ on T : E → E 0 es un morfismo de k-espacios vectoriales (o aplicaci´ on k-lineal ) si T (e + v) = T (e) + T (v)

y T (λ · e) = λ · T (e)

para cualesquiera e, v ∈ E, λ ∈ k. Es claro que la composici´ on T1 ◦ T2 : E → G de dos aplicaciones lineales T2 : E → F , T1 : F → G, es una aplicaci´ on lineal. 3. Definici´ on : Una aplicaci´ on lineal T : E → E 0 es un isomorfismo si existe otra aplicaci´on lineal 0 S : E → E tal que T ◦ S = IdE 0 , S ◦ T = IdE . T es un isomorfismo de espacios vectoriales si y s´olo si es una aplicaci´on biyectiva (lineal). 4. Definici´ on : Decimos que F ⊂ E es un subespacio vectorial de E si f + f 0 ∈ F y λ · f ∈ F , para 0 todo f, f ∈ F y λ ∈ k. F con la suma y producto por escalares es un espacio vectorial y la inclusi´on F ⊂ E es una aplicaci´ on k-lineal. Si Fi son subespacios vectoriales de E entonces ∩i Fi es un subespacio vectorial de E. Sea E un espacio vectorial y F ⊂ E un subespacio vectorial. Consideremos la relaci´on de equivalencia que dice que dos vectores e1 , e2 ∈ E son equivalentes si y s´olo si difieren en un vector de F (los vectores de F son equivalentes a 0). Si identificamos cada vector de E con sus equivalentes, obtenemos el conjunto que denotamos E/F , que es el siguiente E/F := {¯ e | e ∈ E, de modo que e¯1 = e¯2 ⇐⇒ e1 − e2 ∈ F } Observemos que e¯ = 0 si y s´ olo si e ∈ F y que e¯ = v¯ si y s´olo si existe un vector e0 ∈ F tal que 0 v =e+e. E/F es de modo natural un espacio vectorial: e¯ + v¯ := e + v y λ · e¯ := λ · e. El morfismo natural π : E → E/F , π(e) := e¯ es una aplicaci´ on lineal epiyectiva. Dada una aplicaci´ on lineal T : E → E 0 , se denomina n´ ucleo de la aplicaci´on lineal T , que denotamos por Ker T , a Ker T := T −1 (0) := {e ∈ E | T (e) = 0} Es f´ acil comprobar que Ker T es un subespacio vectorial de E. T (e) = T (v) si y s´olo si T (e) − T (v) = T (e − v) = 0, es decir, e − v ∈ Ker T . Es decir, T (e) = T (v) si y s´olo si existe un e0 ∈ Ker T tal que v = e + e0 . Por tanto, T es inyectiva si y s´olo si Ker T = 0. La aplicaci´ on T¯ : E/ Ker T → E 0 , T¯(¯ e) := T (e), est´a bien definida, pues si e¯ = v¯ existe un 0 e ∈ Ker T tal que v = e + e0 y T (v) = T (e) + T (e0 ) = T (e) (luego T¯(¯ v ) = T¯(¯ e), como ha ser si hablamos con sentido). Adem´ as, la aplicaci´on T¯ : E/ Ker T → E 0 es inyectiva: 0 = T¯(¯ e) = T (e) si y s´ olo si e ∈ Ker T , es decir, si y s´ olo si e¯ = 0. Definimos la imagen de T , que denotamos por Im T como Im T := T (E) := {T (e) ∈ E 0 , e ∈ E} Es f´ acil comprobar que Im T es un subespacio de E 0 .

1.2.

Espacios vectoriales. Espacio vectorial dual

9

Se tiene el siguiente diagrama conmutativo E

/ E0 O

T

π

 E/ Ker T

 _e

/ T (e) O

 e¯ 

_ / T¯(¯ e) = T (e)

i

T¯ ∼

 / Im? T

Donde la flecha horizontal inferior es isomorfismo porque es epiyectiva e inyectiva. Si C = {ci }i∈I , con ci ∈ E. Llamamos subespacio vectorial de E generado por C al m´ınimo subespacio vectorial de E que contiene a C, y lo denotamos hCi. Es f´acil probar que hCi = {e ∈ E | e = λ1 · c1 + · · · + λn cn , ci ∈ C, λi ∈ k, n ∈ N} Si C = {e1 , . . . , er } entonces denotamos he1 , . . . , er i = hCi y se cumple que he1 , . . . , er i = {λ1 · e1 + · · · + λr er , λi ∈ k}. Se dice que los vectores de C son un sistema generador de E si hCi = E. Decimos que un espacio vectorial E es finito generado si existen e1 , . . . , er ∈ E de modo que he1 , . . . , er i = E. Se dice que los vectores de C son linealmente independientes si λ1 · c1 + · · · + λn · cn 6= 0 si alg´ un λi 6= 0, para todo n y {c1 , . . . , cn } ⊂ C. Se dice que los vectores de C forman una base de E si son un sistema generador de E y son linealmente independientes. Los vectores (1, 0, . . . , 0), (0, 1, . . . , 0), . . . , (0, 0. . . . , 1) forman una base de k n , denominada “base est´ andar” de k n . 5. Teorema de la base: Todo espacio vectorial E 6= 0 contiene alguna base. Todas las bases de E tienen el mismo n´ umero de vectores, tal n´ umero se dice que es la dimensi´ on de E y se denota dimk E. Demostraci´ on. Voy a suponer que E es finito generado, para no embarullar al lector con la teor´ıa de cardinales, lema de Zorn, etc. Supongamos, pues, que E = he1 , . . . , en i. Sea I ⊂ {1, . . . , n} un subconjunto m´aximo con la condici´ on de que los vectores {ei }i∈I sean linealmente independientes. Obviamente I 6= ∅, pues si I = ∅ entonces ei = 0 para todo i y E = 0. Veamos que los vectores {ei }i∈I forman una base de E. Tenemos que probar que hei ii∈I = E. DadoPej , 1 ≤ j ≤ n, si ej ∈ / hei ii∈I entonces {ej , ei }i∈I ser´ıan linealmente P independientes, pues si λj · ej + i λi ei = 0 entonces: 1. Si λj 6= 0 tendremos que ej = − i λλji · ei P y ej ∈ hei ii∈I , contradicci´ on. 2. Si λj = 0, entonces i λi ei = 0 y entonces λi = 0, para todo i ∈ I, pues los vectores {ei }i∈I son linealmente independientes. En conclusi´on, λj = λi = 0 para todo i, luego {ej , ei }i∈I son linealmente independientes. Ahora bien, por la maximalidad de I, esto es contradictorio. En conclusi´ on, ej ∈ hei ii∈I , para todo 1 ≤ j ≤ n. Por tanto, E = he1 , . . . , en i ⊆ hei ii∈I y E = hei ii∈I . Veamos que todas las bases tienen el mismo n´ umero de vectores. Sea n el n´ umero de vectores de una base (hay muchas) con el m´ınimo n´ umero de vectores. Voy a proceder por inducci´on sobre n. Si n = 1, entonces E = hei para cierto vector no nulo e. Dados dos vectores no nulos cualesquiera e01 , e02 0 tendremos que e01 = λ1 · e y e02 = λ2 · e, con λ1 , λ2 6= 0, entonces λ11 · e1 + −1 λ2 · e2 = e − e = 0, luego e1 y e02 no son linealmente independientes. En conclusi´on, las bases de E han de estar formadas todas por un u ´nico vector. Supongamos que el teorema es cierto hasta n − 1 ≤ 1, veamos que para n. Sea ahoP es cierto 0 ra {e1 , . . . , en } y {e01 , . . . , e0m } dos bases de E. Tenemos que e1 = i λi ei , reordenando la base {e01 , . . . , e0m }, podemos suponer que λ1 6= 0. Pruebe el lector que {¯ e2 , . . . , e¯n } y {¯ e02 , . . . , e¯0m } son bases de E/he1 i (le costar´ a un poco m´ as ver que la segunda lo es). Obviamente, el n´ umero de vectores

10

Cap´ıtulo 1.

´ Algebra Lineal Tensorial

de una base de E/he1 i con el n´ umero m´ınimo de vectores es menor que n. Por inducci´on sobre n, tendremos que n − 1 = m − 1, luego n = m. Si k es un anillo (y no un cuerpo) no es cierto en general que los k-m´odulos tengan bases. Por ejemplo el Z-m´ odulo Z/5Z no tiene bases, pues para todo n ¯ ∈ Z/5Z, 5 · n ¯ = 0. Los k-m´odulos que tienen bases se denominan k-m´ odulos libres. k n es un k-m´odulo libre y una base de ´el es la base est´ andar. Si {ei }i∈I son linealmente independientes y {¯ ej }j∈J es una base i ii∈I entonces {ei , ej }i∈I,j∈J P de E/heP es una base de E: Son linealmente independientes, pues si λ e + i i i j λj ej = 0 entonces 0 = P P P P ¯j , luego λj = 0, para i λi ei + j λj ej = j λj e i λi ei = 0 y λi = 0 para todo i. P todo j, luego P 0 0 Generan, pues dado e ∈ E, tendremos que e ¯ = λ e ¯ , luego e = j j j j λj ej + e , con e ∈ hei ii∈I , es P P P 0 decir, e = i λi ei y e = j λj ej + i λi ei . Como consecuencias tenemos que si F es un subespacio vectorial de E entonces dim E = dim F + dim E/F , y todo sistema de vectores linealmente independiente se puede ampliar a un sistema de vectores que formen base. Q Dado un conjunto de espacios vectoriales {Ei }i∈I , el conjunto i∈I Ei es de modo natural un espacio vectorial: (ei )i∈I + (e0i )i∈I := (ei + e0i )i∈I λ · (ei )i∈I := (λ · ei )i∈I Q Diremos que i Ei es el producto directo de los espacios vectoriales Ei . Definimos la suma directa de los espacios vectoriales Ei , que denotamos ⊕i∈I Ei , como Y ⊕i∈I Ei = {(ei )i∈I ∈ Ei : todos los ei salvo un n´ umero finito son nulos} i∈I

{ei }i∈I es un sistema generador de E si y s´olo si el morfismo X ⊕i∈I k → E, (λi )i∈I 7→ λi · ei i

es epiyectivo; son linealmente independientes si y s´olo si es inyectivo, y son una base si y s´olo si es un isomorfismo. Por tanto, todo espacio vectorial es isomorfo a un ⊕i∈I k, pues siempre existen bases. Q Observemos que si #I < ∞ entonces ⊕i∈I Ei = i∈I Ei . Si F, F 0 son dos subespacios vectoriales de E se denota F +F 0 como el m´ınimo subespacio vectorial que contiene a F y F 0 . Es f´ acil probar que F + F 0 = {f + f 0 ∈ E, f ∈ F, f 0 ∈ F 0 } El morfismo natural F ⊕ F 0 → F + F 0 , (f, f 0 ) 7→ f + f 0 es epiyectivo y es inyectivo si y s´olo si F ∩ F 0 = 0. Se dice que E es la suma directa de dos subespacios F, F 0 si y s´olo si F ∩ F 0 = 0 y F + F 0 = E, es decir, el morfismo F ⊕ F 0 → E, (f, f 0 ) 7→ f + f 0 es un isomorfismo, es decir, todo vector e ∈ E se escribe de modo u ´nico como suma de un vector f ∈ F y otro vector f 0 ∈ F 0 . Sea Homk (E, E 0 ) el conjunto de aplicaciones lineales de E en E 0 , que es un espacio vectorial de modo natural, con la suma y producto por escalares siguientes: (T + T 0 )(e) := T (e) + T 0 (e)

y

(λ · T )(e) := λ · T (e)

Se cumple que el morfismo Y Y Homk (E, Ei0 ) → Homk (E, Ei0 ), (Ti )i∈I 7→ T, T (e) := (Ti (e))i∈I i∈I

i

1.2.

Espacios vectoriales. Espacio vectorial dual

11

Q es un isomorfismo de morfismo inverso T 7→ (πi ◦ T )i∈I , con πi : j Ej0 → Ei0 , πi ((e0j )j∈I ) := e0i . Se cumple que el morfismo Y X Homk (Ei , E 0 ) → Homk (⊕i∈I Ei , E 0 ), (Ti )i∈I 7→ T, T ((ei )i∈I ) := Ti (ei ) i

i i

es isomorfismo de morfismo inverso T 7→ (Ti )i∈I , Ti (ei ) := T ((0, . . . , ei , . . . , 0)). 0 Sea {ei }i∈I una base de E. Toda aplicaci´oP n lineal T : E → EP , est´a determinada por los valores T (ei ), i ∈ I, pues dado e ∈ E entonces e = i λi ei y T (e) = P ıprocamente, dados i λi T (ei ). Rec´ P vi ∈ E 0 , i ∈ I, la aplicaci´ on lineal S : E → E 0 definida por S(e) := i λi vi , para e = i λi ei , cumple que S(ei ) = vi . Formalmente, Y Y Homk (E, E 0 ) = Homk (⊕i∈I k, E 0 ) = Homk (k, E 0 ) = E 0 , T 7→ (T (ei ))i∈I i∈I

{e0j }

0

i∈I 0 j λji ej ,

P

Si es una base de E , entonces T (ei ) = para ciertos λij ∈ k (fijado i, todos los λji son nulos salvo un n´ umero finito) y existe una correspondencia biun´ıvoca entre T y las uplas de escalares (λji )(i,j)∈I×J , “caja” de n´ umeros que es denominada matriz asociada a T en las bases {ei } y {e0j } de E y E 0 respectivamente. “As´ı pues, T , que es una transformaci´on de un espacio en otro que supera f´acilmente nuestra capacidad de ideaci´ on geom´etrica, est´ a determinada por unos cuantos escalares λij ∈ k, que pueden ser mec´ anicamente tratados”. Fijada una base P {e1 , . . . , en } (por sencillez digamos que n < ∞) de un espacio vectorial E, dado un vector e = i λi ei suele escribirse de modo abreviado e = (λ1 , . . . , λn ) (es decir, tenemos un 0 0 0 isomorfismo E = k n ). Igualmente, dada (e) = e0 = P una base P {e1 , . . . , em }Pde EP, escribiremos P TP 0 0 0 0 ), ahora bien, T (e) = T ( i λi ei ) = (λ1 , . . . , λmP i λi T (ei ) = i λi ( j λji ej ) = j( i λji λi )ej , 0 luego λj = i λji λi , para todo j. Ecuaciones que escribimos de modo abreviado     0  λ11 · · · λ1n λ1 λ1  ..   .. ..  ·  ..  =  .   . .   .  λ0m

λm1

···

λmn

λn

0

o de modo mucho m´ as abreviado e = T (e). Si T : E → E 0 es una aplicaci´ on lineal de matriz asociada (λji ), entonces la matriz asociada a λ · T es (λ · λji ). Escribiremos λ · (λji ) = (λ · λji ) y diremos que es el producto de una matriz por un escalar. Si T, T 0 : E → E 0 son dos aplicaciones lineales de matrices asociadas (λji ) y (λ0ji ) entonces la matriz asociada a T + T 0 es (λji + λ0ji ). Escribiremos (λji ) + (λ0ji ) = (λji + λ0ji ) y diremos que es la suma de matrices. Sea T : E → E 0 y S : E 0 → E 00 dos aplicaciones lineales. Sea {ei }i∈I , {e0j }j∈J y {e00k }k∈K bases de E, E 0 y E 00 respectivamente. Sea respectivas la matriz P (λji ) 0y (µkj P) las matrices P P de T 00y S. Calculemos P P 0 00 (cki ) de S ◦ T : (S ◦ T )(e ) = S( λ e ) = λ S(e ) = λ · ( µ e ) = ( µ j j ji j j ji j ji k kj k k j kj · λji ) · ek . Pi En conclusi´ on, cki = j µkj · λji . Seguiremos la notaci´on, (µkj ) ◦ (λji ) = (cki ) y diremos que (cki ) es el producto de las matrices (µkj ) y (λji ).

12

´ Algebra Lineal Tensorial

Cap´ıtulo 1.

6. Proposici´ on : Una aplicaci´ on lineal T : E → E 0 es inyectiva si y s´ olo si aplica una (o toda) base en un sistema de vectores linealmente independientes. T es epiyectiva si y s´ olo si aplica una base (o toda) en un sistema generador. T es un isomorfismo si y s´ olo si aplica una base (o toda) en una base. 7. Definici´ on : El espacio vectorial formado por el conjunto de aplicaciones lineales de un k-espacio vectorial E en k se denomina espacio vectorial dual de E y se denota E ∗ , es decir, E ∗ := Homk (E, k) Los vectores w ∈ E ∗ se denominan formas lineales. 8. Proposici´ on : Si E es un espacio vectorial de dimensi´ on finita, de base {e1 , . . . , en } entonces las formas lineales {w1 , . . . , wn }, determinadas por wi (ej ) = δij forman una base de E ∗ . Se dice que {w1 , . . . , wn } es la base dual de {e1 , . . . , en }. Demostraci´ on. Dada w ∈ E ∗ se tiene que w = w(e1P )·w1 +. . .+w(en )·wn , porque P ambas formas lineales coinciden sobre los vectores ei de la base de E. Si i λi wi = 0 entonces 0 = ( i λi wi )(ej ) = λj , para todo j. En conclusi´ on, {w1 , . . . , wn } son un sistema generador de E ∗ y son linealmente independientes, es decir, son una base. 9. Teorema de reflexividad: Sea E un espacio vectorial de dimensi´ on finita. La aplicaci´ on lineal can´ onica E → (E ∗ )∗ , e 7→ e˜, e˜(w) := w(e) es un isomorfismo. Demostraci´ on. Sea {e1 , . . . , en } una base de E y {w1 , . . . , wn } la base dual. Es inmediato que {˜ e1 , . . . , e˜n } es la base dual de {w1 , . . . , wn }. La aplicaci´on can´onica aplica la base {e1 , . . . , en } en la base {˜ e1 , . . . , e˜n } y es un isomorfismo. Ser´ a usual escribir E = (E ∗ )∗ y e = e˜. Dada una aplicaci´ on lineal T : E → E 0 sea T ∗ : E 0∗ → E ∗ la aplicaci´on lineal definida por T ∗ (w0 ) := 0 w ◦ T . Se dice que T ∗ es el morfismo transpuesto de T . Si {e1 , . . . , en } y {e01 , . . . , e0m } son bases de E y E 0 y (λji ) es la matriz asociada a T en estas P bases, 0 calculemos la matriz (λ∗ij ) de T ∗ , en las bases duales {w1 , . . . , wn }, {w10 , . . . , wm }: T ∗ (wj0 ) = i λ∗ij wi . Entonces, X λ∗ij = T ∗ (wj0 )(ei ) = wj0 (T (ei )) = wj0 ( λki e0k ) = λji k ∗

que se expresa diciendo que la matriz de T es la transpuesta de la matriz de T .

1.3.

Producto tensorial

Queremos definir o construir el producto tensorial de dos espacios vectoriales E, E 0 . Veamos qu´e cosas queremos y c´ omo queremos que operen. Quiero un “producto” que denotar´e ⊗, entre los vectores de E (que escribir´e en primer lugar) y los de E 0 (en segundo lugar). Dados e ∈ E y e0 ∈ E 0 , quiero construir e ⊗ e0 . Quiero sumar cosas de ´estas, quiero cosas de la forma e1 ⊗ e01 + · · · + en ⊗ e0n , con ei ∈ E y e0i ∈ E 0 . Por u ´ltimo quiero que el producto verifique las siguientes propiedades (lineales):

1.3.

Producto tensorial

13

(e1 + e2 ) ⊗ e0 = e1 ⊗ e0 + e2 ⊗ e0 λe ⊗ e0 = e ⊗ λe0 e ⊗ (e01 + e02 ) = e ⊗ e01 + e ⊗ e02 y no quiero imponer ninguna condici´ on m´as (salvo las que se deriven de estas condiciones). Esto es muy f´ acil, con la palabra sea. Hablemos con todo rigor. Sean E y E 0 dos k-espacios vectoriales. Sea M el Z-m´odulo libre de base {e ⊗ e0 }e∈E,e0 ∈E 0 . Es decir, Z · e ⊗ e0 M := ⊕ e∈E,e0 ∈E 0

P “lo es mera notaci´ on, que conviene”. M es un k-espacio vectorial: λ· i ni ·ei ⊗ e0i := P escrito en negrita 0 i ni (λei ⊗ ei ). “Queremos identificar (e1 + e2 ) ⊗ e0 con e1 ⊗ e0 + e2 ⊗ e0 ; λe ⊗ e0 con e ⊗ λe0 ; y e ⊗ (e01 + e02 ) con e ⊗ e01 + e ⊗ e02 .” Sea N el subespacio vectorial de M , generado por los elementos, (e1 + e2 ) ⊗ e0 − e1 ⊗ e0 − e2 ⊗ e0 , λe ⊗ e0 − e ⊗ λe0 , y e ⊗ (e01 + e02 ) − e ⊗ e01 − e ⊗ e02 , es decir,  (e1 + e2 ) ⊗ e0 − e1 ⊗ e0 − e2 ⊗ e0  e ⊗ (e01 + e02 ) − e ⊗ e01 − e ⊗ e02 N := e,e1 ,e2 ∈E,e0 ,e01 e02 ∈E 0 ,λ∈k λe ⊗ e0 − e ⊗ λe0

(∗)

1. Definici´ on : Llamaremos producto tensorial de E por E 0 , que denotaremos por E ⊗k E 0 , a E ⊗k E 0 := M/N 2. Notaci´ on: Dado e ⊗ e0 ∈ M , denotaremos e ⊗ e0 ∈ M/N = E ⊗ E 0 por e ⊗ e0 . Pues bien, E ⊗ E 0 es un espacio vectorial y est´a generado por los vectores e ⊗ e0 , variando e ∈ E y e ∈ E 0 (porque los vectores e ⊗ e0 generan M y E ⊗ E 0 = M/N ). Tomando clases en (∗) se tienen las igualdades 0

(e1 + e2 ) ⊗ e0 = e1 ⊗ e0 + e2 ⊗ e0 e ⊗ (e01 + e02 ) = e ⊗ e01 + e ⊗ e02 λe ⊗ e0 = e ⊗ λe0

(∗)

Calculemos las aplicaciones lineales de E ⊗ E 0 en otro espacio vectorial V . Como E ⊗ E 0 = M/N , dar una aplicaci´ on lineal ϕ : E⊗E 0 → V equivale a dar una aplicaci´on lineal φ : M → V que se anule en N (de modo que ϕ(e⊗e0 ) = φ(e ⊗ e0 )). Ahora bien, M es un Z-m´odulo libre de base {e ⊗ e0 }e∈E,e0 ∈E 0 , as´ı pues, φ est´ a determinado por φ(e ⊗ e0 ) (variando e ∈ E, e0 ∈ E 0 ) y se anula en N si y s´olo si φ((e1 + e2 ) ⊗ e0 ) = φ(e1 ⊗ e0 ) + φ(e2 ⊗ e0 ) φ(λe ⊗ e0 ) = φ(e ⊗ λe0 )) φ(e ⊗ (e01 + e02 )) = φ(e ⊗ e01 ) + φ(e ⊗ e02 ) Adem´ as, ϕ es k-lineal si y s´ olo si φ(λe ⊗ e0 ) = λφ(e ⊗ e0 ). En conclusi´ on, dar una aplicaci´ on k-lineal ϕ : E ⊗k E 0 → V , equivale a definir ϕ(e ⊗ e0 ) (para todo 0 0 e ∈ E, e ∈ E ) de modo que se cumpla ϕ((e1 + e2 ) ⊗ e0 ) = ϕ(e1 ⊗ e0 ) + ϕ(e2 ⊗ e0 ) ϕ(λe ⊗ e0 ) = ϕ(e ⊗ λe0 ) = λϕ(e ⊗ e0 ) ϕ(e ⊗ (e01 + e02 )) = ϕ(e ⊗ e01 ) + ϕ(e ⊗ e02 )

14

Cap´ıtulo 1.

´ Algebra Lineal Tensorial

(De un modo m´ as elegante, esta conclusi´on se expresa en los textos diciendo que se tiene la igualdad Homk (E ⊗k E 0 , V ) = Bilk (E, E 0 ; V )). Dadas dos aplicaciones lineales T : E → V , T 0 : E 0 → V 0 podemos definir el morfismo E ⊗ E 0 → V ⊗ V 0 , e ⊗ e0 7→ T (e) ⊗ T 0 (e0 ), morfismo que lo denotaremos por T ⊗ T 0 . 3. Proposici´ on :

1. E ⊗k E 0 = E 0 ⊗k E.

2. (E ⊕ E 0 ) ⊗k V = (E ⊗k V ) ⊕ (E 0 ⊗k V ). 3. ( ⊕ Ei ) ⊗k V = ⊕(Ei ⊗ V ). i∈I

i

4. k ⊗k E = E. Demostraci´ on. 1. Tenemos el morfismo E ⊗E 0 → E 0 ⊗E, e⊗e0 7→ e0 ⊗e y su inverso E 0 ⊗E → E ⊗E 0 , e0 ⊗ e 7→ e ⊗ e0 . 2. Tenemos el morfismo (E ⊕ E 0 ) ⊗ V → (E ⊗ V ) ⊕ (E 0 ⊗ V ), (e, e0 ) ⊗ v 7→ (e ⊗ v, e0 ⊗ v) y el inverso (E ⊗ V ) ⊕ (E 0 ⊗ V ) → (E ⊕ E 0 ) ⊗ V , (e ⊗ v, e0 ⊗ v 0 ) 7→ (e, 0) ⊗ v + (0, e0 ) ⊗ v 0 . 3. Idem que 2. 4. Tenemos el morfismo k ⊗ E → E, λ ⊗ e 7→ λe y el inverso E → k ⊗ E, e 7→ 1 ⊗ e.

4. Teorema : Si E es un espacio vectorial de base {e1 , . . . , en } y E 0 es un espacio vectorial de base {e01 , . . . , e0m } entonces E ⊗k E 0 es un espacio vectorial de base {ei ⊗ e0j }1≤i≤n,1≤j≤m . Demostraci´ on. E ⊗k E 0 = he ⊗ e0 ie∈E,e0 ∈E 0 . Dados e ∈ E y e0 ∈ E 0 entonces e =

P P λi ei y e0 = λ0j e0j i

y

j

X X X e ⊗ e0 = ( λi ei ) ⊗ ( λj e0j ) = λi λ0j · ei ⊗ e0j i

j

i,j

Por tanto, E ⊗ E 0 = hei ⊗ e0j i1≤i≤n,1≤j≤m . m

m

Adem´ as, E ⊗ E 0 = k n ⊗ k m = (k ⊗ k m ) ⊕ · · · ⊗ (k ⊗ k m ) = k m ⊕ · · · ⊕ k m = k nm , luego E ⊗ E 0 es un espacio vectorial de dimensi´ on nm, de base {ei ⊗ e0j }1≤i≤n,1≤j≤m (de hecho puede comprobar el lector que esta base se aplica v´ıa las igualdades en la base est´andar de k nm ).

Del mismo modo que hemos definido el producto tensorial de dos espacios vectoriales podr´ıamos haber definido el producto tensorial de tres espacios vectoriales, e igualmente dar una aplicaci´on lineal φ : E1 ⊗k E2 ⊗k E3 → V equivale a definir los φ(e1 ⊗ e2 ⊗ e3 ), para todo e1 ∈ E1 , e2 ∈ E2 , e3 ∈ E3 , de modo que sea k-lineal en cada uno de los tres factores, es decir, Homk (E1 ⊗k E2 ⊗k E3 , V ) = Multilin(E1 × E2 × E3 , V ). Igualmente podemos definir el producto tensorial de n-espacios vectoriales. 5. Proposici´ on : Homk (E ⊗k E 0 , E 00 ) = Homk (E, Homk (E 0 , E 00 )). Demostraci´ on. Asignamos a φ ∈ Homk (E ⊗k E 0 , E 00 ), φ˜ ∈ Homk (E, Homk (E 0 , E 00 )), definido por ˜ φ(e) := φ(e ⊗ −), donde φ(e ⊗ −)(e0 ) := φ(e ⊗ e0 ). Rec´ıprocamente, asignamos al morfismo ϕ ∈ Homk (E, Homk (E 0 , E 00 )), ϕ˜ ∈ Homk (E ⊗k E 0 , E 00 ), definido por ϕ(e ˜ ⊗ e0 ) := (ϕ(e))(e0 ). 0 0 6. Proposici´ on : (E1 ⊗k · · · ⊗k En ) ⊗k (E10 ⊗k · · · ⊗k Em ) = E1 ⊗k · · · ⊗k En ⊗k E10 ⊗k · · · ⊗k Em .

1.4.

´ Algebra exterior n-´esima de un espacio vectorial

15

Demostraci´ on. Sea 0 0 φ ∈ Homk (E1 ⊗k · · · ⊗k En , Homk (E10 ⊗k · · · ⊗k Em , E1 ⊗k · · · ⊗k En ⊗k E10 ⊗k · · · ⊗k Em ))

definido por φ(e1 ⊗ · · · ⊗ en )(e01 ⊗ · · · ⊗ e0m ) := e1 ⊗ · · · ⊗ en ⊗ e01 ⊗ · · · ⊗ e0m . Por la proposici´on anterior 0 0 tenemos el morfismo (E1 ⊗k · · · ⊗k En ) ⊗k (E10 ⊗k · · · ⊗k Em ) → E1 ⊗k · · · ⊗k En ⊗k E10 ⊗k · · · ⊗k Em , 0 0 0 0 definido por (e1 ⊗ · · · ⊗ en ) ⊗ (e1 ⊗ · · · ⊗ em ) 7→ e1 ⊗ · · · ⊗ en ⊗ e1 ⊗ · · · ⊗ em . 0 0 El morfismo E1 ⊗k · · · ⊗k En ⊗k E10 ⊗k · · · ⊗k Em → (E1 ⊗k · · · ⊗k En ) ⊗k (E10 ⊗k · · · ⊗k Em ), 0 0 0 0 e1 ⊗ · · · ⊗ en ⊗ e1 ⊗ · · · ⊗ em 7→ (e1 ⊗ · · · ⊗ en ) ⊗ (e1 ⊗ · · · ⊗ em ) es el morfismo inverso. Hemos demostrado, adem´ as, la propiedad asociativa del producto tensorial, pues f´acilmente tenemos que E1 ⊗k (E2 ⊗k E3 ) = E1 ⊗k E2 ⊗k E3 = (E1 ⊗k E2 ) ⊗k E3 7. Teorema : Sean Ei k-espacios vectoriales de dimensi´ on finita. La aplicaci´ on lineal φ

E1∗ ⊗k . . . ⊗k En∗ → (E1 ⊗k · · · ⊗k En )∗ = Multilink (E1 × · · · × En , k) w1 ⊗ · · · ⊗ wn 7→ w1 ⊗ · ˜· · ⊗ wn con w1 ⊗ · ˜· · ⊗ wn (e1 ⊗ · · · ⊗ en ) := w1 (e1 ) · · · wn (en ), es un isomorfismo lineal. Demostraci´ on. Sea {eij }i una base de Ej y {wij }i la base dual. Por tanto, una base de E1∗ ⊗k · · ·⊗k En∗ es {wi1 1 ⊗ · · · ⊗ win n }i1 ,...,in , que resulta ser v´ıa φ la base dual de la base {ei1 1 ⊗ · · · ⊗ ein n }i1 ,...,in de E1 ⊗k · · · ⊗k En . 8. Notaci´ on: Por abuso de notaci´ on suele denotarse w1 ⊗ · ˜· · ⊗ wn por w1 ⊗· · ·⊗wn . Rec´ıprocamente, w1 ⊗ · · · ⊗ wn suele pensarse como la aplicaci´ on multilineal w1 ⊗ · ˜· · ⊗ wn . Otra f´ ormula importante es: 9. Proposici´ on : Sea E 0 un k-espacio vectorial de dimensi´ on finita. Entonces E 0∗ ⊗k E = Homk (E 0 , E) Demostraci´ on. Si E 0 = k es obvio. En general, E 0 = k n . Como Homk (−, E) y − ⊗k E conmutan con sumas directas finitas, hemos concluido. ˜ e, donde w ⊗ ˜ e(e0 ) := w(e0 )·e, Expl´ıcitamente, el morfismo E 0∗ ⊗k E → Homk (E 0 , E), w ⊗e 7→ w ⊗ es un isomorfismo can´ onico.

1.4.

´ Algebra exterior n-´ esima de un espacio vectorial

“Queremos definir ahora un producto ∧, con las propiedades multilineales de ⊗ y de modo que v1 ∧ · · · ∧ vr sea cero si y s´ olo v1 , . . . , vn ∈ E no son linealmente dependientes. Basta imponer s´olo que v1 ∧ . . . ∧ vr es nulo si dos de los vi son iguales”. n Sea V el k-subespacio vectorial de E ⊗k · · · ⊗k E, generado por los vectores e1 ⊗ · · · ⊗ ej−1 ⊗ e ⊗ · · · ⊗ ek−1 ⊗ e ⊗ · · · ⊗ en variando ei , e, j, k.

16

Cap´ıtulo 1.

´ Algebra Lineal Tensorial

1. Definici´ on : Llamaremos ´ algebra exterior n de E, que denotaremos por Λn E, a n

Λn E := (E ⊗k · · · ⊗k E)/V n

2. Notaci´ on: Denotaremos e1 ⊗ e2 ⊗ · · · ⊗ en ∈ (E ⊗k · · · ⊗k E)/V = Λn E por e1 ∧ e2 ∧ · · · ∧ en . Observemos que ∧ adem´ as de las propiedades de multilinealidad heredadas de ⊗, cumple que e1 ∧ · · · ∧ e ∧ · · · ∧ e ∧ · · · ∧ en = 0. Si ei es combinaci´on lineal de los {ej }j6=i , entonces e1 ∧ e2 ∧ · · · ∧ P ei ∧ · · · ∧ en = 0: ei = λj ej , luego j6=i

P e1 ∧ e2 ∧ · · · ∧ en = e1 ∧ · · · ∧ ei−1 ∧ ( λj ej ) ∧ ei+1 ∧ · · · ∧ en j6=i P = λj e1 ∧ · · · ∧ ei−1 ∧ ej ∧ ei+1 ∧ · · · ∧ en = 0 j6=i

Como 0 = e1 ∧ · · · ∧ (e + e0 ) ∧ · · · ∧ (e + e0 ) ∧ · · · ∧ en = e1 ∧ · · · ∧ e ∧ · · · ∧ (e + e0 ) ∧ · · · ∧ en + e1 ∧ · · · ∧ e0 ∧ · · · ∧ (e + e0 ) ∧ · · · ∧ en = e1 ∧ · · · ∧ e ∧ · · · ∧ e ∧ · · · ∧ en + e1 ∧ · · · ∧ e ∧ · · · ∧ e0 ∧ · · · ∧ en + e1 ∧ · · · ∧ e0 ∧ · · · ∧ e ∧ · · · ∧ en + e1 ∧ · · · ∧ e0 ∧ · · · ∧ e0 ∧ · · · ∧ en = e1 ∧ · · · ∧ e ∧ · · · ∧ e0 ∧ · · · ∧ en + e1 ∧ · · · ∧ e0 ∧ · · · ∧ e ∧ · · · ∧ en obtenemos que e1 ∧ · · · ∧ e ∧ · · · ∧ e0 ∧ · · · ∧ en = −e1 ∧ · · · ∧ e0 ∧ · · · ∧ e ∧ · · · ∧ en j

j

k

k

Recordemos que toda permutaci´ on es producto de transposiciones y que el signo de la permutaci´on es igual a −1 elevado al n´ umero de las transposiciones. Por tanto, dada una permutaci´on σ, de {1, . . . , n}, tenemos que eσ(1) ∧ eσ(2) ∧ · · · ∧ eσ(n) = signo(σ) · e1 ∧ e2 ∧ · · · ∧ en n

3. Como Λn E = (E ⊗ · · · ⊗ E)/V , dar un morfismo lineal φ : Λn E → F equivale a dar un morfismo n E⊗ · · ·⊗E → F , que se anule en V , es decir, equivale a definir φ(e1 ∧· · ·∧en ) (para todo e1 , . . . , en ∈ E) que sea k-lineal en cada factor y de modo que φ(e1 ∧ · · · ∧ e ∧ · · · ∧ e ∧ · · · ∧ en ) = 0. Dada una aplicaci´ on lineal T : E → E 0 induce el morfismo Λn T : Λn E → Λn E 0 , definido por Λ T (e1 ∧ · · · ∧ en ) := T (e1 ) ∧ · · · ∧ T (en ). n

4. Notaci´ on: Diremos que Λ0 E = k y que Λ1 E = E. 5. Teorema: Sea E un espacio vectorial de base {e1 , . . . , en }. Entonces {ei1 ∧· · ·∧eir }1≤i1 0 y con v ∈ V , entonces c2 ∧ e00 = µ · c2 ∧ e0 = µλc3 . En conclusi´ on, dar una orientaci´on en E, es dar una c3 ∈ Λ3 E (o cualquier otra λ · c3 , con λ > 0)”. 12. Definici´ on : Dar una orientaci´ on en un R-espacio vectorial E de dimensi´on n, es dar una ncoforma no nula cn ∈ Λn E. Decimos que dos orientaciones cn y c0n son iguales si cn = λ · c0n , con λ > 0. Como Λn E ' R, en E s´ olo podemos dar dos orientaciones, “una y su opuesta”. Dada una orientaci´ on cn ∈ Λn E existe una u ´nica wn ∈ Λn E ∗ , salvo un factor multiplicativo positivo, de modo que wn (cn ) ≥ 0. Equivalentemente, dada una n-forma wn , salvo un factor multiplicativo positivo, tenemos definida una orientaci´on. Sea E un R-espacio vectorial de dimensi´on n orientado, y e1 ∧ . . . ∧ en ∈ Λn E una n-coforma que orienta E (o equivalentemente una n-forma wn que orienta E). 13. Definici´ on : Diremos que una base ordenada {e01 , . . . , e0n } est´a positivamente ordenada si e01 ∧ 0 · · · ∧ en = λ · e1 ∧ · · · ∧ en , con λ > 0 (o equivalentemente si wn (e01 , . . . , e0n ) > 0). P 14. Proposici´ on : Sea e0i = λij ej . Entonces {e01 , . . . , e0n } est´ a positivamente ordenada si y s´ olo si j

det(λij ) > 0. Demostraci´ on. e01 ∧ · · · ∧ e0n = det(λij ) · e1 ∧ · · · ∧ en . 15. Definici´ on : Una aplicaci´ on multilineal H : E × . . . × E → V es una aplicaci´on hemisim´etrica si H(e1 , · · · , en ) = 0 si ei = ej , para un i 6= j. Observemos que si ei es combinaci´ on lineal de los dem´as ej , por la multilinealidad y hemisimetr´ıa de H, se cumple que H(e1 , . . . , en ) = 0. Por otra parte, 0 = H(e1 , · · · , e + v, · · · , e + v, · · · , en ) = H(e1 , · · · , e, · · · , v, · · · , en ) + H(e1 , · · · , v, · · · , e, · · · , en ) Luego H(e1 , · · · , e, · · · , v, · · · , en ) = −H(e1 , · · · , v, · · · , e, · · · , en ) y en general H(e1 , · · · , · · · , en ) = signo(σ) · H(eσ(1) , · · · , eσ(n) ) Denotemos Hemk (E × · · · × E, V ), el conjunto de aplicaciones hemisim´etricas de E × · · · × E en V. m

16. Proposici´ on : Hemk (E × · · · × E, k) = (Λm E)∗ . m

Demostraci´ on. Estamos repitiendo 1.4.3. Toda aplicaci´on hemisim´etrica H : E × · · · × E → k, define ˜ : E ⊗ .m. . ⊗ E → k, H(e ˜ 1 ⊗ · · · ⊗ em ) = H(e1 , . . . , em ), que factoriza v´ıa Λm E → k, la aplicaci´ on H e1 ∧ · · · ∧ em 7→ H(e1 , . . . , em ). Rec´ıprocamente, dada una aplicaci´on lineal, Λm E → k, la composici´ on m m E × · · · × E → Λ E → k es hemisim´etrica. 17. Proposici´ on : Sea E un espacio vectorial de dimensi´ on finita. Entonces, Λm E ∗ = (Λm E)∗ φ Demostraci´ on. La aplicaci´ on, Λm E ∗ → (Λm E)∗ , ω1 ∧ · · · ∧ ωm 7→ ω1 ∧ · ·˜· ∧ ωm , donde

ω1 ∧ · ·˜· ∧ ωm (v1 ∧ · · · ∧ vm ) :=

X σ∈Sm

signo(σ) · ω1 (vσ(1) ) · · · ωm (vσ(m) )

20

Cap´ıtulo 1.

´ Algebra Lineal Tensorial

es un isomorfismo. Porque si e1 , . . . , en es una base de E y w1 , . . . , wn la base dual, entonces φ aplica la base {wi1 ∧ · · · ∧ wim }i1 0

˜ ˜ =M ˜ . Tambi´en es claro que C ∞˜(U ) = C ∞ (U ). que M

2.3.

Derivaciones. M´odulo de diferenciales

43

1. Teorema : Sea M tal que Nul(M ) = 0 (por ejemplo si M es un m´ odulo libre). Entonces, DerR (C ∞ (U ), M ) = M ·

∂ ∂ ⊕ .m. . ⊕ M · ∂x1 ∂xm

P ∂ Demostraci´ on. Asignemos a cada derivaci´on D ∈ DerR (C ∞ (U ), M ), i (Dxi ) · ∂x . i Veamos que esta asignaci´ on es inyectiva: Tenemos que ver que si Dxi = 0, para todo i, entonces P ,...,xm ) D = 0. Sobre los polinomios p(x1 , . . . , xm ) es f´acil ver que D(p(x1 , . . . , xn )) = i ∂p(x1∂x D(xi ) i n n−1 (argumentando por inducci´ on sobre el grado del polinomio). Es claro que D(mα ) ⊆ mα · M . Toda f ∈ C ∞ (U ) es igual a un polinomio p de grado n m´odulo mnα , f = p + g, g ∈ mnα . Por tanto, D(f ) = D(p) + D(g) = 0 + D(g) ∈ mn−1 · M , para todo n y α, luego D(f ) = 0 y D = 0. α P ∂ es la imagen de la derivaci´on D definida La asignaci´ on es obviamente epiyectiva, porque i mi ∂x i P ∂p por D(p) := ∂xi · mi . i

Por tanto, si Nul M = 0 entonces toda D ∈ DerR (C ∞ (U ), M ) es D =

P

i

Dxi ·

∂ ∂xi .

˜ C ∞ (U )/R = C ∞ (U ) · dx1 ⊕ · · · ⊕ C ∞ (U ) · dxn 2. Teorema : Ω Demostraci´ on. Para todo M tal que Nul(M ) = 0 se cumple que ˜ C ∞ (U )/R , M ) = HomC ∞ (U ) (ΩC ∞ (U )/R , M ) = DerR (C ∞ (U ), M ) HomC ∞ (U ) (Ω ∂ = M ∂x1 ⊕ · · · ⊕ M ∂x∂n = HomC ∞ (U ) (C ∞ (U )dx1 ⊕ · · · ⊕ C ∞ (U )dxn , M )

Por tanto, ˜ C ∞ (U )/R = Λn Ω

⊕ 1≤i1 0 y F 00 ≤ 0) y F (0) = 0 entonces d0 = F ◦ d es una distancia d(p,q) x 0 , en este caso d0 (p, q) = 1+d(p,q) y d0 (p, q) < 1 y (X, d ) es homeomorfo a (X, d). Consideremos F = 1+x para todo p, q ∈ X. Sean ahora dos distancias d1 , d2 en X y consideremos en X la topolog´ıa menos fina que contenga a las topolog´ıas definidas por d1 y d2 , que es justamente la topolog´ıa definida por d1 + d2 . Como la topolog´ıa definida por una distancia d es la misma que la definida por λ · d, λ > 0, entonces la topolog´ıa definida por d1 + d2 es la misma que la definida por λ1 · d1 + λ2 · d2 , λ1 , λ2 > 0. Sea ahora un conjunto numerable {di }i∈N de distancias en X y supongamos (como podemos) que di ≤ 1/2i , para cada i ∈ N. La topolog´ıa menos fina que contiene P a las topolog´ıas definidas por todos los di coincide con la topolog´ıa definida por la distancia d := i di . ¯i ⊂ Ui+1 y son Sea U ⊆ Rn un abierto y {U1 , U2 , . . .} abiertos tales que sus cierres cumplen que U compactos, y tales que ∪i Ui = U . Sea C k (U ) las funciones en U de clase k. Para cada compacto K ⊆ U sea dK : C k (U ) → R la distancia definida por dkK (f, g) := m´ax{|Dα (f − g)(x)|, |α| ≤ k, x ∈ K} donde Dα =

∂ |α| α αn ∂x11 ···∂x n k

y |α| = α1 + · · · + αn .

Consideremos C (U ) la topolog´ıa menos fina que contiene a las topolog´ıas definidas por las distancias dkK , para todo compacto K. Esta topolog´ıa es igual a la topolog´ıa menos fina que contiene a las topolog´ıas definidas por dkU¯i (o

dk ¯ U

), i = 1, 2, . . ., que coincide con la topolog´ıa definida por

i

1+dk ¯ U

i

d=

X 1 dkU¯i · 2i 1 + dkU¯ i i

Si en C ∞ (U ) consideramos la topolog´ıa menos fina que contiene a las topolog´ıas definidas por las distancias dkK , para todo compacto K y k ∈ N, entonces esta topolog´ıa coincide con la topolog´ıa definida por d=

X 1 diU¯i · 2i 1 + diU¯ i i

1. Teorema : C k (U ) es un espacio m´etrico completo para toda 0 ≤ k ≤ ∞. Demostraci´ on. Sea {fi }i∈N una sucesi´ on de Cauchy. Para todo α ≤ K, {Dα fi }i∈N es una sucesi´on de 0 Cauchy en C (U ), para el que suponemos bien conocido que es completo. Sean fα ∈ C 0 (U ) el l´ımite de la sucesi´ on {Dα fi }i∈N . Basta probar que Dα f0 existe y coincide con fα para todo α, con |α| ≤ k. ∂f Si α = (β1 , . . . , βj + 1, . . . , βn ), basta probar que ∂xβj = fα .

50

Cap´ıtulo 2.

C´ alculo Tensorial en Geometr´ıa Diferencial

Por el teorema del valor medio, dado a ∈ U , Dβ fi (x) − Dβ fi (a) = Dα fi (ξi )(xj − aj ), con x = (a1 , . . . , xj , . . . , an ) y ξi en el segmento que une a y x. Existe una subsucesi´on {ik } de modo que {ξik } converge a un ξ (perteneciente al segmento que une a y x). Tomando l´ımite cuando ik → ∞ obtenemos fβ (x) − fβ (a) = fα (ξ) · (xj − aj ) = fα (a) · (xj − aj ) + o(xj − aj ) donde o(xj − aj )/xj − aj tiende a cero cuando xj → aj . Por tanto,

∂fβ ∂xj (a)

existe y coincide con fα (a).

Veamos ahora que el morfismo C ∞ (Rn ) → R[[x1 , . . . , xn ]] que asigna a cada funci´on diferenciable su desarrollo de Taylor infinito, en un punto α ∈ Rn cualquiera, es epiyectivo (sorprendentemente a primera vista). 2. Lema : Sea f ∈ C ∞ (Rn ), tal que Dα (f )(0) = 0, para todo α, con |α| ≤ m. Dado  > 0 existe g ∈ C ∞ (Rn ), que se anula en un entorno abierto de 0 tal que ||f − g||m <  con ||f − g||m := sup{|Dα (f − g)(a)|, a ∈ Rn , |α| ≤ m}. Demostraci´ on. Sea η(x) ∈ C ∞ (Rn ), tal que η(x) = 0, si ||x|| ≤ 1/2 y η(x) = 1 si ||x|| ≥ 1. Para δ > 0, definamos x gδ (x) = η( ) · f (x) δ Claramente gδ ∈ C ∞ (Rn ) y se anula en un entorno abierto de 0. Calculemos ||f − gδ ||m . Tenemos que f − gδ = f · (1 − η(x/δ)) que es nula para ||x|| > δ y ||η(x)||m < ∞. Observemos que por las hip´ otesis l´ımx→0 Dα f (x)/||x||m−|α| = 0, luego X α  |Dα (f − gδ )| = |Dα f · (1 − η(x/δ)) + · Dβ f · δ −(|α|−|β|) · Dα−β η(x/δ)| ≤  β 0≤β 0 existe un  de modo que para ||y 0 − y||∞ <  entonces ||G(y 0 , y)||∞ < δ, es decir, G(y 0 , y) · Cλ ⊆ Cδ·λ . Por tanto, T (y + C ) ⊆ T (y) + H(y, y) · C + Cδ· ⊆ T (y) + H(y, y) · C·(1+δ0 )

2.7. con δ 0 = δ ·



Integraci´on. F´ormula de Stokes

53

n (la longitud de la diagonal del cubo Cδ ). Por tanto,

Vol(T (y + C )) ≤ Vol(H(y, y) · C·(1+δ0 ) ) = det(H(y, y)) · Vol(C·(1+δ0 ) ) = det(H(y, y)) · Vol(C ) · (1 + δ 0 )n Por tanto, P i i f (T (y)) · | det( ∂T )| · dy1 · · · dyn = l´ım→0 k f (T (yk )) · | det( ∂T ∂y ∂yj (yk ))| · Vol(C ) j R P ≥ l´ım→0 k f (T (yk )) · Vol(T (yk + C )) · (1 + δ 0 )−n = T (C) f (x) · dx1 · · · dxn · (1 + δ 0 )−n R

C

R R i Por tanto, U 0 f (T (y)) · | det( ∂T ∂yj )| · dy1 · · · dyn ≥ U f (x) · dx1 · · · dxn . Si consideramos el morfismo inverso T −1 : U 0 → U y como funci´on continua g(y) = f (T (y)) · −1 i | det( ∂T (x)) · | det( ∂yj )|, entonces, f (x) = g(T

Z

Z f (x) · dx1 · · · dxn =

U

∂Ti−1 ∂xj )|

g(T −1 (x)) · | det(

U

y concluimos que

R

f (x) · dx1 · · · dxn =

U

R

U0

y

∂Ti−1 )| · dx1 · · · dxn ≥ ∂xj

Z g(y) · dy1 · · · dyn U0

i f (T (y)) · | det( ∂T ∂yj )| · dy1 · · · dyn .

Integraci´ on de formas. Sea U ⊂ Rn un abierto, con la orientaci´on dx1 ∧ . . . ∧ dxn . Sea w = f · dx1 ∧ . . . ∧ dxn ∈ ΩnU y supongamos que sop f es compacto. R R 2. Definici´ on : Se define U w := U f · dx1 · · · dxn . Sea U 0 ⊂ Rn un abierto y escribamos ahora las coordenadas y1 , . . . , yn . Si ϕ : U 0 → U es un difeomorfismo que conserve la orientaci´ on, entonces el teorema del cambio de variables en integraci´ on ∗ (=, m´ as abajo) implica que Z Z ∗ ϕ w= w U 0 =ϕ−1 U

U

P En efecto, ϕ∗ w = f (ϕ1 , . . . , ϕn ) · dϕ1 ∧ · · · ∧ dϕn = f (ϕ1 , . . . , ϕn ) · ( i

P ∂ϕn ∂ϕ1 i ∂yi dyi ) ∂yi dyi ) ∧ · · · ∧ (

=

i f (ϕ1 , . . . , ϕn ) · det( ∂ϕ ∂yj ) · dy1 ∧ · · · ∧ dyn y

Z U 0 =ϕ−1 U

ϕ∗ w =

Z f (ϕ1 , . . . , ϕn ) · det( U0

∂ϕi ∗ ) · dy1 · · · dyn = ∂yj

Z

Z f (x1 , . . . , xn ) · dx1 · · · dxn =

U

w U

Sea X una variedad diferenciable orientada de dimensi´on n. Dada w una r-forma definimos sop w = {x ∈ X tales que wx 6= 0}. Sea w una n-forma diferenciable y supongamos que sop w es compacto. Supongamos que existe un difeomorfismo φ : X → U 0 ⊆ Rn orientado. Tenemos pues un difeomorfismo φ∗ : C ∞ (U 0 ) → C ∞ (X), f 7→ f ◦ φ = f (φ1 , . . . , φn ). Entonces existe una n-forma diferenciable en U 0 , w0 = f (x1 , . . . , xn ) · dx1 ∧ · ∧ dxn , tal que φ∗ w0 = w (luego, w = f (φ1 , . . . , φn ) · dφ1 ∧ · · · ∧ dφn ) y definimos Z Z Z Z w= φ∗ w0 := w0 := f (x1 , . . . , xn ) · dx1 · · · dxn X

φ−1 (U 0 )

U0

U0

54

Cap´ıtulo 2.

C´ alculo Tensorial en Geometr´ıa Diferencial

Veamos que la definici´ on no depende del φ considerado. Sea φ00 : X → U 00 ⊆ Rn otro difeomorfismo −1 orientado, entonces ϕ = φ0 ◦ φ00 : U 00 → U 0 , y 7→ (ϕ1 (y), . . . , ϕn (y) es un difeomorfismo orientado. ∗ ∗ ∗ 00 ∗ 0 Definamos w = ϕ w , que cumple que φ00 (w00 ) = φ00 ϕ∗ w0 = φ0 w0 = w. Por tanto, Z Z Z Z Z 0 v´ıa φ00 00 ∗ 0 0 v´ıa φ w = w = ϕ w = w = w U 00

X

ϕ−1 (U 0 )

U0

X

Sea X una variedad diferenciable de dimensi´on n orientada y w una n-forma diferenciable de soporte compacto. Sea un n´ umero finito de abiertos coordenados U1 , . . . , Un que recubran sop w y consideremos el recubrimiento de X, {U1 , . . . , Un , X − sop w}. Sea {f1 , . . . , fn , f } una partici´on de la unidad subordinada al recubrimiento. Observemos que w = f1 · w + · · · + fn w (y f · w = 0) y que sop fi · w ⊂ Ui . Definimos Z Z Z fn w f1 w + · · · + w := Un

U1

X

Esta definici´ on no depende del recubrimiento ni de la partici´on: Sea {V1 , . . . , Vm } abiertos coordenados que recubran sop w y {g1 , . . . , gm , g} una partici´on de la unidad subordinada a {V1 , . . . , Vm , X −sop w}. Entonces m Z n X n X m Z m n Z n Z X X X X X fi gj w fi gj w = fi gj w = fi w = i=1

Ui

=

i=1 Ui j=1 n m Z X X

fi gj w =

j=1

Vj i=1

i=1 j=1 m Z X j=1

Ui ∩Vj

i=1 j=1

Vj

gj w

Vj

Dejamos ya que el lector pruebe: 1. Si w1 , . . . , wr son n-formas con soporte compacto entonces

R P X

i

wi =

P R i

wi .

2. Si φ : X → X 0 es un difeomorfismo orientado entre variedades diferenciables orientadas entonces para toda n-forma diferenciable w0 de X 0 de soporte compacto se satisface que Z

φ∗ w 0 =

X=φ−1 (X 0 )

Z

w0

X0

F´ ormula de Stokes. 3. Definici´ on : Sea X una variedad diferenciable, B ⊂ X un cerrado y ∂B el borde de B. Diremos que B es una variedad con borde si para todo p ∈ ∂B existe un entorno coordenado U , u1 , . . . , un de p en X de modo que B ∩ U = {x ∈ U : u1 (x) ≤ 0}. Observemos que ∂B ∩ U ≡ u1 = 0, luego ∂B es una subvariedad diferenciable de X. Si wX es una forma diferenciable de volumen en X que lo orienta, podemos definir una orientaci´on en ∂B: Sea w0 0 una n − 1-forma diferenciable en U tal que du1 ∧ w0 = wX , entonces w|∂B∩U define una orientaci´ on 0 0 en ∂B ∩ U . Observemos que i∂u1 wX = w − du1 ∧ i∂u1 wX , luego w|∂B∩U = (i∂u1 wX )|∂B∩U . S´olo tenemos que probar que esta orientaci´ on no depende de la u1 escogida: Si B ∩ U ≡ v1 ≤ 0 entonces v1 = u1 · F con F > 0 en B ∩ U (F 6= 0 incluso en ∂B ∩ U , porque dv1 = F du1 + u1 dF es no nula 0 en todo punto). Sea w00 tal que dv1 ∧ w00 = wX . La n − 1 forma w|∂B∩U coincide con la restricci´on de ∂F 00 00 00 i∂u1 wX = i∂u1 (dv1 ∧ w00 ) = (F + u1 · ∂u ) · w + v · i w a ∂B, que coincide con F · w|partialB∩U . 1 1 R R∂u1 Nota: Cuando escribamos B w querremos decir 0 w. B

2.7.

Integraci´on. F´ormula de Stokes

55

4. Lema : Sea X una variedad diferenciable orientada de dimensi´ on n y B ⊂ X una variedad con borde. Para cada x ∈ X existe un entorno abierto U de x de modo que para toda n − 1-forma diferenciable w sobre X de soporte compacto contenido en U se cumple que Z Z dw = w B

∂B

Demostraci´ on. / B, t´ omese U = X − B. Si w tiene soporte compacto contenido en U entonces R R 1. Si x ∈ dw = 0 = w. B ∂B 0

0

2. Si x ∈ B, sea U , u1 , . . . , un un entorno coordenado de x, contenido en B, isomorfo a un cubo, es decir, tenemos (u1 ,...,un ) ¯ ⊂ Rn , ¯ = (a1 , b1 ) × . . . × (an , bn ) U −→ U U ∼ R Si R w es una n − 1 forma con soporte compacto incluido en U entonces ∂B w = 0. Veamos que dw = 0: Por la linealidad de la integral podemos suponer que w = f du2 ∧ · · · ∧ dun . Entonces B Z

Z

Z

∂f · du1 ∧ · · · ∧ dun = ∂u1

d(f du2 ∧ · · · ∧ dun ) =

dw = B

U bn

U

Z

Z

b2

···

= an Z bn

a2 b2

b1

bn

Z

b1

··· an

a1

∂f · du1 · · · dun ∂u1

∂f du1 ) · du2 · · · dun ∂u1

a1

Z ···

=

Z (

Z

(f (b1 , u2 , . . . , un ) − f (a1 , u2 , . . . , un )) · du2 · · · dun = 0

an

a2

porque w es nula sobre los hiperplanos u1 = a1 , u1 = b1 . 3. Si x ∈ ∂B sea U, u1 , . . . , un un entorno coordenado de x tal que B ∩ U ≡ u1 ≤ 0 y de modo que U sea isomorfo a un cubo (a1 , b1 ) × · · · × (an , bn ), como en el caso anterior. Observemos que ∂B ∩ U est´ a coordenado por u2 , . . . , un y es difeomorfo al cubo (a2 , b2 ) × · · · × (an , bn ). Consideremos una n − 1-forma diferenciable P con soporteˆcompacto incluido en U . Escribamos w = i fi du1 ∧ · · · ∧ du i ∧ · · · ∧ dun . Entonces, w|∂B = f1 (0, u2 , . . . , un )du2 ∧ · · · ∧ dun y Z Z Z w= = f1 (0, u2 , . . . , un ) · du2 · · · dun ∂B

∂B∩U

(a2 ,b2 )×···×(an ,bn )

Por otra parte, Z

Z

Z

dw = B

B∩U

u1 =a1

u1 =0

Z

u2 =b2

Z

un =bn

Z

u2 =a2

X ∂fi du1 · · · dun (−1)i−1 ∂ui i

u2 =a2

un =an

un =bn

∂f1 du1 · · · dun ∂u1

un =an

· · · dun son formas como en 2. nulas sobre los hiperplanos ui = ai , ui = bi . Por tanto,

u2 =b2

Z

un =bn

···

dw = B

Z ···

u1 =a1

Z

u2 =b2

···

= pues,

Z

dw = Z

∂fi ∂ui du1

u1 =0

u2 =a2

un =an

Z (

0

a1

∂f1 ) · du1 · · · dun = ∂u1

Z

u2 =b2

Z

un =bn

··· u2 =a2

f1 (0, u2 , . . . , un ) · du2 · · · dun un =an

56

Cap´ıtulo 2.

C´ alculo Tensorial en Geometr´ıa Diferencial

5. Teorema de Stokes: Sea w una n − 1-forma de soporte compacto sobre X. Se cumple que Z Z dw = w B

∂B

Demostraci´ on. Sea {U1 , . . . , Un } abiertos coordenados que recubran el soporte de w y que satisfagan el lema anterior. Sea f1 , . . . , fn , f una partici´on de la unidad subordinada a {U1 , . . . , Un , X − B}. Entonces Z Z Z Z X XZ XZ dw = d( fi w) = d(fi wi ) = fi wi = fi wi = w B

2.8.

B

i

i

B

i

∂B

∂B

B

Gradiente, divergencia y rotacional

Vayamos con el ejemplo fundamental. Consideremos el anillo C ∞ (Rn ) y el C ∞ (Rn )-m´odulo libre de rango n, ΩRn . 4 DerRn es el C ∞ (Rn )-m´odulo dual de ΩRn . Sea T2 : DerRn × DerRn → C ∞ (Rn ) una aplicaci´on C ∞ (Rn )-bilineal. Sea w1 , . . . , wn una base de P ΩRn . Sabemos que T2 = aij · wi ⊗ wj , aij ∈ C ∞ (Rn ), de modo que ij

T2 (D1 , D2 ) =

X

aij wi (D1 ) · wj (D2 )

ij

T2 induce la polaridad, T2 : DerRn → ΩRn , T2 (D) := iD T2 =

P aij wi (D) · wj . Supongamos que ij

la polaridad T2 es un isomorfismo. Denotemos por T 2 el morfismo inverso de T2 . 1. Definici´ on : Dada f ∈ C ∞ (Rn ) se define grad f = T 2 (df ). 2. Proposici´ on : Se cumple que 1. grad(λf ) = λ grad f , λ ∈ R, f ∈ C ∞ (Rn ). 2. grad(f + g) = grad(f ) + grad g, f, g ∈ C ∞ (Rn ). 3. grad(f g) = f grad g + g grad f . Interpretaci´ on geom´etrica de las diferenciales, campos, gradiente,..... Fijemos “una forma de volumen” wX ∈ ΩnRn de modo que Ωn = C ∞ (Rn ) · wX . Observemos que Ωn+1 Rn = 0 y por tanto, dwX = 0. 3. Definici´ on : Dado D ∈ DerRn se define la divergencia de D, que denotaremos por div D, como la funci´ on que cumple DL wX = (div D) · wX Observemos que DL wX = (diD + iD d)wX = diD wX . As´ı pues, diD wX = (div D) · wX 4 Podr´ ıamos desarrollar la teor´ıa correspondiente considerando una k-´ algebra A tal que ΩA/k fuese un A-m´ odulo finito generado localmente libre...

2.9.

Ap´endice 1. Normas

57

4. Teorema de la divergencia: Sea B ⊂ X una subvariedad con borde compacta. Sea wX una forma de volumen en X, N un campo normal al borde ∂B de m´ odulo 1 y w∂B la forma de volumen en ∂B. Sea D un campo diferencial de vectores en X. Entonces por el teorema de Stokes Z Z Z (div D) · wX = iD wX = (D · N ) · w∂B B

∂B

∂B

5. Proposici´ on : div(f D) = f · div D + Df . Demostraci´ on. div(f D) · wX = (f D)L wX = (dif D )wX = dif D wX = d(f · iD wX ) = df ∧ iD wX + f diD wX = −iD (df ∧ wX ) + iD df ∧ wX + f DL wX = Df · wX + f div D · wX . Consideremos ahora el C ∞ (R3 )-m´ odulo libre de rango 3, ΩR3 . Sea T2 = dx1 ⊗ dx1 + dx2 ⊗ dx2 + dx3 ⊗ dx3 y wR3 = dx1 ∧ dx2 ∧ dx3 la forma diferencial de volumen de R3 . El morfismo DerR3 → Ω2R3 , D0 7→ iD0 wR3 es un isomorfismo de C ∞ (R3 )-m´odulos. 6. Definici´ on : Dado D ∈ DerR3 se define el rotacional de D, que denotamos por rot D, como el campo que cumple que irot D wR3 = diD T2 7. Teorema : Sea S una subvariedad diferenciable compacta de R3 de dimensi´ on 2, y N un vector normal a S de m´ odulo 1. Sea B ⊂ S una subvariedad con borde y sea T un vector tangente a ∂B de m´ odulo 1. Sea D un campo diferencial de vectores en R3 . Entonces por el teorema de Stokes Z Z Z Z ((rot D) · N ) · wB = irot D wR3 = iD T2 = (D · T ) · w∂B B

B

∂B

∂B

8. Teorema : rot(D) = 0 ⇐⇒ Existe una funci´ on f ∈ C ∞ (R3 ) tal que D = grad f . Demostraci´ on. rot D = 0 ⇐⇒ 0 = irot D wR3 = d(T2 (D)) ⇐⇒ T2 (D) = df , para cierta f ∈ C ∞ (R3 ) ⇐⇒ D = T 2 (df ) = grad f para cierta f ∈ C ∞ (R3 ). “Un campo de fuerzas es conservativo si y s´olo si es un gradiente” 9. Teorema : div D0 = 0 ⇐⇒ Existe una derivaci´ on D tal que D0 = rot D. Demostraci´ on. div(D0 ) = 0 ⇐⇒ 0 = div(D0 ) · wR3 = d(iD0 wR3 ) ⇐⇒ Existe w ∈ ΩR3 tal que iD0 wR3 = dw. Ahora bien, para toda w ∈ ΩR3 existe una (´ unica) derivaci´on D tal que w = T2 (D). Por tanto, div(D0 ) = 0 ⇐⇒ Existe D tal que iD0 wR3 = dT2 (D) ⇐⇒ D0 = rot D, para cierto D. 10. Ejercicio : rot f D = f · rot D + grad(f ) × D.

2.9.

Ap´ endice 1. Normas Not.

1. Definici´ on : Sea E un R-espacio vectorial. Una norma es una aplicaci´on E → R+ , e 7→ ||e|| que cumple 1. ||e|| = 0 ⇐⇒ e = 0. 2. ||λ · e|| = |λ| · ||e||, para todo λ ∈ R y e ∈ E. 3. ||e + e0 || ≤ ||e|| + ||e0 ||, para todo e, e0 ∈ E.

58

Cap´ıtulo 2.

C´ alculo Tensorial en Geometr´ıa Diferencial

2. Ejemplo : Supongamos E = Rn y consideremos la norma || ||1 definida por ||(λ1 , · · · , λn )||1 := n |x p1 | + · · · + |x2 | Otra norma que podemos definir en R es || ||2 definida por ||(λ1 , · · · , λn )||2 := n 2 2 λ1 + . . . + λn . Otra norma que podemos definir en R es || ||∞ definida por ||(λ1 , · · · , λn )||∞ := m´ ax{|x1 |, . . . , |xn |}. E, || || se dice que es un espacio normado. La norma || || define en E una distancia, d, d(e, e0 ) := ||e − e0 || que cumple que d(e, e0 ) = 0 ⇐⇒ e = e0 (por la propiedad 1.), que d(e, e0 ) = d(e0 , e) (por la propiedad 2.) y que d(e, e00 ) ≤ d(e, e0 ) + d(e0 , e00 ) (por la propiedad 3.). Luego || || define una topolog´ıa en E, para la cual una base de entornos de cada punto e ∈ E es B(e, δ) := {e0 ∈ E : d(e0 , e) < δ} = {e0 ∈ E : ||e − e0 || < δ} 3. Teorema : Si E es un R espacio vectorial de dimensi´ on finita entonces todas las normas de E definen la misma topolog´ıa. Demostraci´ on. Podemos suponer que E = Rn y que e1 , . . . P , en es la base est´andar. Sea || ||P una norma en E y M = m´ a x{||e ||, . . . , ||e ||}. Entonces, dado e = λ e tenemos que ||e|| = || 1 n i i i i λi ei || ≤ P P |λ |||e || ≤ |λ | · M = M · ||e|| . Por tanto, || || ≤ M · || || . i i i 1 1 i i Consideremos en Rn la topolog´ıa est´andar definida por || ||1 (que es la misma que la definida por || ||2 ). La norma Rn → R, e 7→ ||e|| es una aplicaci´on continua, pues | ||e|| − ||e0 || | ≤ ||e − e0 || ≤ M · ||e − e0 ||1 Sea m el m´ınimo de || || sobre el compacto K = {e ∈ Rn : ||e||1 = 1}. Por tanto, || || ≥ m · || ||1 . En conclusi´ on, la topolog´ıa definida por || || es la misma que la definida por || ||1 . Sea E, || || un espacio vectorial normado de dimensi´on finita. Podemos definir una norma en Endk E del siguiente modo: Dado T ∈ Endk E, ||T || := m´ax{||T (e)|| : ||e|| = 1}. Por tanto, ||T (e)|| ≤ ||T ||·||e||, para todo e ∈ E.

2.10.

Ap´ endice 2. Teorema de existencia y unicidad en sistemas de ecuaciones diferenciales

Consideremos el sistema de ecuaciones diferenciales dx1 dt dxn dt

= f1 (x1 , . . . , xn ) ... = fn (x1 , . . . , xn )

Dar una soluci´ on de este sistema de ecuaciones diferenciales con condiciones iniciales a1 (λ), . . . , an (λ) i es dar funciones φi (t, λ) tales que dφ dt = fi (φ1 , . . . , φn ) y φi (t0 , λ) = ai (λ). Si escribimos x = (x1 , . . . , xn ) y F = (f1 , . . . , fn ) podemos escribir de modo reducido el sistema anterior como dx = F (x) dt y dada la condici´ on inicial a(λ) = (a1 (λ), . . . , an (λ)), buscamos φ(t, λ) = (φ1 (t, λ), . . . , φn (t, λ)) tal que dφ = F (φ) dt

2.10.

Ap´endice 2. Teorema de existencia y unicidad en sistemas de ecuaciones diferenciales 59

y φ(t0 , λ) = a(λ). El sistema de ecuaciones diferenciales (con condici´on inicial a(λ)) es equivalente a la ecuaci´on Z

t

F (x) · dt

x = a(λ) + t0

Rt Dada ϕ si denotamos ϕ∗ = a(λ) + 0 F (ϕ) · dt, buscamos φ tal que φ = φ∗ . Vamos a ver que bajo ciertas condiciones, si consideramos una ϕ cualquiera y tomamos ∗ infinitas veces obtenemos una φ tal que al tomar ∗ una vez m´as obtenemos φ, es decir, φ∗ = φ. As´ı demostraremos que el sistema de ecuaciones diferenciales anterior tiene soluci´on. 1. Lema : Sea X, d un espacio m´etrico completo y T : X → X una aplicaci´ on contractiva, es decir, tal que exista una constante 0 ≤ c < 1 tal que d(T (x), T (y)) ≤ c · d(x, y), para todo x, y ∈ X. Entonces existe un u ´nico punto p ∈ X tal que T (p) = p. Demostraci´ on. Sea x ∈ X un punto cualquiera. La sucesi´on {xn := T n (x)} es una sucesi´on de Cauchy: Sea a = d(x, T (x)) entonces d(T n (x), T n+1 (x)) ≤ c · d(T n−1 (x), T n (x)) ≤ · · · ≤ cn · d(x, T (x)) = cn · a. Entonces, dado n ≥ m se cumple que d(T m (x), T n (x)) ≤ d(T m (x), T m+1 (x)) + d(T m+1 (x), T m+2 (x)) + · · · + d(T n−1 (x), T n (x)) cm − cn a ≤ cm · a + cm+1 · a + . . . + cn−1 · a = a · ≤ cm · 1−c 1−c que es todo lo peque˜ no que se quiera para n, m grandes. Por tanto, la sucesi´ on converge a un punto p. Por ser T contractiva es continua, luego T (p) = T (l´ımn→∞ xn ) = l´ımn→∞ T (xn ) = l´ımn→∞ xn+1 = p. Si T (p0 ) = p0 entonces d(p, p0 ) = d(T (p), T (p0 )) ≤ c · d(p, p0 ), luego d(p, p0 ) = 0 y p0 = p. 2. Teorema : Sea F ∈ C 1 (Rn , Rn ) y a(t1 , . . . , tm ) ∈ C 0 (Rm , Rn ). Dado b = (b0 , b1 , . . . , bm ) ∈ Rm+1 , existe un entorno abierto conexo V de b y una u ´nica soluci´ on φ(t, t1 , . . . , tm ) ∈ C 0 (V, Rn ) (derivable en t) del sistema de ecuaciones diferenciales dx = F (x) dt con condiciones iniciales, para t = b0 , φ(b0 , t1 , . . . , tm ) = a(t1 , . . . , tm ). Demostraci´ on. Sea U un abierto conexo de Rn de cierre compacto que contenga a (b1 , . . . , bm ). Sea c > ||a|U ||∞ . Por el teorema del valor medio existe una constante d (consideremos la menor posible) tal que 1. ||F (x) − F (y)||∞ ≤ d · ||x − y||∞ , para todo x, y tales que ||x||∞ , ||y||∞ ≤ 2c. 2. ||F (x)||∞ ≤ 2d · c, para todo x tal que ||x||∞ ≤ 2c. Sea  = 1/2d, U := (b0 − , b0 + ) y Sea E = {ϕ = (ϕ1 , . . . , ϕn ) ∈ C 0 (U × U, Rn ), ||ϕ||∞ ≤ 2c}. E, || ||∞ es un espacio normado completo. La aplicaci´on T : E → E, T (ϕ) = a(t1 , . . . , tn ) + Rt F (ϕ(s, t1 , . . . , tn )) · ds est´ a bien definida y es contractiva. Veamos que T (ϕ) ∈ E: t0

60

Cap´ıtulo 2.

Z

C´ alculo Tensorial en Geometr´ıa Diferencial

t

||T (ϕ)||∞ ≤ ||a||∞ + ||

Z

t

F (ϕ) · ds||∞ ≤ c + |

Z

t

||F (ϕ)||∞ · ds| ≤ c + |

t0

t0

2d · c · ds| ≤ c + d · 2c ·  = 2c t0

Veamos que T es contractiva: Z

t

||T (ϕ) − T (φ)||∞ = ||

Z

t

F (ϕ) − F (φ) ds||∞ ≤ |

Z

t0 t

||F (ϕ) − F (φ)||∞ · ds| t0

d · ||ϕ − φ||∞ · ds| ≤  · d · ||ϕ − φ|| =

≤| t0

1 ||ϕ − φ||∞ 2

Por tanto, existe una u ´nica φ ∈ E tal que T (φ) = φ, que es la soluci´on en V = U × U del sistema de ecuaciones diferenciales. Si φ0 es otra soluci´ on del sistema de ecuaciones en V , reduciendo V muy poco, podemos suponer que ||φ0 ||∞ = c0 < ∞. Si c0 ≤ c, entonces φ0 ∈ E y φ0 = φ. Si c0 > c, siguiendo notaciones obvias, entonces d0 ≥ d. Denotemos V 0 = (b0 −1/2d0 , b0 +1/2d0 )×U , entonces φ0|V 0 ∈ E 0 = {ϕ = (ϕ1 , . . . , ϕn ) ∈ C 0 (V 0 , Rn ), ||ϕ||∞ ≤ 2c0 }. Entonces, φ|V 0 = φ0|V 0 . Ahora es f´acil ver que los puntos en los que coinciden φ y φ0 es un abierto, luego φ = φ0 .

Dependencia diferenciable de las condiciones iniciales: Si F ∈ C k+1 (Rn , Rn ) y a(t1 , . . . , tm ) ∈ C k (Rm , Rn ) entonces la soluci´on φ tambi´en es de clase k: Es un problema local. Podemos suponer que F es de soporte compacto. Veamos que podemos proceder como en el teorema 2.10.4. Sea U un cubo abierto de Rm y U := (t0 − , t0 + ). Dada g(t, t1 , . . . , tm ) ∈ C k (U × U, Rn ), denoα g k n temos gα = ∂tα0∂···∂t ax{||ϕj,α ||∞ , : αm . Dada ϕ = (ϕ1 , . . . , ϕn ) ∈ C (U × U, R ) definamos ||ϕ|| := m´ m 1 ≤ j ≤ n y |α| ≤ k}. Sea c = ||a|U ||. Sea E = {ϕ ∈ C k (U × U, Rn ), tales que ||ϕ|| ≤ 2c}, que es un espacio m´etrico completo. Dada α, con |α| ≤ k, tendremos que Fi (ϕ1 , . . . , ϕn )α = Gi,α (ϕj,β )1≤j≤n,|β|≤k , para cierta funci´ on i,α G ∈ C 1 (RN , Rn ), con N = n · #{β : |β| ≤ k}. Sea G = (Gj,β )1≤j≤n,|β|≤k . Existe una constante d, tal que 1. ||G(xj,β ) − G(yj,β )||∞ ≤ d · ||(xj,β ) − (yj,β )||∞ , para todo (xj,β ) y (yj,β ) tales que ||(xj,β )||∞ , ||(yj,β )||∞ < 2c 2. ||G(xj,β )||∞ < 2d · c, para todo (xj,β ) tal que ||(xj,β )||∞ < 2c. 1 En tal caso, ||F (ϕ) − F (φ)|| < d · ||ϕ − φ|| y ||F (ϕ)|| < 2d · c, si ||ϕ||, ||φ|| < 2c. Sea  = 2d . Rt La aplicaci´ on T : E → E, T (ϕ) = a(t1 , . . . , tn ) + t0 F (ϕ(s, t1 , . . . , tn )) · ds est´a bien definida y es contractiva. Veamos que T (ϕ) ∈ E:

Z

t

||T (ϕ)|| ≤ ||a|| + ||

Z

t

F (ϕ) · ds|| ≤ c + | t0

Veamos que T es contractiva:

Z

t

||F (ϕ)|| · ds| ≤ c + | t0

2d · c · ds| ≤ c + 2d · c ·  = 2c t0

2.10.

Ap´endice 2. Teorema de existencia y unicidad en sistemas de ecuaciones diferenciales 61

Z

t

||T (ϕ) − T (φ)|| = ||

Z

t

F (ϕ) − F (φ) ds|| ≤ |

Z

t0 t

≤|

||F (ϕ) − F (φ)|| · ds| t0

d · ||ϕ − φ|| · ds| ≤  · d · ||ϕ − φ|| = t0

1 ||ϕ − φ|| 2

Por tanto, existe φ ∈ E tal que T (φ) = φ, que es la soluci´on local del sistema de ecuaciones diferenciales. 3. Corolario : Sea F ∈ C k+1 (Rn , Rn ) y a(t1 , . . . , tm ) ∈ C k (Rm , Rn ). existe un entorno abierto conexo V de 0 × Rn ⊂ R × Rn y una u ´nica soluci´ on φ(t, t1 , . . . , tm ) ∈ C k (V, Rn ) del sistema de ecuaciones diferenciales dx = F (x) dt con condiciones iniciales, φ(0, t1 , . . . , tm ) = a(t1 , . . . , tm ). 4. Teorema : Sea F ∈ C k+1 (Rn , Rn ) con soporte compacto y a(t1 , . . . , tm ) ∈ C k (Rm , Rn ). Entonces existe una u ´nica soluci´ on φ(t, t1 , . . . , tm ) ∈ C k (R × Rm , Rn ) del sistema de ecuaciones diferenciales dx = F (x) dt con condiciones iniciales, para t = t0 , φ(t0 , t1 , . . . , tm ) = a(t1 , . . . , tm ). Demostraci´ on. Por ser F y sus derivadas continuas de soporte compacto, por el teorema del valor medio existe una constante d tal que ||F (x)−F (y)||∞ ≤ d·||x−y||∞ , para todo x, y. Podemos proceder como en el teorema 2.10.2, tomando c = ∞, U ⊂ Rm cualquier abierto de soporte compacto,  = 1/2d, U = (t0 −, t0 +), V = U ×U y E = {ϕ = (ϕ1 , . . . , ϕn ) ∈ C 0 (V, Rn ), ||ϕ||∞ < ∞}. Igualmente existe una u ´nica φ ∈ E soluci´ on del sistema de ecuaciones diferencial y con condici´on inicial φ(t0 , t) = a(t). Como U puede ser un abierto compacto todo lo grande que se quiera podemos suponer que U = Rm . Si tomamos V 0 = (t0 − /2, t0 + 3/2) × Rm y como condici´on inicial a0 (t) := φ((t0 + /2, t) igualmente existe una u ´nica soluci´ on φ0 del sistema de ecuaciones en V 0 tal que φ0 (t0 + /2, t) = φ((t0 + /2, t). 0 Por la unicidad φ y φ coinciden sobre V ∩ V 0 , por tanto, existe una soluci´on u ´nica ψ del sistema de ecuaciones en V ∪ V 0 = (t0 − , t0 + 3/2) × Rm con condici´on inicial ψ(t0 , t) = a(t). Ampliando sucesivamente el intervalo abierto U concluimos.

Curvas integrales de un campo P ∂ Sea D = i fi · ∂x ∈ DerRn . Nos planteamos la existencia (local) de una aplicaci´on diferenciable i τ : R × Rn → Rn , (t, x) 7→ τ (t, x) ∂ tal que τ∗ (( ∂t )(t,x) ) = Dτ (t,x) y τ (0, x) = x. P i ∂ ∂ ∂ Si escribimos τ = (τ1 , . . . , τn ), sabemos que τ∗ (( ∂t )(t,x) ) = ( i ∂τ ∂t ∂xi )τ (t,x) . Por tanto, τ∗ (( ∂t )(t,x) ) = i Dτ (t,x) si y s´ olo si ∂τ on del ∂t = fi (τ ). Si escribimos F = (f1 , . . . , fn ) entonces τ es justamente la soluci´ sistema de ecuaciones diferenciales dτ = F (τ ) dt con condiciones iniciales τ (0, x) = x. Si D es un campo con soporte compacto sabemos que existe una u ´nica τ “global”. En general, para cada x ∈ Rn existe un entorno abierto Ux de x, un x ) ∈ R y una

62

Cap´ıtulo 2.

C´ alculo Tensorial en Geometr´ıa Diferencial

∂ u ´nica aplicaci´ on diferenciable τ : Ux × Ux → Rn , de modo que τ∗ ( ∂t ) = Dτ (t,x) y τ (0, x) = x. (t,x) n n Por tanto, si W = ∪x∈R Ux × Ux ⊂ R × R tenemos definida una u ´nica aplicaci´on diferenciable ∂ ) = D y τ (0, x) = x. τ : W → Rn , de modo que τ∗ ( ∂t τ (t,x) (t,x) Denotemos τt : U → Rn , τt (x) = τ (t, x). Se cumple que τt ◦ τs = τt+s (donde todo est´e definido). En efecto, cumplen el mismo sistema de ecuaciones diferenciales

dτ (t, τ (s, x)) = F (τ (t, τ (s, x))), dt

dτ (t + s, x) = F (τ (t + s, x)) dt

y cumplen las mismas condiciones iniciales τ (0, τ (s, x)) = τ (s, x) = τ (0 + s, x). Se dice que τt (x) es el “grupo uniparam´etrico” asociado a D. Observemos que si fijamos un x ∈ Rn , obtenemos una curva σx : U −→ Rn , σx (t) = τ (t, x) P ∂ ∂ en Rn cuyo campo tangente en σx (t) = τ (t, x) es σx,∗ (( ∂t )t ) = i τi (t,x) dt ( ∂xi )σx (t) = Dσx (t) . Se dice que σx es la curva integral de D en x. Sea W ⊂ R×Rn un abierto conexo m´aximo, que contenga a 0×Rn y para el que existe τ : W → Rn ∂ una (´ unica) aplicaci´ on diferenciable tal que τ∗ ( ∂t ) = Dτ (t,x) y τ (0, x) = x. Sean y = (t, x) ∈ W , (t,x) U = (, ), Uy entorno abierto de y y τ : U × Uy → Rn . Si Ux es un entorno abierto conexo de x tal que τt (Ux ) ⊆ Uy , entonces la aplicaci´ on τ˜ : (t − , t + ) × Ux → Rn , τ˜((t0 , x0 )) := τt0 −t (τt (x0 )), coincide n con τ : W → R sobre W ∩ ((t − , t + ) × Ux ). Por tanto, (t − , t + ) × Ux ⊆ W . Es f´acil concluir τ que, dado x ∈ Rn entonces (R × x) ∩ W → Rn es la curva integral m´axima de D que pasa por x. Reducci´ on local de un campo a forma can´ onica Si F : U → V es un difeomorfismo entre abiertos de Rn , “entonces todo lo que digamos en U podemos traducirlo a V ”. Dada una funci´on en g en U , tenemos la correspondiente funci´on en V : g ◦ F −1 . Dada una derivaci´ on D en U , tenemos la derivaci´on F (D) en V , determinada por el diagrama conmutativo C ∞ (U )

F ∗−1

F (D)

D

 C ∞ (U )

C ∞ (V )

F ∗−1

 C ∞ (V )

∂ Es decir, F (D)g := D(g◦F )◦F −1 . Puede comprobarse que F (D)F (α) = F∗ Dα . D = ∂x en un sistema 1 ∂ de coordenadas x1 , . . . , xn si y s´ olo si F (D) = ∂y1 en el sistema de coordenadas y1 = x1 ◦ F, . . . , yn = xn ◦ F . Sigamos las notaciones del apartado anterior. Supongamos que Dp 6= 0, por tanto fi (p) 6= 0 para alg´ un i. No hay p´erdida de generalidad si suponemos que f1 (p) 6= 0. Sea V = {(t, x2 , . . . , xn ) ∈ Rn tales que (t, x1 (p), x2 , . . . , xn ) ∈ U × U } y consideremos la composici´on de morfismos i

τ

V → U × U → Rn (t, x2 , . . . , xn ) 7→ (t, x1 (p), x2 , . . . , xn ) A nivel tangente tenemos ∂ ∂t ∂ ∂xi

i

∗ 7→

i

∗ 7→

∂ ∂t ∂ ∂xi ,

∂ ∂t

i>1

∂ ( ∂x )0,q i

τ

∗ 7→ D P τ∗ 7→ ( j

∂τj (0,x) ∂xi

·

∂ ∂xj )q

∂ = ( ∂x )q i

2.11.

Ap´endice 3. Inmersi´on de variedades compactas

63

En conclusi´ on, la matriz de (τ ◦ i)∗ en el punto (0, p2 , . . . , pn ) es   f1 (p) 0 . . . 0  f2 (p) 1 . . . 0    .. .. ..   . . . fn (p)

0

...

1

Luego τ ◦ i es un difeomorfismo de un entorno abierto V 0 de (0, p2 , . . . , pn ) con un entorno abierto U de p y tenemos V0 ' U ∂ ↔ D ∂y1 y en las coordenadas z1 = t ◦ (τ ◦ i)−1 , . . . , zn = xn ◦ (τ ◦ i)−1 , D = ∂z∂ 1 . Sea wr una r-forma diferencial en un abierto U ⊂ Rn y D una derivaci´on. Veamos que τt∗ (wr ) − wr t→0 t

DL wr = l´ım

Si Dp 6= 0 entonces en un entorno V de p, D = ∂z∂ 1 en cierto sistema de coordenadas z1 , . . . , zn . Entonces τt ((z1 , . . . , zn )) = (z1 + t, z2 , . . . , zn ), como es de comprobaci´on inmediata. Escribamos wr = P fi1 ...ir · dzi1 ∧ · · · ∧ dzir , entonces en V X ∂fi ...i τt∗ (wr ) − wr 1 r = · dzi1 ∧ · · · ∧ dzir = DL wr t→0 t ∂z1 l´ım

Si D = 0 en un entorno abierto V de p entonces τt (x) = x para todo x ∈ V , como es de τ ∗ (w )−w comprobaci´ on inmediata. Entonces en V , DL wr = 0 = l´ımt→0 t rt r . En conclusi´ on, DL wr = l´ımt→0

2.11.

τt∗ (wr )−wr t

en un abierto denso de puntos de U , luego son iguales.

Ap´ endice 3. Inmersi´ on de variedades compactas

1. Definici´ on : Sea φ : Y → X una aplicaci´on diferenciable entre dos variedades. Se dice que φ es una inmersi´ on local en y ∈ Y si la aplicaci´on lineal tangente en y es inyectiva. Obviamente φ es una inmersi´ on local en y si y s´olo si la aplicaci´on lineal cotangente φ∗ : mφ(y) /m2φ(y) → my /m2y es epiyectiva. En este caso, si dφ(y) x1 , . . . , dφ(y) xn es una base de mφ(y) /m2φ(y) , reordenando la base, podemos suponer que dy (x1 ◦ φ), . . . , dy (xr ◦ φ) es una base de my /m2y . Sea V un entorno abierto de y en el que y1 = x1 ◦ φ, . . . , yr = xr ◦ φ sean un sistema de coordenadas. Por tanto, para j > r, xj ◦ φ = fj (x1 ◦ φ, . . . , xr ◦ φ), para ciertas funciones diferenciables fj . Las funciones z1 = x1 , . . . , zr = xr , zr+1 = xr+1 − fr+1 (x1 , . . . , xr ), . . . , zn = xn − fn (x1 , . . . , xr ) son un sistema de coordenadas en un entorno U de φ(y). Reduciendo V si es preciso para que φ(V ) ⊂ U , tenemos φ:

V, {x1 , . . . , xr } → U, {z1 , . . . , zn } p = (p1 , . . . , pr ) 7→ φ(p) = (p1 , . . . , pr , 0, . . . , 0)

Rec´ıprocamente, si existen sistemas de coordenadas en los que φ se expresa de este modo entonces φ es una inmersi´ on local.

64

Cap´ıtulo 2.

C´ alculo Tensorial en Geometr´ıa Diferencial

2. Definici´ on : Sea φ : Y → X una aplicaci´on diferenciable entre dos variedades. Se dice que φ es una inmersi´ on si φ es inyectiva e inmersi´on local an cada punto. A pesar del nombre, puede ocurrir que la imagen de Y no se identifica con una subvariedad de X, como sucede con el “ocho” en el plano, parametrizado convenientemente. Ahora bien, si adem´ as φ : Y → φ(Y ) es un homeomorfismo entonces φ(Y ) es una subvariedad diferenciable de X y adem´ as φ : Y → φ(Y ) es un difeomorfismo. 3. Observaci´ on : Si Y es compacta, entonces φ : Y → φ(Y ) es un homeomorfismo, y, por tanto, φ(Y ) es una subvariedad de X. Sea X una variedad diferenciable compacta. Queremos encontrar una inmersi´on φ = (f1 , . . . , fm ) : X → Rm , con lo cual, tendremos identificada la variedad X con una subvariedad de Rm . 4. Proposici´ on : Sea φ = (f1 , . . . , fm ) : X → Rm una aplicaci´ on diferenciable. Entonces, φ es una inmersi´ on si y s´ olo si las funciones f1 , . . . , fm separan puntos de X y separan vectores tangentes de X. (Separan puntos si, para cualesquiera x, x0 ∈ X entonces fi (x) = fi (x0 ) para todo i, si y s´ olo si x = x0 . Separan vectores tangentes si, para todo punto x ∈ X y todo par de vectores tangentes Dx , Dx0 ∈ Tx X se cumple que si dx fi (Dx ) = dx fi (Dx0 ), para todo i, entonces Dx = Dx0 ). Demostraci´ on. Que separe puntos equivale a que φ sea inyectiva. Que separe vectores tangentes equivale a que la aplicaci´ on lineal tangente sea inyectiva en todo punto. 5. Teorema de inmersi´ on en el caso compacto: Toda variedad diferenciable compacta es difeomorfa a una subvariedad diferenciable de alg´ un Rm . Demostraci´ on. Buscamos funciones f1 , . . . , fm que separen puntos y separen vectores tangentes. Sea U1 , . . . , Ur un recubrimiento finito por abiertos coordenados de X y {ui1 , . . . , uin } el sistema de ∞ coordenadas en P Ui . Sea {f1 , . . . , fr } ⊂ C (X) una partici´on de la unidad subordinada al recubrimiento (sop fi ⊂ Ui , i fi = 1). Consideremos ahora la siguiente colecci´on de funciones {fi , fi · uik }i,k , todas definidas en X, si extendemos fi · uik por cero fuera del abierto Ui . Comprobemos que esta colecci´ on separa puntos y vectores tangentes, y con ello habremos acabado la demostraci´ on. Separan puntos: dados dos puntos x, x0 ∈ X, para alg´ un j se cumple fj (x) 6= 0. Si 0 6= fj (x) = fj (x0 ) entonces x, x0 ∈ Uj . Ahora ya, si fj (x) · ujk (x) = fj (x0 ) · ujk (x0 ) para todo k, entonces ujk (x) = ujk (x0 ) y x = x0 . Separan vectores tangentes: Dados dos vectores tangentes Dx , Dx0 ∈ Tx X, existe i tal que fi (x) 6= 0. Si dx fi (Dx ) = dx fi (Dx0 ) y dx (fi · uik )(Dx ) = dx (fi · uik )(Dx0 ) para todo k, entonces fi (x)dx uik (Dx ) = fi (x)dx uik (Dx0 ) para todo k. Por tanto, dx uik (Dx ) = dx uik (Dx0 ) para todo k y Dx = Dx0 .

Cap´ıtulo 3

Aplicaciones de la teor´ıa 3.1.

Sistemas de ecuaciones lineales. Regla de Cramer

Consideremos el sistema de ecuaciones lineales λ11 x1 + λ1m x1 +

··· ... ···

+λn1 xn = b1 +λnm xn = bm

Sea T : Rn → Rm la aplicaci´ on lineal de matriz asociada (λij ) en las bases est´andar y e0 = (b1 , . . . , bm ). Las soluciones del sistema de ecuaciones lineales se corresponden con los vectores e = (x1 , . . . , xn ) ∈ Rn tales que T (e) = e0 . Sea T : E → E 0 una aplicaci´ on k-lineal entre k-espacios vectoriales de dimensi´on finita. 1. Definici´ on : Se llama rango de T , que denotaremos rango T , a la dimensi´on de Im T . Como E/ Ker T = Im T , e¯ 7→ T (e), se tiene que rango T = dim Im T = dim E − dim Ker T . Si {e1 , . . . , en } es una base de E, entonces Im T = hT (e1 ), . . . , T (en )i y hemos definido rango T como el n´ umero m´ aximo de T (ei ) que son linealmente independientes entre s´ı. Si (λij ) es una matriz asociada a T entonces rango T es el n´ umero m´aximo de columnas Plinealmente independientes entre s´ı. Sea {v1 , . . . , vn } una base de un espacio vectorial V y ui = j λij vj , 1 ≤ i ≤ s. Tendremos que X u1 ∧ · · · ∧ us = λj1 ,...,js vj1 ∧ · · · ∧ vjs Calculemos λj1 ,...,js . Sea i : hu1 , . . . , us i ,→ V , la inclusi´on y π : V → hvj1 , . . . , vjs i tal que π(vj ) = 0 si j 6= {j1 , . . . , js } y π(vji ) = vji , para 1 ≤ i ≤ s. Entonces det(π ◦ i) · vj1 ∧ . . . ∧ vjs = Λs (π ◦ i)(u1 ∧ · · · ∧ us ) = Λs (π)(u1 ∧ · · · ∧ us ) X = Λs π( λj10 ,...,js0 vj10 ∧ · · · ∧ vjs0 ) = λj1 ,...,js vj1 ∧ · · · ∧ vjs En conclusi´ on, λj1 ,...,js = det( (λij )j∈{j1 ,...,js } ) Recordemos que u1 , · · · , us son linealmente independientes si y s´olo u1 ∧ · · · ∧ us 6= 0, luego u1 , . . . , us son linealmente independientes si y s´ olo si alg´ un λj1 ,...,js 6= 0. 65

66

Cap´ıtulo 3.

Aplicaciones de la teor´ıa

2. Proposici´ on : Sea (λij ) una matriz asociada a T : E → E 0 . El rango de T es el m´ aximo de los ´ ordenes de los menores de la matriz (λij ) de determinante no nulo. Demostraci´ on. Sea {e1 , . . . , en } una base de E y {e01 , . . . , e0m } una base de E 0 de modo que T (ei ) = P 0 umero m´aximo de los T (e1 ), . . . , T (en ) linealmente independientes. j λij ej . El rango de T es el n´ 3. Corolario : El n´ umero m´ aximo de columnas linealmente independientes de una matriz coincide con el n´ umero m´ aximo de filas linealmente independientes. Dada una aplicaci´ on lineal T : E → E 0 , e0 ∈ E 0 cumple que e0 ∈ Im T si y s´olo si dim Im T = 0 dim As´ı pues, si {e1 , . . . , en } es una base de E, {e01 , . . . , e0m } es una base de E 0 , T (ei ) = P Im T0 + he0 i. P 0 0 olo si el rango de la matriz (λij ) es igual al j λij ej y e = j bj ej , tendremos que e ∈ Im T si y s´ rango de la matriz (λij ) ampliada por la columna (b1 , . . . , bm ). Supongamos que el sistema de ecuaciones lineales λ11 x1 + λ1m x1 +

··· ... ···

+λn1 xn = b1 +λnm xn = bm

tiene soluci´ on. Supongamos que el menor M obtenido de las columnas {i1 , . . . , ir } y filas {j1 , . . . , jr } de la matriz (λij ) es de determinante no nulo (r = rango T ). Por tanto, las filas j 0 ∈ / {j1 , . . . , jr } dependen linealmente de las filas j1 , . . . , jr y para calcular las soluciones del sistema las podemos quitar. Pasemos las variables xi0 , con i0 ∈ / {i1 , . . . , ir } al otro lado de la igualdad. Tendremos que P P        0 0 0 0 bj1 − i0 ∈{i bj1 − i0 ∈{i x i1 x i1 / 1 ,...,ir } λi j1 xi / 1 ,...,ir } λi j1 xi      .   .. .. −1  M ·  ...  =   ⇒  ..  = M ·   . . P P 0 0 0 0 x ir bjr − i0 ∈{i xir bjr − i0 ∈{i / 1 ,...,ir } λi jr xi / 1 ,...,ir } λi jr xi 

3.2.

M´ aximos y m´ınimos bajo condiciones

Sea U un entorno abierto de a ∈ R y f (x) ∈ C 1 (U ). 1. Proposici´ on : Si f (x) alcanza un m´ aximo relativo en a (es decir, f (a) ≥ f (x), para todo x ∈ V , para cierto entorno abierto V de a, V ⊂ U ) entonces f 0 (a) = 0. Demostraci´ on. En efecto, tenemos que f (x) = f (a) + h(x) · (x − a), donde h(x) ∈ C(U ) y h(a) = f 0 (a). Si h(a) > 0 entonces en un entorno (a − , a + ) la funci´on h(x) ser´a estrictamente mayor que cero, entonces f (x) > f (a) para x ∈ (a, a + ) (y f (x) < f (a) para x ∈ (a − , a)). Llegamos a contradicci´on. Del mismo modo se llega a contradicci´ on si h(a) < 0. Sea ahora U un entorno abierto de a ∈ Rn y f (x) ∈ C 1 (U ). 2. Proposici´ on : Si f (x) alcanza un m´ aximo relativo en a entonces da f = 0. Demostraci´ on. Por la proposici´ on anterior la variable xi ).

∂f ∂xi (a)

= 0 para todo xi (considerando f como funci´on en

3. Proposici´ on: Supongamos ahora que f (x) ∈ C 2 (U ) y que da f = 0. Tenemos que f (x) = f (a)+(x− 2 f a) · H(x) · (x − a)t , siendo H(x) una matriz sim´etrica (de funciones continuas) y H(a) = ( ∂x∂i ∂x (a)). j Si H(a) es una matriz no singular entonces

3.3.

Longitudes, ´areas y vol´ umenes

67

2

f 1. f (x) alcanza un m´ aximo relativo en a si y s´ olo si ( ∂x∂i ∂x (a)) es definida negativa. j 2

f (a)) es definida positiva. 2. f (x) alcanza un m´ınimo relativo en a si y s´ olo si ( ∂x∂i ∂x j

Demostraci´ on. H(a) es una matriz definida positiva si y s´olo si para todo v ∈ S n , v · H(a) · v t > 0. Si H(a) es definida positiva entonces H(x) es definida positiva en un entorno de a, y por tanto en ese entorno f (x) > f (a), para x 6= a, y a es un m´ınimo relativo. Del mismo modo se razona si H(a) es definida negativa. Nos falta ver que si H(a) no es definida positiva ni negativa entonces a no es m´ınimo ni m´aximo t relativo. Existen v, v 0 ∈ S n de modo que v · H(a) · v t < 0 y v 0 · H(a) · v 0 > 0. Existe un entorno t 0 0t abierto V de a, de modo que v · H(x) · v < 0 y v · H(x) · v > 0, para todo x ∈ V . Por tanto, para 0 x = a + nv , para todo n >> 0, se tiene que f (x) < f (a) y para x = a + vn , para todo n >> 0, se tiene que f (x) > f (a). Sea ahora Y ⊂ Rn una subvariedad diferenciable. Dada una funci´on f (x1 , . . . , xn ) nos planteamos si f|Y alcanza un m´ aximo (o un m´ınimo) relativo en a ∈ Y . Recordemos que podemos identificar (localmente) Y con un abierto de Rn−r y por tanto podemos aplicar la teor´ıa reci´en desarrollada. En efecto, sea un abierto U ⊂ Rn y un sistema de coordenadas y1 , . . . , yn en U de modo que U ∩ Y ≡ y1 = . . . = yr = 0. Tenemos que f (x1 , . . . , xn ) = g(y1 , . . . , yn ) y f|Y = g(0, . . . , 0, yr+1 , . . . , yn ). Es decir, podemos considerar f|Y como una funci´on diferenciable en las variables yr+1 , . . . , yn . Por tanto si a es un m´aximo o un m´ınimo relativo de f|Y entonces ¯ a /m ¯ 2a , donde m ¯ a es el ideal de todas las funciones diferenciables de Y que se anulan 0 = da f|Y ∈ m ¯ α /m ¯ 2a = n − r. El epimorfismo natural ma → m ¯ a , h 7→ h|Y , define el en a. Observemos que dimR m epimorfismo ¯ =h ¯ |Y ¯ a /m ¯ 2a , π(h) π : ma /m2a → m Por tanto, da f|Y = 0 si y s´ olo si da f ∈ Ker π. Ker π contiene a da y1 = y¯1 , . . . , da yr = y¯r . Por dimensiones, Ker π = hda y1 , . . . , da yr i. En conclusi´on, si a es un m´aximo o m´ınimo relativo de f|Y entonces da f es combinaci´ on lineal de da y1 , . . . , da yr . Las funciones yr+1 , . . . , yn son un sistema de coordenadas en a de Y . Por tanto, si la matriz ∂2f

2

f |Y ( ∂yi ∂y (a))i,j>r = ( ∂y∂i ∂y (a))i,j>r es no singular, entonces a es un m´aximo relativo en Y de f|Y si es j j 2

f definida negativa. El problema que nos planteamos es como calcular ∂y∂i ∂y , suponiendo que conocemos j P ∂yj ∂ ∂ las funciones y en t´erminos de las x. Tenemos que ∂xi = j ∂xi · ∂yj , es decir,



∂ ∂x1





∂ ∂y1





∂ ∂y1





∂ ∂x1



∂yj  .  ∂yj −1  .   ..    ) ·  ..  ⇒  ...  = ( ) ·  ..   . =( ∂x ∂x ∂ ∂xn

3.3.

i

∂ ∂yn

∂ ∂yn

i

∂ ∂xn

Longitudes, ´ areas y vol´ umenes

El volumen (en dimensi´ on dos ´ area, en dimensi´on uno longitud) de una variedad diferenciable riemanniana es la integral de su forma de volumen. Longitud de una curva 1. Calculemos la longitud de una curva dada en cartesianas.

68

Cap´ıtulo 3.

Aplicaciones de la teor´ıa

Sea R → Rn , σ(t) = (x1 (t), . . . , xn (t)) una curva. Rn es una variedad riemanniana con la m´etrica T2 = dx1 ⊗ dx1 + · · · + dxn ⊗ dxn . La curva σ con la m´etrica T2σ es una variedad riemanniana. X T2σ = dx1 (t) ⊗ dx1 (t) + · · · + dxn (t) ⊗ dxn (t) = x0 i (t)2 · dt ⊗ dt i

La forma de longitud de σ, wσ en la coordenada t es wσ = Z

t1

Longitud de σ entre t0 y t1 :=

pP

i

sX

t0

x0 i (t)2 · dt

x0 i (t)2 · dt

i

2. Ahora calculemos la longitud de una curva plana dada en coordenadas polares ρ, θ. Sea σ : R − {0} → R × S 1 , σ(t) = (ρ(t), θ(t)). Recordemos que la relaci´on entre las coordenadas cartesianas y las polares es x1 = ρ · cos θ, x2 = ρ · sen θ. Luego, dx1 = cos θ · dρ − ρ · sen θ · dθ dx2 = sen θ · dρ + ρ · cos θ · dθ y T2 = dx1 ⊗ dx1 + dx2 ⊗ dx2 = . . . = dρ ⊗ dρ + ρ2 dθ ⊗ dθ. Ahora ya, 2

2

T2|σ(t) = (ρ0 + ρ2 · θ0 ) · dt ⊗ dt y Z

t1

Longitud de σ entre t0 y t1 =

q ρ0 2 + ρ2 · θ0 2 · dt

t0

3. Supongamos ahora que la curva viene dada en impl´ıcitas C ≡ p(x, y) = 0 (x, y las coordenadas ∂ ∂ + py · ∂y . Sea N = cartesianas de R2 ). Un campo normal a la curva es D = T 2 (dp(x, y)) = px · ∂x q px ·dy−py ·dx 2 2 D/ px + py . Por tanto, la forma de longitud de C es wC = iN (dx ∧ dy) = √ 2 2 . Supongamos px +py

que x, p(x, y) forman un sistema de coordenadas, entonces en C, 0 = dp(x, y) = px dx + py dy y dy = − ppxy · dx. En conclusi´ on si parametrizamos C por x, tenemos que Z Z x1 s p2 px · dy − py · d q 1 + x2 · dx Longitud de σ entre x0 y x1 = = ... = py C x0 p2 + p2 x

y

que coincide con el c´ alculo de 1., si consideramos la parametrizaci´on x 7→ (x, y(x)) (y es funci´on de x en en C), y recordamos que yx = − ppxy en C. ´ Area de una superficie 1. El ´ area del c´ırculo de radio r, que en coordenadas polares es la regi´on C ≡ {0 < ρ ≤ r, 0 < θ ≤ 2π}, es igual a Z p Z Z r |T2 | · dρ ∧ dθ = 0 < ρ ≤ r ρ · dρ · dθ = 2π · ρdρ = π · ρ2 |r0 = π · r2 C

0 < θ ≤ 2π

0

El ´ area de la regi´ on del plano limitada por la gr´aficaRde una funci´on y = f (x) (supongamos f (x) ≥ 0 y coordenadas cartesianas x, y) , es por definici´on A dx ∧ dy, donde A es la regi´on del plano

3.3.

Longitudes, ´areas y vol´ umenes

69

limitada por la gr´ afica L1 = {(x, f (x)) | a ≤ x ≤ b}, el eje OY, L2 {y = 0, a ≤ x ≤ b} y las rectas L3 = {x = a, 0 ≤ y ≤ f (a)}, L4 = {x = b, 0 ≤ y ≤ f (b)} (no me preocupo por las orientaciones, pero s´ı del resultado final). Por el teorema de Stokes Z

Z

Z

dx ∧ dy =

y · dx = L1 ∪···∪L4

A

b

Z

f (x) · dx

y · dx = L1

a

2. Calculemos el ´ area del tri´ angulo T limitado por la gr´afica de una funci´on (dada en polares) ρ = ρ(θ) y el origen: Z p

´ Area del tri´ angulo T =

Z |T2 | · dρ ∧ dθ =

Z ρ · dρ ∧ dθ =

T

T

∂T

ρ2 · dθ = 2

Z

θ1

θ0

ρ(θ)2 · dθ 2

3. Calculemos el ´ area de la superficie S que se obtiene al girar la gr´afica de la funci´on f (x) alrededor del eje OX. Consideremos coordenadas cil´ındricas en R3 , x, ρ, θ, es decir, x = x, y = ρ sen θ, z = ρ cos θ. En estas coordenadas S = {ρ = f (x), a ≤ x ≤ b, 0 ≤ θ ≤ 2π}, x, θ son un sistema de coordenadas en S y dρ = df (x) = f 0 dx en S. 2 T2 = dx ⊗ dx + dρ ⊗ dρ + ρ2 dθ ⊗ dθ en coordenadas cil´ındricas. Por tanto, T2|S = (1 + f 0 ) · dx ⊗ 2 dx + f · dθ ⊗ dθ y

´ Area de S =

Z q

|T2|S | · dx ∧ dθ =

S

Z q Z 1 + f 0 2 · f · dx ∧ dθ = S

b

p 2πf (x) 1 + f 0 (x)2 · dx

a

Igualmente se tiene que el ´ area de la superficie S que se obtiene al girar la curva plana parametrizada (x1 (t), x2 (t)) alrededor del eje OX1 es Z

t1

2π · x2 (t) ·

q

x01 (t)2 + x02 (t)2 · dt

(∗)

t0

El ´ area de la superficie de la esfera (que se obtiene al girar la semicircunferencia {(r · cos t, r · sen t), 0 ≤ t ≤ π} alrededor del eje OX1 ) es Z

π

2π · r · sen t ·



r2 · dt = 4 · π · r2

0

El ´ area de la superficie t´ orica que se obtiene al girar la circunferencia {(r · cos t, a + r · sen t)}, a ≥ r alrededor del eje 0X1 es Z



2π · (a + r · sen t) ·



r2 · dt = 4 · π 2 · a · r

0

Veamos que la f´ ormula (∗) est´ a diciendo que el ´area de una superficie de revoluci´on es la longitud de una secci´ on por el per´ımetro de la circunferencia que describe el centro de gravedad de una secci´on: Si tenemos dos masas m y m0 en los puntos del plano x = (x1 , x2 ) y x0 = (x01 , x02 ) el centro de gravedad 0 ·m0 de ambas masas es x·m+x enea) en el plano, que troceamos en m+m0 . Si tenemos una curva (homog´

70

Cap´ıtulo 3.

Aplicaciones de la teor´ıa

incrementos ∆i , el centro de gravedad de la curva es

P xi ·∆i P p ∆i x01 (t)2

es decir, el centro de gravedad de la

curva C ≡ {(x1 (t), x2 (t)}, de forma de longitud wC = + x02 (t)2 · dt es R R R x · wC ( C x1 · wC , C x2 · wC ) C R = Long. C w C C El per´ımetro de la circunferencia (alrededor del eje OX1 ) que describe el centro de gravedad es R x2 wC 2π · C Long. C Por tanto, R

x2 · w C · Long. C = 2π · Long. C C

Z

t1

2π · x2 (t) ·

q x01 (t)2 + x02 (t)2 · dt

t0

Vol´ umenes 1. Consideremos en el plano una regi´on A y sea V ⊂ R3 el cuerpo de revoluci´on obtenido al girar la regi´ on S alrededor del eje OX1 . Sean x1 , x2 , x3 coordenadas cartesianas y x1 , ρ, θ coordenadas cil´ındricas, es decir, x1 = x1 , x2 = ρ · sen θ, x3 = ρ · cos θ. Un punto (x1 , x2 , x3 ) ∈ V ⇐⇒ (x1 , ρ) ∈ A y θ ∈ [0, 2π]. Por tanto, el volumen del cuerpo revoluci´on es Z Z Z Z dx1 ∧ dx2 ∧ dx3 = ρ · dx1 ∧ dρ ∧ dθ = 2πρ · dx1 ∧ dρ = 2πx2 · wA V

A×[0,2π]

A

A

donde wA es la forma de ´ area de A y la u ´ltima igualdad es un simple cambio de notaci´on. Argumentando como m´ as arriba el lector puede probar que el volumen de un cuerpo de revoluci´on es el es el area de una secci´ ´ on por el per´ımetro de la circunferencia que describe el centro de gravedad de la secci´ on. Calculemos el volumen del toro “macizo”, T oro, que se obtiene al girar el c´ırculo C de radio r y centrado en (0, a) alrededor del eje OX1 . Consideremos en el plano las coordenadas ρ, θ, con x1 = ρ sen θ y x2 = a + ρ cos θ, entonces Z

Z 2π · x2 · wC =

Vol. T oro = C

r

Z

4π 2 · a · ρ · dρ = 2 · π 2 · a · r2

2π(a + ρ cos θ) · ρ · dρ ∧ dθ = [0,r]×[0,2π]

0

Calculemos el volumen del cuerpo de revoluci´on obtenido al girar alrededor del eje OX el tri´angulo T de v´ertice el origen y lado opuesto un arco de curva ρ = ρ(θ) (en coordenadas polares). Z Vol. T =

Z

Z

T

θ1

2π · ρ · sen θ · ρ · dρ ∧ dθ =

2πx2 wT = 0

Get in touch

Social

© Copyright 2013 - 2024 MYDOKUMENT.COM - All rights reserved.