apuntes de ecuaciones diferenciales II (EDPs)

2011 apuntes de ecuaciones diferenciales II (EDPs) Pepe Aranda Métodos Matemáticos Físicas Complutense http://jacobi.fis.ucm.es/pparanda/EDPs.html

0 downloads 198 Views 2MB Size

Recommend Stories


apuntes de ecuaciones diferenciales I
2008 apuntes de ecuaciones diferenciales I Pepe Aranda Métodos Matemáticos Físicas Complutense www.ucm.es/centros/webs/d215 Ecuaciones Diferencial

Ecuaciones Diferenciales
Última modificación: 18-05-2016 220093 - Ecuaciones Diferenciales Unidad responsable: 205 - ESEIAAT - Escuela Superior de Ingenierías Industriales,

Ecuaciones diferenciales
Industriales. Cuerpo. Velocidad. Reposo

Story Transcript

2011

apuntes de ecuaciones diferenciales II (EDPs)

Pepe Aranda Métodos Matemáticos Físicas Complutense http://jacobi.fis.ucm.es/pparanda/EDPs.html

Índice Bibliografía Sobre las versiones de los apuntes

Introducción

1

1. Características; problemas clásicos

3 4 7 11

1.1 EDPs lineales de primer orden 1.2 EDPs lineales de segundo orden; clasificación 1.3 Los problemas clásicos; unicidad

2. Problemas de contorno para EDOs 2.1 Problemas de Sturm-Liouville homogéneos 2.2 Series de Fourier 2.3 Problemas no homogéneos; función de Green

3. Separación de variables

15 16 21 25

3.1 Separación de variables para calor y ondas 3.2 Separación de variables para Laplace 3.3 Algunos problemas en tres variables

29 30 39 46

3.4 Funciones de Green

53

4. Otros métodos en EDPs

55 56

4.1 Ecuación de la cuerda vibrante 4.2 Ondas en tres y dos dimensiones

61

4.3 Transformadas de Fourier

65

Apéndice

69

Problemas Problemas Problemas Problemas Problemas Problemas Problemas Problemas Problemas

1 2 3 (calor y ondas) 3 (Laplace y 3 variables) 4

adicionales adicionales adicionales adicionales

1 2 3 4

i ii iii v vii I III V VII

Bibliografía H Haberman. ECUACIONES DIFERENCIALES EN DERIVADAS PARCIALES con Series de Fourier y Problemas de Contorno. Pentice Hall Ss Strauss. PARTIAL DIFFERENTIAL EQUATIONS. An Introduction. Wiley W Weimberger. ECUACIONES DIFERENCIALES EN DERIVADAS PARCIALES. Reverté MU Myint-U. PARTIAL DIFFRENTIAL EQUATIONS OF MATHEMATICAL PHYSICS. Elsevier T Tijonov-Samarski. ECUACIONES DE LA FISICA MATEMATICA. Mir Sp Stephenson. INTRODUCCION A LAS ECUACIONES EN DERIVADAS PARCIALES. Reverté Ch Churchill. SERIES DE FOURIER Y PROBLEMAS DE CONTORNO. McGraw-Hill J John. PARTIAL DIFFERENTIAL EQUATIONS. Springer-Verlag Sk Stakgold. GREEN’S FUNCTIONS AND BOUNDARY VALUE PROBLEMS. Wiley BD Boyce-Di Prima. ECUACIONES DIFERENCIALES y problemas con valores en la frontera. Limusa Si Simmons. ECUACIONES DIFERENCIALES (con aplicaciones y notas históricas). McGraw-Hill Br Braun. ECUACIONES DIFERENCIALES Y SUS APLICACIONES. Interamericana R Ross. ECUACIONES DIFERENCIALES. Reverté E Elsgoltz. ECUACIONES DIFERENCIALES Y CALCULO VARIACIONAL. Mir MCZ Marcellán-Casasús-Zarzo. ECUACIONES DIFERENCIALES. PROBLEMAS LINEALES Y APLICACIONES. McGraw-Hill PA Puig Adam. CURSO TEORICO-PRACTICO DE ECUACIONES DIFERENCIALES APLICADO A LA FISICA Y TECNICA. Los 9 primeros libros son propiamente de EDPs: H, Ss, W, MU y T incluyen casi todos los temas de los apuntes (y muchos otros que no se tratan en ellos). Sp y Ch tienen bastantes menos páginas (y sirven para parte del curso). J y Sk son de mayor nivel y bastante más difíciles de leer. Los 5 siguiente son básicamente de EDOs, pero tienen introducciones a las EDPs. En concreto, BD, Br, R y Si estudian los problemas de contorno para EDOs y el método de separación de variables. R clasifica también las EDPs de segundo orden con coeficientes constantes. E trata con detalle las EDPs de primer orden. Los 2 últimos, el MCZ y el clásico PA (de 1950), son mixtos de EDOs y EDPs y abarcan una mayor parte del curso. Gran parte de los libros de EDPs, en vez de organizarse en torno a los métodos de resolución (como en los apuntes), estudian por separado y con diferentes técnicas las ecuaciones hiperbólicas, elípticas y parabólicas. Las EDPs de primer orden se estudian en H, E, PA y J, aunque se centran más en las ecuaciones cuasilineales (también tratan las no lineales). La reducción a forma canónica y las cuestiones de unicidad se ven en casi todos los libros de EDPs, por ejemplo en MU, W o T. Un estudio serio de los problemas de Cauchy se hace en J. La deducción de las ecuaciones y el significado físico de los problemas se puede mirar, por ejemplo, en Bd, W, H, Ss o T. Para el 2 es recomendable leer BD, Si y H. La teoría general avanzada de problemas de contorno, funciones de Green, desarrollos en autofunciones. . . en el Sk. Hay demostraciones menos generales (con matemáticas más elementales) en Ss, W o Ch. La separación de variables (3) está en casi todos los libros. Buenas introducciones hay en Sp, BD, Si, Br o R. El libro más recomendable para todo este capítulo es el H. Para precisiones de convergencia y problemas de varias variables ver Ss, W, MU o T. La sección 3.4 sigue más o menos el MU. Ss, W, T y Sp también estudian las funciones de Green por otros caminos. Para las secciones 4.1 y 4.2 se puede consultar el H, Ss, W, MU, T, PA o J. En ellos se deducen las fórmulas de 4.2 no demostradas en los apuntes. Para la 4.3 ver Ch, Ss, MU, Sp y, sobre todo, H y W que utilizan también la transformada de Laplace para EDPs (W tiene una introducción a la variable compleja). El MCZ, el H y el Ss dan métodos numéricos para problemas de contorno y EDPs (lo que no hacen los demás libros, salvo unas pocas ideas del W).

Sobre las versiones de los apuntes Versión 2011. Adaptación al ‘grupo residual’ de la licenciatura (2010/11, último año con clases). Se pasan a ‘letra pequeña’ algunos temas que en otros grupos no se contaban (como las ondas en 3 y 2 dimensiones, tras retocar 4.1 y 4.2), los ‘problemas 3’ se dividen en dos partes, bastantes problemas pasan a adicionales y se incluyen nuevos y nuevos ejemplos inventados para el piloto del 08/09. Versión 2009. Bastantes novedades, empezando por la letra, que pasa a ser Bitstream-Vera (sin serif), lo que obliga a reescribir (y de paso a retocar) muchas partes del texto. 1.1 y 1.3 se modifican levemente y 1.2 se vuelve a reordenar. 2 tiene ahora 3 secciones. Los ejemplos de la vieja 2.1 desaparecen (se incluyen, además de otros ejemplos nuevos) en la nueva 2.1. También aparecen más ejemplos en series de Fourier y en problemas no homogéneos. 3.1 incluye dos ejemplos nuevos del calor y las ideas sobre subproblemas pasan al final de 3.2. Esta sección incluye dos ejemplos más en cartesianas y uno en polares. 3.3 cambia poco y como 3.4 (antes 4.4) aparece la introducción a las funciones de Green para Laplace. En todo el 4 aparecen bastantes ejemplos nuevos (y algunos viejos se detallan más). En 4.1, uno de cuerda semi-infinita y otro de cuerda acotada, y dos de ondas en 3 dimensiones en 4.2. Las transformadas de Fourier F de 4.3 tienen tres ejemplos nuevos. Aparece un apéndice en el que se repasan algunos resultados de EDOs, de convergencia uniforme y cálculo en varias variables. Los problemas (y los adicionales) tienen bastantes cambios (los grupos piloto exigen inventar muchos problemas para entregar, para parcialillos,... y eso se nota). Versión 2008. Escasas novedades en teoría. Además de algunas correcciones de ejemplos, erratas, estéticas... se reordenó la sección 1.2 y se añadieron ejemplos en 3.1. Los problemas incluyeron los de examen del curso anterior, algunos de los del curso 06-07 pasaron a adicionales y otros se convirtieron en problemas a entregar en el grupo piloto. Versión 2007. Fue la primera de los apuntes de Ecuaciones Diferenciales II (EDPs) y es heredera directa de los apuntes de ecuaciones en derivadas parciales. Los viejos apuntes estaban destinados a la asignatura ‘Métodos Matemáticos de la Física II’, que se impartió por última vez en 1997-98 (la última versión, 2000, en Word, contenía mis apuntes de ese año, pero con los dibujos a ordenador). La asignatura era de tercer curso, los estudiantes habían cursado en segundo unos ‘Métodos I’ (variable compleja y espacios de Hilbert) y había 5 horas semanales de clase. Las ‘Ecuaciones Diferenciales II’, en cambio, se cursan en segundo, tienen 4 horas semanales y previamente sólo se ha estudiado Álgebra y Cálculo en primero y las ecuaciones ordinarias del primer cuatrimestre de segundo. Adaptar los apuntes, exigía, pues, reducir contenidos. Y no lo conseguí demasiado. Porque los temas se mantuvieron (reordenados de otra forma), aunque algunos pasaron a estar ‘en letra pequeña’ (sólo a título informativo). Más funcionó la tijera apartando de las hojas de problemas fundamentales bastantes de los más complicados del pasado. Yendo al detalle, el tema 1 es el antiguo tema 5, con algún ejemplo más de primer orden, algún recorte en unicidad y se deduce ya la fórmula de D’Alembert (pues el viejo capítulo 6 se trasladó, reduciendo su tamaño, a las primeras secciones del 4). El actual 2 es el viejo 7 de problemas de contorno, centrándose más en las condiciones separadas, eliminando resultados sobre comparación de autovalores y poniendo las alusiones a la δ de Dirac en letra pequeña. El nuevo 3 de separación de variables es el antiguo 8, pero bastante reordenado. En vez de separar los problemas homogéneos de los no homogéneos, se tratan ambos sucesivamente, primero para el calor y ondas, y en otra sección para Laplace. Aparecen, como novedad, unas escasas líneas dedicadas a los armónicos esféricos. El 4 reune en esa versión las ondas en 1, 3 y 2 dimensiones espaciales (estudiadas con menos intensidad que en Métodos II, sobre todo en problemas), la transformada de Fourier, y, a título informativo, el método de las imágenes. Los problemas se dividieron en ’problemas’ (los que se hacen en clase) y ’problemas adicionales’ (a ellos fueron exiliados los más largos, laterales al curso o repetidos). Unos cuantos de los viejos problemas (y varios apartados de otros) desaparecieron del todo. Los apuntes se hicieron en LATEX, utilizando el programa TeXShop para Mac y eligiendo ese año 2007, para distinguirse de las letras habituales, el tipo ’palatino’.

Introducción Estos apuntes están dedicados al estudio de las ecuaciones en derivadas parciales (EDPs), aunque también se estudiarán los problemas de contorno para las ecuaciones diferenciales ordinarias (EDOs). Una ecuación en derivadas parciales es una ecuación en la que aparece una función incógnita de varias variables y algunas de sus derivadas parciales. Todas las EDPs que veremos serán lineales. Más en concreto, salvo un breve estudio de las lineales de primer orden, trataremos de EDPs lineales de segundo orden, del tipo: [1] L[] ≡

n X

Aj

∂2  ∂ ∂j

+

n X

Bj

∂ ∂j

+ C = F

j=1

,j=1

donde  , Aj , Bj , C y D son funciones de (1 , . . . , n ) . Una solución de [1] será una función (1 , . . . , n ) de clase C2 en una región Ω de Rn que sustituida en la ecuación la convierte en una identidad. Entre las EDPs lineales de segundo orden se encuentran muchas ecuaciones de la física. Entre ellas las tres clásicas: ecuación de ondas ecuación del calor y ecuación de Laplace

tt − c2 Δ = 0 t − kΔ = 0 Δ = 0

que son ejemplos, respectivamente, de los tres grandes tipos en que se clasifican: hiperbólicas, parabólicas y elípticas. La teoría avanzada de EDPs viene a ser la generalización del estudio de estas tres ecuaciones. Sus propiedades son tan diferentes que no existen teorías generales como la de las EDOs lineales. En el capítulo 1 se verá que, normalmente, no se puede hallar la solución general de una EDP. Sólo la tendremos para algunas de primer orden en dos variables (y aparecerá una función arbitraria en esa solución) y para muy pocas de segundo (en particular, para la de ondas, con dos funciones arbitrarias). Además veremos qué condiciones adicionales (iniciales o de contorno) hay que imponer a las EDPs clásicas para que tengan solución única que dependa de forma continua de los datos. En la búsqueda de soluciones generales y en la unicidad será importante el concepto de curva característica, solución de una EDO muy ligada a la EDP. El capítulo 3 trata el viejo método de separación de variables para resolver las ecuaciones clásicas (homogéneas y no homogéneas y en 2 o más variables) en recintos sencillos (y acotados, al menos, en una de las variables). Se supone la solución como producto de funciones de cada una de las variables, lo que lleva a resolver EDOs en cada una de ellas, alguna con condiciones de contorno. Resueltas todas, las soluciones quedan expresadas en términos de series de Fourier. La necesaria teoría de problemas de contorno para EDOs (muy diferente de la de los de valores iniciales) y una descripción de dichas series se dará previamente en el capítulo 2. En ambos capítulos hablaremos brevemente de las funciones de Green. El capítulo 4 estudia varios temas independientes. Analizaremos y dibujaremos las soluciones de la ecuación de ondas a partir de fórmulas integrales, primero para una (, t) (ecuación de la cuerda vibrante) y luego, con menos detalles, para tres y dos dimensiones espaciales. También utilizaremos la transformada de Fourier para resolver algunas EDPs en recintos no acotados (en particular, la del calor en la recta infinita). Los apuntes acaban con un apéndice en el que se repasan algunos conocimientos matemáticos previos (de EDOs, de cálculo en varias variables y de convergencia uniforme) que se utilizan en los capítulos anteriores.

1

Para acabar esta introducción, describamos el significado físico de las ecuaciones clásicas. Interpretémoslas únicamente en sus versiones más sencillas (que son las más tratadas en los apuntes): cuando la  es función de dos variables. Empecemos con la ecuación de ondas unidimensional o ecuación de la cuerda vibrante. Consideremos las oscilaciones de una cuerda totalmente elástica, tensa y fija en sus extremos. Se supone que sus oscilaciones son siempre transversales u y de pequeña amplitud. En esas condiciones se puede instante t ver que si (, t) representa el desplazamiento vertical del punto de abscisa  en el instante t , la función u(x,t) (, t) satisface la EDP:

x

tt − c2  = F(, t)

x

donde c2 = To / ρ , con To fuerza de tensión en los extremos, ρ masa por unidad de longitud (densidad lineal) y F(, t) fuerza externa por unidad de masa que actúa en dirección vertical sobre el punto  en el instante t . Para determinar la evolución de una cuerda concreta, se verá que debemos fijar la posición de la cuerda y la distribución de velocidades verticales en el instante inicial, es decir, (, 0) y t (, 0) . También se deberá de tener en cuenta que permanece fija en los extremos  = 0 y  = L , o sea, que (0, t) = (L, t) = 0 . No olvidemos que el modelo matemático de esta cuerda ideal es sólo una simplificación de la realidad; lo mismo ocurre con las siguientes. La distribución de temperaturas a lo largo del tiempo en una varilla delgada (que podemos suponer unidimensional) viene regida por la ecuación del calor: t − k = 0 donde (, t) representa la temperatura del punto  en el instante t y k > 0 es una constante proporcional a la conductibilidad e inversamente proporcional a la densidad y al calor específico. Si existiesen fuentes de calor en el interior de la varilla deberíamos escribir una F(, t) en el segundo miembro de la ecuación. A diferencia de la de ondas, aquí bastará dar sólo la distribución inicial de temperaturas (, 0) (junto con las condiciones de contorno) para determinar la solución. La ecuación de Laplace:  + yy = 0 puede describir, entre otras situaciones físicas, la distribución estacionaria de temperaturas en una placa bidimensional. La existencia de fuentes de calor en el interior de la superficie aportaría una F en el segundo miembro (ecuación de Poisson). Frente a las dos ecuaciones anteriores que describían la evolución de un sistema a lo largo del tiempo, ésta describe situaciones estacionarias y los problemas que se plantean para ella son siempre con condiciones de contorno.

2

1. Características; problemas clásicos En las EDOs se planteaban problemas de valores iniciales, que casi siempre tenían solución única. Para resolverlos (las pocas veces que se podía) se solía hallar primero la solución general e imponer después una o varias condiciones, dependiendo del orden de la ecuación, en un to dado. En este capítulo intentamos ver cuáles son los problemas análogos para las EDPs. La variedad y complicación será mucho mayor que en las ordinarias. Comenzamos en la sección 1.1 tratando las EDPs lineales de primer orden en dos variables, es decir, ecuaciones del tipo: [1]

A(, y) y + B(, y)  = C(, y)  + D(, y) ,

que no tienen muchas aplicaciones físicas, pero que plantean de forma sencilla los problemas de las de segundo orden. Veremos que pueden resolverse si es posible integrar una EDO de primer orden, cuyas curvas integrales son llamadas características de [1]. En la solución general de [1] aparecerá una función p arbitraria (como en el sencillo ejemplo  = 0 , de solución (, y) = p(y) , para cualquier p ). Para precisar esta p fijaremos el valor de la solución a lo largo de una curva G del plano y (problema de Cauchy) y la solución quedará determinada de forma única si G no es tangente a las curvas características. En 1.2 abordamos las EDPs lineales de segundo orden en dos variables: [2]

Ayy + By + C + Dy + E + H = F

con  y los coeficientes funciones de  e y . Para intentar resolverlas, buscaremos escribirlas, mediante cambios de variables, en la forma más sencilla posible (forma canónica). Esto nos llevará a la clasificación de [2] en hiperbólicas, parabólicas y elípticas. Otras curvas características volverán a jugar un papel esencial. En unos pocos casos, a partir de la forma canónica, se podrá calcular la solución general, que dependerá de dos funciones arbitrarias. Uno de esos casos será la ecuación de ondas. Para aislar una única solución de [2] podrían darse unos datos de Cauchy análogos a los de [1]. Pero esto sólo funciona para algunos problemas ligados la ecuación de ondas (para ella deduciremos la fórmula de D’Alembert que expresa sus soluciones en términos de la posición y velocidad iniciales) y carece de sentido físico y plantea problemas matemáticos para las otras ecuaciones clásicas. Las condiciones iniciales y de contorno ligadas a un problema físico real son muy diferentes para cada ecuación. Incluso a una misma ecuación aparecen asociadas condiciones de diferentes tipos. No existe una teoría general de EDPs que pueda abarcar todas las posibilidades. En cada caso habrá que comprobar que el problema está ’bien planteado’, es decir, que tiene solución única que depende continuamente de los datos (lo que era en las EDOs de comprobación trivial). La sección 1.3 se dedica a describir diferentes problemas asociados a las ecuaciones clásicas y a estudiar su unicidad.

3

1.1. EDPs lineales de primer orden Sea [E]

A(, y) y + B(, y)  = C(, y)  + D(, y) ,  = (, y) .

Para resolverla consideramos la EDO de primer orden: dy

[e]

d

=

A(, y) B(, y)

ecuación característica

Suponemos A y B de C1 y que no se anulan simultáneamente en una región del plano. Entonces [e] tendrá en ella unas curvas integrales: ξ(, y) = K

curvas características de [E]

(se podrán hallar explícitamente si [e] es separable, lineal, exacta. . . ) Veamos que el cambio de variable  ξ = ξ(, y) η=y (o bien η =  ) lleva [E] a una ecuación en las nuevas variables (ξ, η) en la que no aparece ξ y que es resoluble elementalmente. En efecto:  y = ξ ξy + η → Aη + [Aξy + Bξ ]ξ = C + D  = ξ ξ Como sobre las soluciones y() definidas por ξ(, y) = K se tiene: ξ(, y()) = K



dy

ξ + ξy d =

1 [Aξy B

+ Bξ ] = 0 ,

deducimos que [1] se convierte en: [E∗]

A(ξ, η) η = C(ξ, η)  + D(ξ, η) ,  = (ξ, η) .

(Si hubiésemos escogido η =  habríamos llegado a [E∗] Bη = C + D ; se observa que queda tras el cambio el término con la variable elegida). [E∗] (o [E∗]) es una EDO lineal de primer orden en η si consideramos la ξ constante (y, por tanto, es resoluble). En su solución aparecerá una constante arbitraria para cada ξ , es decir, una función arbitraria de ξ : RC RC R R − C A dη dη , con p arbitraria de C 1 . [•] (ξ, η) = p(ξ) e A dη + e A dη D e A Deshaciendo el cambio queda resuelta [E] en función de  e y . En la solución, como se observa, aparece una función arbitraria de las características. Ej 1. y 2 y + = 2

dy d

= y2 ,

1 y

= K − →

+

1 y

=K

características

¨

 2 2 ξ = + 1y → η = 2 = 2η →  = p(ξ) eη = p + 1y e , p ∈ C1 . η =  [mejor]

¨

=ξ− η ξ = + 1y → y 2 η = 2 → η = η = y [peor]

1

 2ξ − η23  η2

1

→  = p∗(ξ) e η2



2ξ η

 − 1 − 2 = p∗ + 1y e y2 y .

 Aunque no lo parezca, las expresiones con p y p∗ definen la misma solución general, 2   − + 1 2  − 1 − 2 2 − + 1y y pues, e y2 y = e e , y p∗ + 1y e es otra función arbitraria de + 1y .

4

u

¿Cómo determinar una única solución de [E]? Cada solución describe una superficie en el espacio. Generalizando el problema de valores iniciales para EDOs definimos:

Γ

El problema de Cauchy para [E] consiste en hallar la solución (, y) que contenga una curva dada  del espacio, o lo que es lo mismo, que tome unos valores dados sobre una curva G del plano y .

y x

G

En particular, si G es una recta  ó y = cte [por ejemplo, si se pide (, 0) = ƒ () ], se tiene lo que se llama un problema de valores iniciales. infinitas

ninguna

x

u

Un problema de Cauchy puede no tener solución única.

Γ1

Γ2

y

G caso D=C=0

 Por ejemplo, la solución general de Ay +B = 0 es (, y) = p ξ(, y) y cada solución toma valor constante sobre cada ξ(, y) = K . Si buscamos una solución que contenga una curva  cuya proyección G sea una de las características se debe exigir que  esté en un plano horizontal z = C . Entonces hay infinitas soluciones [una para cada función p con p(K) = C ]. Si  no tiene z constante, no hay solución que contenga a  .

En general, supongamos que  es una curva suave dada paramétricamente por   (s) = g(s), h(s), ƒ (s) , o sea, que buscamos la solución con  g(s), h(s) = ƒ (s) .  Sustituyendo en [•] y despejando p : p ξ(g(s), h(s)) = F(s) , con F conocida.  Llamemos  = ξ g(s), h(s) . Si es posible despejar s en función de  de forma única s = s() , la p() = F s() queda determinada y, por tanto, hay una única solución de [E] conteniendo a  . Sabemos que esta función inversa existe seguro en un entorno de cada so para el que sea:    d d  ξ g(s), h(s) s=so = ∇ξ g(so ), h(so ) · g0 (so ), h0 (so ) 6= 0 = ds ds s=so Como es ∇ξ perpendicular a las características y (g0 , h0 ) tangente a G , tenemos: g

(h)

Si la curva G no es tangente en ningún punto a ninguna característica el problema de Cauchy tiene solución única, al menos local. La tangencia se puede ver sin resolver la EDO [e], con su campo de direcciones: el vector (B, A) es tangente a sus soluciones y (A, −B) es perpendicular. Por tanto:

y

caract.

pendiente A/B

x

 G es tangente a alguna característica en un punto g(so ), h(so ) si y sólo si Δ(so ) ≡ g0 A(g, h) − h0 B(g, h) s=so = 0 .

Si Δ(s) 6= 0 ∀s el problema de Cauchy tiene solución única. [Si Δ(s) ≡ 0 ∀s , G es tangente en cada punto, es decir, es una característica]. Ej 1*. Imponemos datos a

y 2 y + = 2 , de solución general

 2  = p + 1y e .

(, 1) = 1 . Como y = 1 nunca es tangente a las características, según muestra el dibujo o asegura

1

Δ() = 1 · 12 − 0 · 1 = 1 6= 0 , el problema de valores iniciales tendrá solución única: 2

p(+1)e = 1

+1=

2

p() = e−(−1) 2 2− 2 + 2y − 12 −1 2 − + 1y −1 y y =e → =e →

Los datos (, − 1 ) = 0 y (, − 1 ) = 1 traerán problemas (datos sobre característica). 2

Para el primero: p(0)e = 0 . Lo cumple toda p ∈ C1 con p(0) = 0 . Infinitas soluciones. 2

2

Para el segundo: p(0)e = 1 , p(0) = e− . Imposible. No tiene solución. 2 Aquí el Δ es: Δ() = 1 · − 1 − 12 · 1 ≡ 0 , lo que confirma que G es una característica.

5

dy d

Ej 2. 2y −  = 4y

= −2 → y+2 = K características.



ξ = y + 2 → 2η = 4y ; η = 2η →  = p(ξ) + η2 = p(y+2 ) + y 2 η=y



ξ = y + 2 → −η = 4y = 4ξη−4η3 → η=

 = p∗ (ξ)+η4 −2ξη2 = p∗ (y+2 )−2y2 −4

Imponemos diferentes datos de Cauchy a la ecuación y analizamos la unicidad: (1, y) = 0 → p(y+1) + y 2 = 0 → p() = −(−1)2 →  = 2y + 22 − 2y2 − 4 − 1 [o bien, p∗ (y+1)−2y−1 = 0 → p∗ () = 2−1 ] y

[ p ó p∗ fijadas ∀ , pues  = 1 no es tangente a las características]. (, −2 ) = 0 → p(0) + 4 = 0 . Imposible, no hay solución.

1 x

→ p(0) = 0 . Cada p ∈ C1 con p(0) = 0 nos da una solución diferente: hay infinitas. Datos sobre características dan siempre 0 o ∞ soluciones [pues se acaba en p(cte)=algo, que puede ser constante o no]. (, −2 ) = 4

(, 0) = 0 → p(2 ) = 0 . Sólo queda fijada p() = 0 para  ≥ 0 , pero no hay ninguna condición sobre p si  < 0 .

p(v) v ' p validas

Podemos elegir cualquier p ∈ C1 que valga 0 para  ≥ 0 . Existen infinitas soluciones en un entorno de (0, 0) :

(, y) = y 2 si y ≥ −2 , pero está indeterminada si y < −2 .   En (0, 0) es y = 0 tangente a las características. Lo confirma Δ = 1 · 2 − 0 · (−1) . (, 3 −2 ) = 4 −25 → p(3 ) = −6 → p() = − 2 ∀ →  = −22 y−4 para todo (, y) . Hay solución única a pesar de ser la curva de datos tangente a una característica en   el punto (0, 0) es Δ = 1 · 2 − (32 −2) · (−1) = −32 . Algunas veces puede haber tangencia y existir solución única. La no tangencia es suficiente pero no necesaria. Ej 3. 

(y−2) y + = y (0, y) = y−2

dy d

=

y−2 1

, y = Ce +2+2 → (y−2−2)e− = C

y y=2x+2

ξ = (y−2−2)e− → η = y = ξeη +2η+2 →  = p(ξ)+ξeη +η2 +2η , η =  (parece mejor)  2 −

 = p [y−2−2]e

+ y+ −2 .

x

 Escogiendo η = y no se podría despejar la  de ξ = (η−2−2)e− .



p(y−2)+y−2 = y−2 , p(y−2) = 0 → p() = 0 ∀ ,  = y+2 −2 . Solución única porque  = 0 nunca es tangente a las características: Δ = 0·(y−2·0)−1·1 = −1 6= 0 ∀ [o está claro en el dibujo]. y

Ej 4.

yy + = 2 (, 1) = 3 =

p(ξ)η2

=p

dy d

=

y 2 y ; 

y 

→ y = C →

(, 1) = p

1 



ξ = y/  → ηη = 2 → η=y

=

3

→ p() =

1 3

; =

x

3 y

[sólo si y > 0 ; la solución de un problema de Cauchy, en principio, sólo es local]. Ej 5.

t + c = 0 (, 0) = ƒ ()

dy d

=

1 c



 − ct = K características

→  = p(−ct) solución general.

(, 0) = p() = ƒ () → (, t) = ƒ (−ct) , solución única del problema de valores iniciales. Para dibujar la gráfica de  en función de  para cada t = T fijo basta trasladar la de ƒ () una distancia cT (hacia la derecha si c > 0 ). Se puede interpretar la solución como una onda que viaja a lo largo del tiempo. [Situación similar se dará en la ecuación de ondas].

6

x cT t

T

características

1.2. EDPs lineales de segundo orden; clasificación Consideremos [E] L[] ≡ A yy + B y + C  + D y + E  + H  = F

,

con  y los coeficientes funciones de (, y) . Suponemos que los coeficientes son C2 y que A , B y C no se anulan simultáneamente en una región Ω del plano. Como ocurría en las EDPs de primer orden, quizás un cambio de variable adecuado haga desaparecer algunos términos de [E], de forma que nos quede una ecuación resoluble elementalmente. Hagamos el cambio genérico:  ξ = ξ(, y) , con ξ , η ∈ C2 y con jacobiano J = ξ ηy −ξy η 6= 0 en Ω . Entonces: η = η(, y) y = ξ ξy + η ηy  = ξ ξ + η η yy = ξξ ξ2y + 2 ξη ξy ηy + ηη η2y + ξ ξyy + η ηyy y = ξξ ξy ξ + ξη [ξ ηy + ξy η ] + ηη ηy η + ξ ξy + η ηy  = ξξ ξ2 + 2 ξη ξ η + ηη η2 + ξ ξ + η η Con lo que [E] queda en función de las nuevas variables:     A ξ2y + B ξy ξ + C ξ2 ξξ + 2A ξy ηy + B(ξ ηy +ξy η ) + 2C ξ η ξη   + A η2y + B ηy η + C η2 ηη + · · · = A∗ ξξ + B∗ ξη + C∗ ηη + · · · = F(ξ, η) donde los puntos representan los términos en ξ , η y  . Intentemos hacer A∗ = C∗ = 0 eligiendo ξ y η adecuados. Para ello debe cumplirse la EDP de primer orden (no lineal): A ξ2y + B ξy ξ + C ξ2 = 0

( C∗ = 0 tiene la misma forma)

Si conseguimos hallar dos soluciones distintas (con Jacobiano no nulo) de esta EDP podemos hacer desaparecer los términos en ξξ y ηη . Cuando B2 − 4AC > 0 podemos separarla en dos EDPs diferentes de primer orden lineales (de las estudiadas en la sección anterior): i h p 1 [1] ξy = 2A −B ± B2 −4AC ξ   B si es A 6= 0 ; si A = 0 y C 6= 0 es ξ = 0 o ξ = − C ξy ; A = C = 0 es caso trivial .

Si B2 −4AC = 0 , [1] se convierte en una única EDP. Y si es < 0 , la descomposición anterior en EDPs de primer orden con coeficientes reales es imposible. Por otra parte, es fácil verificar que (B∗)2 −4A∗C∗ = [B2 −4AC] J2 , J jacobiano del cambio, y, por tanto, el signo de B2 −4AC no varía al hacer cambios de coordenadas. Todo lo anterior nos lleva a definir: Si en cada punto (, y) de una región del plano se cumple que la expresión B(, y)2 −4A(, y)C(, y) es mayor que 0 , igual a 0 o menor que 0 , se dice, respectivamente, que la EDP [E] es hiperbólica, parabólica o elíptica en dicha región. Sigamos con la simplificación de [E]. Precisemos cuál es el cambio adecuado a cada tipo y encontremos la forma más sencilla en que podemos escribir la ecuación (forma canónica) en cada caso.

7

Si [E] es hiperbólica, las EDPs de [1] tienen por ecuaciones características: i i h h p p d d 1 1 2 −4AC 2 −4AC B , B [e] = B − = B + dy 2A dy 2A Se llaman curvas características de [E] a las curvas integrales ξ(, y) = K , η(, y) = K de estas dos ecuaciones ordinarias (son las características de las ecuaciones de primer orden [1]).  Como ξ(, y) y η(, y) son soluciones de [1] [vimos en 1.1 que  = p ξ(, y) y   = q η(, y) , con p , q arbitrarias, eran sus soluciones generales], el cambio 

ξ = ξ(, y) η = η(, y)

lleva [E] a B∗ ξη + · · · = F. Como (B∗)2 > 0 podemos escribir la forma canónica de las hiperbólicas:

ξη + · · · = F ∗

.

B Si [E] es parabólica, [1] es una sola EDP ξy + 2A ξ = 0 , de ecuación característica

d dy

=

B 2A

→ ξ(, y) = K curvas características de [E] (las parabólicas sólo tienen una familia de características).

Escogiendo ξ = ξ(, y) hacemos A∗ = 0 (y como (B∗)2 −4A∗C∗ = 0 también es B∗ = 0 ). Como η podemos tomar cualquier función de  e y tal que el jacobiano no sea nulo. Se suele tomar η = y . Así haciendo 

ξ = ξ(, y) η=y

y dividiendo por C∗ se obtiene la forma canónica de las parabólicas:

ηη + · · · = F ∗ .

Si es elíptica, los segundos miembros de [e] son funciones complejas conjugadas: h i p d 1 2 = B ±  4AC−B (no hay, pues, características reales). dy 2A Es fácil ver que las soluciones de este par de ecuaciones son también complejas conjugadas: ξ(, y) = α(, y)± β(, y) = K . También es fácil probar que el cambio 

ξ = α(, y) η = β(, y)

lleva [E] a la forma canónica de las elípticas: ξξ + ηη + · · · = F ∗ .

En general, [E] puede ser de diferente tipo en diferentes regiones del plano y tener una forma canónica distinta en cada una. Observemos también que las EDOs de primer orden que dan las características normalmente no serán resolubles. Pero en el caso de que A , B y C sean constantes, B2 − 4AC también lo es y así [E] es del mismo tipo en todo el plano. Además los cambios de variable [ahora válidos para todo (, y) ] se hallan aquí fácilmente: p ( ¨ ¨ 2 2A−By B ξ =  − B− B2A−4AC y ξ= p ξ =  − 2A y 4AC−B2 p η=y [c] B+ B2 −4AC η = y η=− y 2A si [E] hiperbólica

si [E] parabólica

si [E] elíptica

[En este caso con coeficientes constantes, las hiperbólicas tienen dos familias de rectas características, las parabólicas una única familia de rectas características y las elípticas no tienen; la expresión dada para la elíptica se deduce de que p 2 2A−By 2A−By ξ = 2A ±  4AC−B y = K equivale a ξ = p ± y = K ]. 2A 2 4AC−B

8

Ej 1.

yy − y  = 0

hiperbólica si y > 0 elíptica si y < 0

(ecuación de Tricomi) → B2 − 4AC = 4y →

(sobre y = 0 es parabólica, pero las EDPs se plantean sobre conjuntos abiertos). d dy

y>0 : (

ξ = + 23 y 3/ 2 η=

− 23 y 3/ 2



2 3/ 2 y 3

= ±y 1/ 2 ; características  ± →

= K . Hacemos pues:

y = y 1/ 2 [ξ −η ]  = 1 y −1/ 2 [ξ −η ] + y[ξξ −2ξη +ηη ] → yy 2  = ξ + η  = ξξ + 2ξη + ηη

1 −1/ 2 y [ξ −η ] − 4yξη 2

=0 →

ξη −

1 ξ −η 6 ξ−η

=0

, pues ξ−η =

4 3/ 2 y 3

.

y < 0 : d = ± [−y]1/ 2 → ξ =  ±  23 [−y]3/ 2 = K . Hacemos ahora: dy ¨ α=  = −[−y]1/ 2 β  = 12 [−y]−1/ 2 β + [−y]ββ → y → yy 2 3/ 2  = α β = 3 [−y]  = αα → αα + ββ + Ej 2.

1 [−y]−3/ 2 β 2

4yy − 4y +  = 0

=0 →

αα + ββ +

1  3β β

=0

.

→ B2 − 4AC = 0 → parabólica en todo R2 .

Como A , B y C son constantes, basta copiar el cambio [c]: ξ =  + 

y 2

, o mejor

yy = ξξ + 2ξη + ηη ξ = 2+y y = ξ + η → → y = 2ξξ + 2ξη η=y  = 2ξ  = 4ξξ Llevándolo a la ecuación se llega a

ηη = 0 .

Esta forma canónica que se resuelve fácilmente: η = p(ξ) →  = η p(ξ)+q(ξ) . Por tanto, la solución general de la ecuación es: (, y) = y p(2+y) + q(2+y)

, con p y q funciones C2 arbitrarias.

Como en el ejemplo 2, en ocasiones será posible hallar elementalmente la solución general de [E] tras escribirla en forma canónica (pero en la mayoría seguirá siendo imposible; como en las dos regiones del ejemplo 1). Identifiquemos las formas canónicas resolubles: Si sólo hay derivadas respecto a una variable:

ηη + E∗η + H∗ = F ∗

Esta ecuación lineal de segundo orden, ordinaria si la vemos como función de η , se integra considerando la otra variable como un parámetro. Un par de constantes para cada ξ dan lugar a dos funciones arbitrarias de ξ en la solución. La ecuación, como vemos, debe ser parabólica. Si sólo aparece ξη y una de las derivadas primeras:

ξη + D∗ξ = F ∗

Se resuelve haciendo ξ =  : la lineal de primer orden η + D∗ = F ∗ es integrable viendo ξ como parámetro. La  contiene, pues, una función arbitraria de ξ . Al integrarla para hallar la  aparece otra función arbitraria (de η ). Las cosas serían análogas si en vez de la ξ apareciese la η . La ecuación es hiperbólica. [En las EDOs de segundo orden salen dos constantes arbitrarias; aquí hay, en los dos casos, dos funciones arbitrarias (evaluadas en las características como ocurría en las EDPs de primer orden). Se ve que ninguna ecuación elíptica, ni la del calor t − son resolubles por este camino]. [En los problemas veremos que otras pocas ecuaciones más con coeficientes constantes pueden llevarse a estas formas haciendo cambios de variable del tipo  = epy eq  que hacen desaparecer alguna derivada de menor orden].

9

yy + 5y + 4 + y +  = 3

Ej 3. B∓

p

1

B2 −4AC 2A

= 4 →

Entonces: ξη +



1  3 η

→ B2 −4AC = 9 , hiperbólica.

yy = ξξ + 8ξη + 16ηη y = −ξ − 4η ξ = −y → → y = −ξξ − 5ξη − 4ηη η = −4y  = ξ + η  = ξξ + 2ξη + ηη = − 31 , del segundo de los tipos citados. Para resolverla:

η =  → ξ = − 13  −

1 3

→  = q∗(η)e−ξ/ 3 − 1 → (ξ, η) = q(η)e−ξ/ 3 + p(ξ) − η

La solución general es, pues: (, y) = q(−4y) e(y−)/ 3 + p(−y) + 4y− Ej 4.

y 2 yy + 2yy + 2  + y 2 y + y = 0

d dy

=

2y 2y 2

=

 → y





, q y p arbitrarias.

B2 − 4AC ≡ 0 parabólica en R2

ξ = y/  . Operando se llega a su forma canónica: ηη + η = 0 . η=y

Es una EDO lineal de segundo orden en η con autovalores dados por λ(λ+1) = 0 → (ξ, η) = p(ξ) + q(ξ) e−η . Es decir,

(, y) = p

y y + q  e−y 

.

Acabamos la sección aplicando las técnicas anteriores para hallar la solución general de la única de las ecuaciones clásicas que se puede abordar por este camino: la ecuación de ondas en una dimensión espacial (cuerda vibrante): tt − c2  = 0 → B2 −4AC = 4c2 → hiperbólica en todo el plano. Las expresiones de [c] se convierten aquí en: ¨   = ξξ + 2ξη + ηη ξ =  + ct → η =  − ct tt = c2 [ξξ − 2ξη + ηη ] y, por tanto, en las nuevas variables: −4c2 ξη = 0 →

ξη = 0

forma canónica

→ ξ = p∗(ξ) →  = p(ξ) + q(η)

Luego la solución general de la ecuación de ondas es: (, t) = p(+ct) + q(−ct)

, p y q funciones arbitrarias de C2 .

[Observemos que la solución resulta ser la suma de dos ondas que viajan a velocidad c , una hacia las  crecientes y otra hacia las decrecientes. En la siguiente sección hallaremos una fórmula para la única solución que satisface una pareja de ‘datos iniciales’].

10

1.3. Los problemas clásicos; unicidad Sea [E] L[] = F una EDP lineal de segundo orden en dos variables. ¿Qué datos adicionales nos proporcionan problemas bien planteados para [E]? Para una EDO de segundo orden era necesario fijar el valor de la solución y de su derivada en el instante inicial para tener solución única. En una EDP lineal de primer orden fijábamos los valores de la solución en toda una curva G (no tangente a las características). Acabamos de ver que en los pocos casos en que [E] era resoluble aparecían dos funciones arbitrarias en la solución. u Todo ello lleva a plantear el problema de Cauchy para [E]: Hallar la solución que tome unos valores dados de  y y a lo largo de una curva dada G del plano y . (geométricamente, hallar la superficie solución que contenga y una curva dada y tenga a lo largo de ella una familia de planos G tangentes también dados). Alternativamente se podrían fijar x sobre G los valores de  o de la derivada normal n . En particular, al tomar como G el eje  se tiene el problema de valores iniciales que consiste en hallar la solución de [E] que cumple (, 0) = ƒ () , y (, 0) = g() . Como ocurría en las de primer orden se puede probar que: Si los datos son regulares y G no es tangente a las características en ningún punto, el problema de Cauchy tiene solución única en las proximidades de G . 

Ej 1. Sea

[P]

yyy + 2y 2 y + y 3  − y = 0 (, 2) =  , y (, 2) = 0

B2 −4AC ≡ 0, parabólica en R2 .

d dy

= y → −

y2 2

2

y

.

x

= K características.

Como y = 2 nunca es tangente a ellas, el problema de Cauchy [P] tiene solución única. Es resoluble y podemos comprobarlo: ¨ y2 y2 y2 ξ =  − 2 → η − = 0 −→  = p(ξ)+q(ξ) η2 = p(− 2 )+q(− 2 ) y 2 ηη η η=y Euler ó η = Imponiendo los datos de Cauchy ( y = −yp0 − y 3 q0 + 2yq ):   (, 2) = p(−2) + 4q(−2) =  p0 (−2)+4q0 (−2) = 1 → 0 0 0 0 y (, 2) = −2p (−2)−8q (−2)+4q(−2) = 0 p (−2)+4q (−2) = 2q(−2) [ p0 y q0 representan la misma derivada ordinaria en ambas ecuaciones] → q(−2) = 21 → q() = 12 ∀ → p(−2) = −2 → p() =  ∀ →  =  −

y2 2

+

y2 2

=  ,

solución determinada de forma única por los cálculos anteriores.

¿Es este problema el adecuado a todas las EDPs de segundo orden? No lo es. En los problemas reales aparecen condiciones mucho más variadas que las de Cauchy: en unos casos hay que imponer condiciones iniciales y de contorno a la vez, en otros sólo de contorno... Además un dato de Cauchy puede originar problemas mal planteados (sin la necesaria dependencia continua) para EDPs no hiperbólicas, como éste para Laplace (cuya solución será única por no tener características reales): 

 + yy = 0 (, 0) = 0 , y (, 0) =

sh ny sen n , sen n . Su solución (única) es (, y) = n2 n pero aunque el dato sennn → 0 uniformemente,  es muy grande (si y 6= 0 ) para n grande, y se parece poco a la solución  ≡ 0 asociada a (, 0) = y (, 0) = 0 .

Veamos los principales problemas asociados a las ecuaciones clásicas en dos variables [sólo (P1 ) será de Cauchy]. Para cada uno habría que probar que ‘está bien planteado’. Para más variables las cosas son análogas y poco más complicadas.

11

Ondas. Tiene solución única dependiente continuamente de los datos el problema puro de valores iniciales: t x

¨  −c2  = F(, t) , , t ∈ R tt  (P1 ) (, 0) = ƒ () t (, 0) = g()

u(x,0)

g(x) f(x) x

para la cuerda infinita (tiene sentido real cuando t es pequeño y estamos lejos de los extremos). Como damos los datos sobre t = 0 no característica (eran ±ct = K ) hay solución única.

En el caso de la ecuación homogénea ( F ≡ 0 ) hallemos su solución y deduzcamos de ella la dependencia continua. Vimos en la sección anterior su solución general: tt −c2  = 0 → (, t) = p(+ct)+q(−ct) , p , q arbitrarias. Imponiendo los datos: 

p() + q() = ƒ () → cp0 () − cq0 () = g()

→ p() =

1 1 ƒ () + 2c 2

(, t) =

R 0

¨ 0 p () + q0 () = ƒ 0 () → 2p0 () = ƒ 0 () + 1c g() p0 () − q0 () = 1c g()

g(s) ds + k → q() =

 1 ƒ (+ct) + ƒ (−ct) 2

+

1 2c

Z

1 1 ƒ () − 2c 2

+ct

g(s) ds −ct

R 0

g(s) ds − k →

fórmula de D’Alembert

que da la solución única de (P1 ) si F ≡ 0 . Para que  sea C2 , debe ƒ ∈ C2 y g ∈ C1 . Comprobemos que datos iniciales próximos ocasionan soluciones (, t) y ∗(, t) cercanas en intervalos de tiempo finitos (es decir, la dependencia continua): si |ƒ ()−ƒ ∗()| < δ y |g()−g∗()| < δ ∀ ; entonces para t ∈ [0, T] se tiene: R +ct 1 |g(s)−g∗(s)| ds |−∗| ≤ 21 |ƒ (+ct)−ƒ ∗(+ct)| + 12 |ƒ (−ct)−ƒ ∗(−ct)| + 2c −ct R +cT ε δ ds = δ(1+T) < ε ∀ y ∀t ∈ [0, T] , si δ < 1+T . < δ + 2c −cT Consideremos ahora la cuerda acotada cuyos extremos se mueven verticalmente según h0 (t) y hL (t) dadas (que estén fijos es un caso particular). Hay entonces dos condiciones de contorno adicionales: ¨  − c2  = F(, t) ,  ∈ [0, L], t ∈ R tt  (P2 ) (, 0) = ƒ () , t (, 0) = g() (0, t) = h0 (t) , (L, t) = hL (t)

Demostremos su unicidad (veremos que la solución existe, como en otros casos, hallándola explícitamente [en 3.1 por separación de variables ó en 4.1 a través de extensiones]; la dependencia continua, que se cumple, no la probamos). Sean 1 y 2 soluciones cualesquiera de (P2 ) y sea  = 1−2 . Entonces  cumple: ¨ tt − c2  = 0 ,  ∈ [0, L] , t ∈ R (P0 ) (, 0) = t (, 0) = (0, t) = (L, t) = 0 Queremos ver que  ≡ 0 . Integremos la identidad: t [tt − c2  ] =

1 ∂ [2t 2 ∂t

∂ + c2 2 ] − c2 ∂ [t  ]

para  entre 0 y L y t entre 0 y T cualquiera, suponiendo  solución de (Po ): R T R R L (L,t) (,T)  1 L 2 t +c2 2 (,0) d − c2 0 t  (0,t) dt = 12 0 t (, T)2 +c2  (, T)2 d = 0 2 0 pues tt −c2  = t (, 0) =  (, 0) = t (0, t) = t (L, t) = 0 . El último corchete es ≥ 0 y es función continua de  . Para que la integral se anule debe ser t (, T) =  (, T) = 0 si 0 ≤  ≤ L y para cualquier T. Por tanto (, t) es constante y como (, 0) = 0 debe ser  = 1 −2 ≡ 0 . Hay unicidad.

12

Calor. Para la varilla infinita se prueba que está bien planteado: ¨

(P3 )

t − k = F(, t) ,  ∈ R, t > 0 (, 0) = ƒ () ,  acotada

Basta un solo dato, la distribución inicial de temperaturas, para fijar las posteriores. [No podemos dar arbitrariamente la t (, 0) pues debe ser t (, 0) = kƒ 00 ()+F(, 0) si  es solución ( t = 0 es característica y (P3 ) no es buen problema de valores iniciales)].

Para la varilla acotada hay condiciones de contorno, que pueden ser de varios tipos, con diferentes significados físicos cada uno. Si los extremos toman a lo largo del tiempo las temperaturas dadas h0 (t) y hL (t) se tiene: ¨  − k = F(, t) ,  ∈ (0, L), t > 0 t  (P4 ) (, 0) = ƒ () (0, t) = h0 (t) , (L, t) = hL (t)

Si lo que fijamos es el flujo de calor en los extremos obtenemos: ¨  − k = F(, t) ,  ∈ (0, L), t > 0 t  (P5 ) (, 0) = ƒ ()  (0, t) = h0 (t) ,  (L, t) = hL (t)

[En particular, si h0 (t) = hL (t) = 0 , los extremos están aislados]. Un tercer tipo de condiciones de contorno combina  y  : (0, t)− (0, t) = h0 (t) ó (L, t)+b (L, t) = hL (t) , con , b > 0 . Expresan la radiación libre de calor hacia un medio a temperatura dada (si el extremo  = L está más (menos) caliente que hL entonces irradia (chupa) calor pues  = (hL −)/ b < 0 ( > 0 ) y el flujo de calor es siempre en sentido opuesto al gradiente de las temperaturas; lo mismo sucede con el otro extremo). Probemos que (P4 ) ó (P5 ) (o cualquiera de los otros 7 problemas que aparecen combinando los 3 tipos de condiciones descritos) poseen solución única. Sean 1 y 2 soluciones. Entonces  = 1 −2 satisface el problema con F = ƒ = h0 = hL = 0 . Multiplicando la ecuación por  e integrando respecto a  entre 0 y L se tiene: RL RL R RL  (L,t) d L 2 t d−k 0  d = 21 dt  d−k  (0,t) +k 0 2 d = 0 0 0 R 2 d L ⇒ dt (, t) d ≤ 0 0 [si  = 0 ó  = 0 en los extremos la última implicación es clara, ya que k > 0 ; es también fácil verlo si − = 0,  > 0 ó si +b = 0, b > 0 ; no se puede dar ese paso ni probar la unicidad para  < 0 ó b < 0 (físicamente inadmisible)]. La última integral es una función U(t) no creciente ( U0 ≤ 0 ), que cumple U(0) = 0 (pues (, 0) = 0 ) y es U(t) ≥ 0 (integrando positivo). De las tres cosas se sigue que U(t) ≡ 0 ⇒  ≡ 0 . Unicidad. Una forma alternativa de probar la unicidad de algunos problemas (que además permite atacar la dependencia continua) es utilizar un principio del máximo que se ajuste a ese problema. Por ejemplo, es cierto este principio que no demostramos: Si  es continua en [0, T]×[0, L] y satisface t −k = 0 en (0, T)×(0, L) , los valores máximo y mínimo de  se alcanzan o bien en t = 0 o bien en  = 0 ó bien en  = L . [Si ni la temperatura inicial en la varilla ni la de los extremos supera un valor M , no se puede crear en su interior una temperatura mayor que M (si no hay fuentes externas); la prueba a partir de esto de la unicidad y la dependencia continua de (P4 ) sería parecida a la que veremos para Laplace y no la hacemos; si quisiéramos demostrar la unicidad para los otros problemas de la ecuación del calor, necesitaríamos otros principios del máximo diferentes].

13

Laplace. Los problemas son de contorno. Los dos más importantes son: Problema de Dirichlet:



(PD )

Δ = F en D  = ƒ en ∂D

Problema de Neumann:



(PN )

∂D

Δ = F en D n = ƒ en ∂D

D dominio acotado

Donde D es un abierto conexo acotado de R2 , ∂D es su frontera y n es la derivada en la dirección del vector normal unitario exterior n . Si vemos la ecuación describiendo una distribución estacionaria de temperaturas en una placa, en (PD ) fijamos las temperaturas en el borde y en (PN ) el flujo de calor en dirección normal al borde. Si F , ƒ y ∂D son regulares, el (PD ) es un problema bien planteado. Lo resolveremos en recintos sencillos en el capítulo 3. Probemos ahora su unicidad por dos caminos. Mediante la fórmula de Green (generaliza la integración por partes a R2 ): ZZ I ZZ  2 1 Sea  ∈ C (D)∩C D . Entonces  Δ ddy =  n ds − k∇k2 ddy D

∂D

D

  Identidad Δ = div ∇ −k∇k2 y teorema de la divergencia

ZZ

div f ddy =



I

D

 f n ds . ∂D

Si 1 y 2 son soluciones de (PD ),  = 1 −2 verifica el problema con F = ƒ = 0 . La fórmula de Green dice entonces que: ZZ

k∇k2 ddy = 0 ⇒ ∇ = 0 ⇒  = cte ⇒  ≡ 0 (pues  = 0 en ∂D ). D

Probamos de otra forma la unicidad de (PD ), y también la dependencia continua, con el siguiente principio del máximo para Laplace (intuitivamente claro: la temperatura de una placa no supera la máxima de su borde) que no demostramos: Si  satisface Δ = 0 en un dominio acotado D y es continua en D entonces  alcanza su máximo y su mínimo en la ∂D . Como  = 1 − 2 , con 1 , 2 soluciones, verifica



Δ = 0 en D , se tiene:  = 0 en ∂D

0 = m´ın  ≤ m´ın  ≤ m´ x  ≤ m´ x  = 0 ⇒  ≡ 0 ∂D

Si

∗

D

es solución de (PD ) con

 = −∗ →



D

=ƒ∗

∂D

en ∂D y sea |ƒ −ƒ ∗| < ε en ∂D . Entonces:

Δ = 0 en D ⇒ −ε < m´ın  ≤  ≤ m´ x  < ε ⇒ |−∗| < ε en D.  = ƒ −ƒ ∗ en ∂D ∂D ∂D

Si la diferencia entre datos es pequeña, lo es la diferencia entre soluciones. Para el (PN ) la situación es más complicada. En primer lugar, para que (PN ) pueda tener solución es necesario que F y ƒ satisfagan la relación: ZZ

F ddy = D

I

ƒ ds ∂D

[basta aplicar el teorema de la divergencia a ∇ para verlo].

Además, si (PN ) tiene solución, esta contiene una constante arbitraria [lo que era esperable, ya que ecuación y condición de contorno sólo contienen derivadas]. También se ve que si queremos repetir la prueba de la unicidad con la fórmula de Green, podemos dar todos los pasos excepto la última implicación. Se dice que el problema de Neumann (PN ) tiene unicidad salvo constante. [Además se imponen a Laplace condiciones de contorno del tipo  + n = ƒ ,  > 0, y también tienen interés los problemas en que en parte de ∂D hay condiciones tipo Dirichlet, en otra tipo Neumann... (todos son problemas bien planteados). También se tratan problemas en D no acotados. Para tener unicidad, además de los datos en ∂D , hay que exigir un ’adecuado comportamiento’ en el infinito].

14

2. Problemas de contorno para EDOs Un problema de valores iniciales para una ecuación ordinaria con coeficientes continuos tenía solución única. En concreto, la solución de una ecuación lineal de segundo orden queda determinada fijando el valor de la solución y de su derivada en un punto dado. Las cosas cambian si imponemos las condiciones en los dos extremos de un intervalo [, b] . Estos problemas de contorno presentan propiedades muy diferentes. Por ejemplo, un problema tan sencillo y regular como  00 y () + y() = 0 y(0) = 0, y(π) = 0 tiene infinitas soluciones: y = C sen  , con C constante arbitraria. Los problemas de contorno que nos aparecerán al utilizar el método de separación de variables del capítulo 3 dependerán de un parámetro λ . Para analizar sus propiedades convendrá escribir la ecuación de la siguiente forma: ¨ (py 0 )0 − qy + λry = 0 (P)

αy() − α 0 y 0 () = 0 βy(b) + β0 y 0 (b) = 0

Ante un problema como (P) nuestro objetivo será hallar los valores de λ para los que hay soluciones no triviales (autovalores de (P)) y esas soluciones no triviales correspondientes a cada λ (autofunciones de (P) asociadas a λ ). Observemos que y = 0 es siempre solución trivial de (P) y que, por ser lineales y homogéneas la ecuación y las condiciones de contorno, si y() es solución de (P) también lo es Cy() para cualquier C . Comenzaremos en 2.1 estudiando varios ejemplos para la ecuación y 00 +λy = 0 (la más sencilla y la que más veces aparece separando variables). En ellos existirá una sucesión infinita de autovalores y las autofunciones asociadas a λ distintos serán ortogonales entre sí. Después precisaremos para qué tipo de problemas de contorno (P) se mantienen esas propiedades. Serán los que se llaman problemas de Sturm-Liouville separados. Hablaremos también brevemente de los problemas periódicos y de los singulares. En la sección 2.2 veremos que cualquier función ƒ continua y derivable a trozos se puede escribir como una serie de autofunciones de un problema de SturmLiouville, lo que será muy útil en la resolución de EDPs. Este resultado generaliza los desarrollos de Fourier en series de senos y cosenos, cuyas propiedades básicas también veremos. Aunque la convergencia natural de estas series sea la llamada ’convergencia en media’, nosotros nos limitaremos a tratar la convergencia puntual y uniforme. Por último, en 2.3, estudiaremos problemas en que la ecuación (o alguna condición de contorno) sea no homogénea. Para ellos, ni y = 0 es solución, ni lo son los múltiplos de una solución dada. La existencia de soluciones dependerá de si existen o no soluciones no triviales del homogéneo. Tendrán solución única en el último caso, e infinitas o ninguno si el homogéneo tiene infinitas. Cuando haya solución única daremos una fórmula para las soluciones del no homogéneo en términos de la llamada función de Green. La notación en todo este capítulo será y() , pero en separación de variables las funciones de nuestros problemas de contorno serán X() , Y(y) , R(r) , Θ(θ) , . . .

15

2.1. Problemas de Sturm-Liouville homogéneos Antes de dar la teoría general, hallemos los autovalores y autofunciones de dos problemas de contorno homogéneos para la sencilla EDO lineal y 00 +λy = 0 . p Como su polinomio característico es μ2 +λ = 0 → μ = ± −λ , la solución general de la ecuación será diferente según λ sea menor, igual ó mayor que 0 . 

Ej 1.

(P1 )

y 00 + λy = 0 y(0) = 0, y(π) = 0

Imponemos las condiciones de contorno en cada caso:

p Si λ < 0 la solución general es y = c1 ep + c2 e−p , con p = −λ > 0 . « y(0) = c1 + c2 = 0 → c2 = −c1 & y(π) = c1 eπp +c2 e−πp = 0 c1 [eπp −e−πp ] = 0

e!p e-!p

Por tanto c1 = c2 = 0 (pues eπp 6= e−πp si p > 0 ).

p

Ningún λ < 0 es autovalor. Si λ = 0 es y = c1 + c2  →

y(0) = c1 = 0 y(π) = c1 +c2 π = 0



→ y ≡ 0 . λ = 0 tampoco es autovalor.

p y(0) = c1 = 0 ↓ Y para λ > 0 es y = c1 cos +c2 sen  , con  = λ > 0 → y(π) = c2 sen π = 0 Para tener solución no trivial debe ser c2 6= 0 . p Para ello, π = π λ = nπ → λn = n2 , n = 1, 2, . . .

1

Para cada uno de estos λn hay soluciones no triviales

0



y

1

!

y2

y

3

yn = c2 sen n ≡ {sen n} . Rπ Observemos que se cumple si m 6= n : 0 sen n sen m d = 0 , h i Rπ   sen(n−m) sen(n+m) π pues 12 0 cos(n−m)−cos(n+m) d = 12 − =0. n−m n+m 0

Resumiendo: (P1 ) tiene una sucesión infinita de autovalores λn = n2 , n = 1, 2, . . . . Las autofunciones yn = {sen n} asociadas a cada λn forman un espacio vectorial de dimensión 1 . La n-sima autofunción posee n−1 ceros en (0, π) . Las autofunciones distintas son ortogonales en [0, π] [respecto del producto escalar Rπ (, ) = 0   d ]. 

Ej 2.

(P2 )

y 00 + λy = 0 y 0 (0) = 0, y 0 (π) = 0

Imponemos estas nuevas condiciones:

λ0 →

y 0 (0) = c2 = 0 ↓ y 0 (π) = −c1 sen π = 0



«

→ c2 = c1 → c1 [eπp −e−πp ] = 0 → y ≡ 0 .

→ λ = 0 autovalor con autofunción y0 = c1 . 

1

→ λn = n2 , yn = c1 cos n .

Los λn = n2 y las yn = {cos n} , n = 0, 1, 2, . . .

cos x

!

0 cos 2x

tienen las mismas propiedades resaltadas para el problema anterior. Por ejemplo, la autofunción que ocupa el lugar n se anula n−1 veces y sigue habiendo ortogonalidad: h i Rπ Rπ sen(n−m) sen(n+m) π cos n cos m d = 21 0 [cos(n−m)+cos(n+m)] d = 21 + n+m =0 . n−m 0 0

16

Pasemos a tratar ya el problema general. Sea la ecuación lineal de segundo orden dependiente de un parámetro real λ : y 00 + ()y 0 + b()y + λc()y = 0 , con , b, c ∈ C[, b] , c() > 0 en [, b] . La reescribimos de otra forma,Rque se suele denominar ’autoadjunta’ o ’SturmLiouville’. Multiplicando por e  se tiene R R h R i0  0 e  y 0 + b e  y + λ c e  y ≡ py 0 − qy + λry = 0 , con p ∈ C1 , q, r ∈ C , p, r > 0 . Las condiciones que más nos van a interesar son las condiciones separadas (cada una afecta a los valores de y o de y 0 sólo en uno de los extremos del intervalo): Se llama problema de Sturm-Liouville separado regular a uno del tipo: ¨ 0 [py 0 ] − qy + λry = 0 (Ps ) αy()−α 0 y 0 () = 0 , βy(b)+β0 y 0 (b) = 0 (condiciones separadas) donde p ∈ C1 [, b] , q, r ∈ C[, b] , p, r > 0 en [, b] , |α|+|α 0 | , |β|+|β0 | 6= 0 . [Las últimas condiciones lo que dicen es que α y |α 0 | , |β| y |β0 | no se anulan a la vez].

Los ejemplos 1 y 2 eran unos (Ps ). Este teorema generaliza sus propiedades: Los autovalores de (Ps ) son una sucesión infinita λ1 < λ2 < · · · < λn < · · · que tiende a ∞. Las autofunciones {yn } forman un espacio vectorial de dimensión 1 y cada yn posee exactamente n − 1 ceros en (, b) . Las autofunciones asociadas a autovalores distintos son ortogonales Teor 1. en [, b] respecto al peso r , es decir: Rb 〈yn , ym 〉 ≡  r yn ym d = 0 , si yn , ym están asociadas a λn 6= λm . Si αα 0 ≥ 0 , ββ0 ≥ 0 y q() ≥ 0 en [, b] entonces todos los λn ≥ 0 . En particular, para y() = y(b) = 0 [o sea, si α 0 = β0 = 0 ] todos los λn > 0 . No probamos la primera afirmación y la de los ceros que son difíciles. Sí el resto. β

Si y cumple (Ps ): y 0 () = αα0 y() , α 0 6= 0 ; y 0 (b) = − β0 y(b) , β0 6= 0 [y es y() = 0 , si α 0 = 0 ; y(b) = 0 , si β0 = 0]. Si y , y ∗ están asociadas al mismo λ , se deduce que dependen linealmente, pues su wronskiano se anula en  (o también en b ): |W|(y, y ∗ )() = yy ∗ 0 −y 0 y ∗ = = 0 , si α 0 = 0 o si α 0 6= 0 . Sean ahora yn , ym asociadas, respectivamente, a λn y λm : « λn ryn = −[pyn0 ]0 +qyn Multiplicando por ym e yn , 0 ]0 +qy restando e integrando: λm rym = −[pym m Rb Rb    0 )0 −y (py 0 )0 d partes 0 − y y0 ) b = 0 [λn −λm ]  ryn ym d =  yn (pym = p(yn ym m m n  n pues |W|(yn , ym ) = 0 en  y en b . Por tanto, si λn 6= λm se tiene que 〈yn , ym 〉 = 0 . Si y es la autofunción asociada a λ y αα 0 ≥ 0 , ββ0 ≥ 0 , q ≥ 0 entonces Rb Rb Rb    b λ  ry 2 d =  − y(py 0 )0 +qy 2 d =  p(y 0 )2 +qy 2 d − pyy 0  ≥ 0 ⇒ λ ≥ 0 , Rb Rb  pues  ry 2 d > 0 ( r > 0 ) ,  p(y 0 )2 +qy 2 d ≥ 0 ( p > 0 , q ≥ 0 ) , −[pyy 0 ](b) =

¨ β

β0

p(b)[y(b)]2 ≥ 0 si β0 6= 0

0 si β0 = 0

,

[pyy 0 ]() =

¨ α

α0

Si y() = y(b) = 0 , y = {1} no es autofunción ⇒ y 0 ≡ 6 0 ⇒

17

p()[y()]2 ≥ 0 si α 0 6= 0

0 si α 0 = 0

Rb 

p(y 0 )2 > 0 ⇒ λ > 0 .

.

Ej 3.

 00 y + λy = 0 (P3 ) y 0 (0) = y(1) = 0

(casi en forma autoadjunta:

 0 0 y + λy = 0 ; es r ≡ 1 ).

Tendrá las propiedades del teorema 1. Busquemos sus λn . Como αα 0 = ββ0 = 0 , q ≡ 0 , nos limitamos a los λ ≥ 0 . [Ahora ya sabemos que podíamos haber hecho esto en el ejemplo 2, y que en el 1 hubieran bastado los λ > 0 ; que conste que hay problemas con λ < 0 ]. λ = 0 : y = c1 +c2  →

y 0 (0) = c2 = 0 y(1) = c1 +c2 = 0



→ y ≡ 0 . λ = 0 no es autovalor.

λ > 0 : y = c1 cos +c2 sen  . y 0 (0) = 0 → c2 = 0 → y(1) = c1 cos  = 0 n o (2n−1)2 π 2 → n = 2n−1 π , λn = , yn = cos 2n−1 π , n = 1, 2, . . . 2 4 2 R1 El teorema asegura que las {yn } son ortogonales: 0 yn ym d = 0 , n 6= m (sería fácil comprobarlo), y que la autofunción n-sima (como le ocurre a las tres dibujadas) tiene n−1 ceros en (0, 1) . Ej 4.

(P4 )

Como αα 0 = 0 , ββ0 > 0 , q ≡ 0 , volvemos mirar sólo los λ ≥ 0 .

 00 y + λy = 0 y 0 (0) = y 0 (1)+y(1) = 0

λ = 0 : y = c1 +c2  →

y 0 (0) = c2 = 0 y 0 (1)+y(1) = c1 +2c2 = 0



→ y ≡ 0 . λ = 0 no autovalor.

λ > 0 : y = c1 cos +c2 sen  . y 0 (0) = c2 = 0 → y 0 (1)+y(1) = c1 [cos − sen ] = 0 . No podemos hallar exactamente los λn , pero tn n = 1

n

lo cumplen infinitos n (anulan el corchete infinitos n ), que sólo se pueden hallar aproximadamente. La yn para cada λn = n2 es {cos n } . Estas yn serán ortogonales.

1/w 0 w1

[La mayoría de los problemas de S-L no son resolubles, pues pocas lineales de segundo orden lo son elementalmente (las de coeficientes constantes y pocas más), y aunque lo sean puede ocurrir lo que en este ejemplo]. Ej 5.

(P5 )

 00 y − 2y 0 + λy = 0 y 0 (0) = y 0 (1) = 0



μ2 −2μ+λ = 0 , p μ = 1± 1−λ .

!

w2

w3

w

tan w

 −2 0 0 + λe−2 y = 0 e y

Sabemos que los λ ≥ 0 , pero esto no ahorra cálculos, pues y hay que mirar λ 1 : p λ < 1 : y = c1 e(1+p) + c2 e(1−p) , y 0 = c1 (1+p) e(1+p) + c2 (1−p) e(1−p) , p = 1−λ → c1 [1+p] + c2 [1−p] = 0 c1 [1+p]e1+p +c2 [1−p]e1−p = 0

«

→ c2 (1−p)e[e−p −ep ] = 0 → p = 1 ( λ = 0 ), y0 = {1} . c +c = 0



→ y ≡ 0 . λ = 1 no autovalor. λ = 1 : y = [c1 +c2 ] e , y 0 = [c1 +c2 +c2 ] e → 1 2 c1 +2c2 = 0 p y = [c1 cos +c2 sen ] e ,  = λ−1  λ>1 : 0  → y 0 (0) = c1 +c2  = 0 → y = (c1 +c2 ) cos +(c2 −c1 ) sen  e y 0 (1) = c2 e(1+2 ) sen  = 0 →   = nπ, n = 1, 2, . . . → λn = 1+n2 π 2 , yn = e [sen nπ−nπ cos nπ] , n = 1, 2, . . . Las autofunciones serán ortogonales respecto al peso r() = e−2 : R1 e− [sen nπ−nπ cos nπ] d = 0 0 R1 [sen nπ−nπ cos nπ][sen mπ−mπ cos mπ] d = 0 (m 6= n) 0  2 00  y + y 0 + λy = 0 y(1) = y(e) = 0

R

R d

0

y

+ λ  = 0 . Es r() = 1 .  Es problema separado regular p, r > 0 en [1, e] . p Ecuación de Euler: r(r −1)+r +λ = 0 → r = ± −λ . Basta mirar los λ > 0 :   c =0 y = c1 cos( ln )+c2 sen( ln ) , c1 sen  = 0 λn = n2 π 2 , yn = sen(nπ ln ) , n = 1, 2, . . .

Ej 6.

(P6 )

p() = e



=e



= →



y 0

2

Como siempre, las autofunciones son ortogonales:

18

R e sen(nπ ln ) sen(mπ ln ) d 1



= 0 , m 6= n .

Separando variables nos aparecerán también problemas de contorno como el siguiente, que no es separado, pues sus condiciones de contorno mezclan valores en los dos extremos del intervalo. En concreto, este es un problema periódico: Ej 7.

(P7 )

λ 0 , eπp −e−πp eπp −e−πp = 2(e −e

el sistema sólo tiene la solución trivial c1 = c2 = 0 . No hay autovalores negativos. c −c π = c1 +c2 π



2c2 sen π = 0 2c1  sen π = 0

«

λ = 0 → c1 = c2 2 2 λ>0 →

se satisface para c2 = 0 y cualquier c1 : y0 = c1 = {1} . → sen π = 0 → λn = n2 , n = 1, 2, . . .

Para esos λn las condiciones de contorno se cumplen para todo c1 y todo c2 . Las autofunciones son, pues: yn = c1 cos n + c2 sen n ≡ {cos n, sen n} . [Es claro que exigir simplemente que y sea 2π-periódica lleva directamente a los mismos autovalores y autofunciones]. Las propiedades de (P7 ) son algo distintas de las los problemas separados: sigue habiendo una sucesión infinita de autovalores λn = n2 , n = 1, 2, . . . tendiendo a ∞, pero las autofunciones y0 = {1} , yn = {cos n, sen n} forman, si n > 0 , un es  pacio vectorial de dimensión 2. Utilizando sen  cos b = 21 sen(+b)+sen(−b) (y las relaciones ya vistas para sen  sen b y cos  cos b y las fórmulas del ángulo doble) se comprueba que sigue siendo cierto que autofunciones diferentes son ortogonales entre sí. Los problemas de Sturm-Liouville pueden generalizarse. En la demostración del teorema se  b aprecia que lo esencial para la ortogonalidad es que p|W|(yn , ym )  = 0 ; esto sucede para otros tipos de condiciones de contorno (y para otros muchos no) además de las separadas. Por ejemplo ocurre en los llamados problemas periódicos que generalizan el (P7 ): ¨ [py 0 ]0 − qy + λry = 0 , con p() = p(b) , p ∈ C1 [, b] , q, r ∈ C[, b] , p, r > 0 en [, b] (Pp ) y() = y(b), y 0 () = y 0 (b) (condiciones periódicas) Para (Pp ) no se anula el wronskiano de dos soluciones ni en  ni en b  (y por  eso hay espacios  de autofunciones de dimensión 2), pero es claro que p|W|(yn , ym ) (b) = p|W|(yn , ym ) () .  b Más en general, se llaman problemas autoadjuntos aquellos tales que p|W|(, )  = 0 para todo par de funciones ,  que cumplan sus condiciones de contorno. Las autofunciones de estos problemas más generales (que en libros avanzados de ecuaciones se ve que tienen propiedades similares a las de los separados) son, pues, ortogonales. Pero no nos ocupamos más de ellos, pues los problemas que nos aparecerán en el capítulo siguiente serán todos separados (o el (P7 ) de arriba). Rb 0 [El término ‘autoadjunto’ se debe a que llamando L[y] = −[py 0 ] +qy y (,) =   d ,   se tiene que L[],  = , L[] para todo par de funciones  ,  que cumplen las condiciones de contorno: el operador L es ‘autoadjunto’ en ese conjunto de funciones]. Ej 8.

(P8 )

 00 y + λy = 0 y(0) = y(π), y 0 (0) = −y 0 (π)

Se tiene



   p|W|(, ) (π) = − p|W|(, ) (0) .

El problema, pues, no es autoadjunto. Operando como en el ejemplo 7 es fácil ver que las cosas son muy diferentes: cualquier λ (menor, igual o mayor que 0 ) es autovalor n  n o  o  asociado, respectivamente, a ch p(− π2 ) , {1} ó cos (− π2 ) y en general es falso que las autofunciones asociadas a λ distintos sean ortogonales.

19

Resolviendo algunas EDPs aparecerán problemas singulares de Sturm-Liouville que no reúnen todas las condiciones de los regulares: p ó r se anulan o no son continuas en algún extremo del intervalo, el intervalo es infinito. . . Resolvamos tres de ellos (el 9 surge, por ejemplo, tratando ondas o calor en el espacio, el 10 si esas ecuaciones son en el plano y el 11 para Laplace en la esfera), en los que en uno o ambos extremos es p = 0 . En esos extremos las condiciones de contorno de un (Ps ) son demasiado fuertes para tener autovalores y autofunciones como en los regulares y se sustituyen por acotación, de forma que siga habiendo ortogonalidad, es decir, según vimos en la demostración del teorema 1, que se cumpla:   0 − y y 0 ) b = (λ − λ )〈y , y 〉 . 0 = p (yn ym m n  n m n m 

Ej 9.

(P9 )

R

y 00 + 2y 0 + λy = 0 y acotada en  = 0, y(1) = 0

0 e  = 2  y 00 + 2 y 0 +λy = 0 −→ 2 y 0 +λ2 y = 0

.

Haciendo el cambio  = y la ecuación se convierte en 00 + λ = 0 → la solución general de la inicial para λ > 0 es y = c1 cos + c2 sen . y acotada → c1 = 0 ; y(1) =0 → sen  = 0 → λn = n2 π 2 , n = 1, 2, . . . , yn =

 sen nπ 

[ortogonales, como es fácil comprobar, respecto al peso r() = 2 ]. Es fácil ver directamente que no hay λ ≤ 0 , o podemos evitar las cuentas pues la prueba de esa parte del teorema se puede adaptar a este problema singular, con lo que λ > 0 . [También se podría haber observado que las condiciones que quedan tras el cambio son (0) = 0·y(0) = 0 , (1) = 1·0 = 0 → n = {sen nπ} , y haber deshecho el cambio]. [Si hubiésemos impuesto y(0) = 0 , y(1) = 0 la única solución sería y ≡ 0 ∀λ ; las condiciones para este problema singular habrían sido demasiado fuertes]. 

Ej 10.

(P10 )

y 00 + y 0 + λy = 0 y acotada en  = 0, y(1) = 0

0  → y 0 + λy = 0 .

p Se puede probar que λ > 0 . Haciendo el cambio de variable independiente s = λ  la ecuación se convierte en la de Bessel de orden 0 : p p dy d2 y s ds2 + ds + sy = 0 → y = c1 J0 (s) + c2 K0 (s) = c1 J0 ( λ ) + c2 K0 ( λ ) La primera condición de contorno impone que c2 = 0 ( K0 no está acotada p en  = 0 ). De la otra se deduce que c1 J0 ( λ ) = 0 . Así pues, los autovalores son los λ1 < λ2 0 t  [P1 ] (, 0) = ƒ () (0, t) = (L, t) = 0

Sea

[1] [2] [3]

Busquemos soluciones de la forma (, t) = X() T(t) . Debe ser entonces: X 00

T0

XT 0 −kX 00 T = 0 , es decir, X = kT

mejor que

kX 00 X

0

= TT



.

Como el primer miembro es función sólo de  y el segundo lo es sólo de t ambos deben ser iguales a una constante: 1 T0 X 00 = k T = −λ (ponemos −λ para que nos quede la ecuación habitual). X



Así obtenemos una EDO para X() y otra para T(t) :

X 00 + λX = 0 T 0 + λkT = 0

[4] . [5]

El producto de una solución de [4] por una de [5] es entonces una solución de [1], cualquiera que sea λ . Sin embargo, nos interesan sólo las soluciones que satisfacen las condiciones de contorno: (0, t) = X(0) T(t) = 0 ⇒ X(0) = 0 (si fuese T(t) ≡ 0 tendríamos  ≡ 0 y no se cumpliría la condición inicial). Análogamente, debe ser X(L) = 0 . Nos interesan, pues, las soluciones (no triviales) del problema de Sturm-Liouville:  00  X + λX = 0 n2 π 2 , n = 1, 2, . . . . → λn = 2 , Xn = sen nπ L L X(0) = X(L) = 0 [Si el intervalo para la  fuese no acotado, no saldría un problema de contorno de los de 2.1; se acudiría entonces a la transformada de Fourier de 3.3].

Llevando estos valores de λ a la ecuación [5] obtenemos: n o 2 2 2 2 2 T 0 = − knL2π T → Tn = e−kn π t/ L . Hemos deducido hasta ahora que para cada n las funciones o n 2 2 2 , n = 1, 2, . . . n (, t) = e−kn π t/ L sen nπ L son soluciones de [1] que satisfacen también las condiciones de contorno [3]. Por la linealidad de la ecuación y de las condiciones, sabemos que una combinación lineal finita de estas n también cumple [1] y [3]. Pero consideremos la serie infinita: (, t) =

∞ X

cn n (, t) =

n=1

∞ X

cn e−kn

2 π 2 t/ L2

sen nπ L

[6]

n=1

y supongamos que converge y que satisface tambien [1] y [3]. Si queremos que además se cumpla la condición inicial [2] debe ser: ∞ X n=1

cn sen nπ = ƒ () ⇒ L

cn =

2 L

RL 0

ƒ () sen nπ d , n = 1, 2, ... L

[7]

pues la serie es precisamente la serie de Fourier en senos en [0, L] de ƒ .

30

Tenemos una posible solución de [P1 ]: la serie [6] con coeficientes dados por [7]. Pero esta solución es sólo formal mientras no se pruebe que la convergencia de la serie es suficientemente buena para asegurar que realmente cumple el problema (una suma infinita de funciones derivables podría ser no derivable). Si ƒ es C1 a trozos, se puede probar que converge en [0, L]×(0, ∞) y que t y  se pueden calcular derivando término a término (y así se satisface la ecuación). De hecho, se ve que la  definida por la serie es C∞ en (0, L) × (0, ∞) . En  = 0 y  = L está claro que la  se anula. Y la condición inicial se satisface en el siguiente sentido: la (, t) definida por la serie para t > 0 y por (, 0) = ƒ () es una función continua salvo en los puntos de t = 0 en que la ƒ es discontinua. [Aunque ƒ sea discontinua, la solución es C∞ para t > 0 arbitrariamente pequeño: a diferencia de lo que ocurrirá con las ondas, las discontinuidades desaparecen aquí instantáneamente].

Como cada n → 0 y es buena la convergencia, se tiene: (, t) −→ 0 ∀ ∈ [0, L] t→∞

t→∞

(la barra tiende a ponerse a 0 grados, como era de esperar). Suponemos ahora que las condiciones de contorno son no homogéneas: ¨  − k = 0 ,  ∈ (0, L), t > 0 t  [P2 ] (, 0) = ƒ () (0, t) = T1 , (L, t) = T2 , T1 , T2 constantes

Comenzaremos haciendo las condiciones de contorno homogéneas. 

Una () que las satisface es la recta:  = T1 + (T2 −T1 ) L . Haciendo  = − , nuestro problema se convierte en otro como el [P1 ]: ¨  −k = 0 ,  ∈ (0, L), t > 0 t



(, 0) = ƒ () − () (0, t) = (L, t) = 0 

(, t) = T1 + (T2 −T1 ) L +

∞ X

.

cn e−kn

Por tanto:

2 π 2 t/ L2

sen nπ L

=  +,

n=1

con cn =

2 L

RLh 0

i d , n = 1, 2, . . . ƒ ()−T1 −(T2 −T1 ) L sen nπ L

Esta () tiene un significado físico claro: como  → 0 cuando t → ∞ , () es la distribución estacionaria de temperaturas hacia la que tienden las temperaturas en la varilla, independientemente de las condiciones iniciales. [Si T1 y T2 fuesen funciones de t , la (, t) definida arriba seguiría cumpliendo las condiciones de contorno, pero la ecuación para la  obtenida haciendo el cambio sería no homogénea, es decir, del tipo de las que vamos a resolver a continuación; dicha  , función de t , pierde además su significado físico]. [Si separásemos variables directamente en [P2 ] llegaríamos a X(0) T(t) = T1 (y otra análoga para  = L ), expresión de la que no deduciríamos nada].

Ej 1.

u(x,0) distr. estac.

¨  −  = 0 ,  ∈ (0, 1), t > 0 t  (, 0) = 1 (0, t) = 1 , (1, t) = 0

Operando se llega a: (, t) = 1− +

1 w(x,0)

∞ 2 X (−1)n+1 π n

e−n

2

π2 t

sen(nπ)

n=1

y la distribución estacionaria hacia la que tiende es () = 1− . [No nos importa que para t = 0 sea incoherente el dato inicial con el de contorno en  = 1 ; la solución será, como hemos dicho, una función continua para t > 0 y para el cálculo de las integrales el valor en un punto no influye].

31

Veamos ahora cómo resolver el problema no homogéneo: ¨  − k = F(, t) ,  ∈ (0, π), t > 0 t  [P3 ] (, 0) = ƒ () (0, t) = (π, t) = 0 (Tomamos L = π para abreviar las expresiones, pero no se pierde generalidad pues un sencillo cambio de variable lleva [0, L] a [0, π ] ).

Aunque no es necesario, descomponemos [P3 ] en dos subproblemas [P1 ] y [PF ], el primero con F = 0 (ya resuelto) y el otro con ƒ = 0 : ¨  − k = F(, t) ,  ∈ (0, π), t > 0 t  [PF ] (, 0) = 0 (0, t) = (π, t) = 0

Las autofunciones del [P1 ] eran {sen n} , n = 1, 2, . . . Probamos en [PF ] la siguiente serie que ya satisface las condiciones de contorno (y que está relacionada con la ecuación): F (, t) =

∞ X

con las Tn (t) funciones a determinar.

Tn (t) sen n

n=1 2

[Si tomásemos Tn = cn e−kn t , funciones que aparecieron resolviendo [P1 ], la  satisfaría la ecuación con F ≡ 0 ; debemos darle más libertad a las Tn para conseguir al meter la serie en la ecuación una F ≡ 6 0 ]. Suponiendo que la serie se puede derivar término a término: ∞ X



 Tn0 (t) + kn2 Tn (t) sen n = F(, t) =

Bn (t) =

Bn (t) sen n

n=1

n=1

con

∞ X

2 π

Rπ 0

F(, t) sen n d

(desarrollo de F en senos para t fijo).

Entonces para cada n debe ser: Tn0 + kn2 Tn = Bn (t) . Y del dato inicial: F (, 0) =

∞ X

Tn (0) sen n = 0 deducimos Tn (0) = 0 .

n=1

Resolviendo la EDO lineal para Tn con este dato inicial (utilizando la fórmula de variación de las constantes con datos iniciales; para una F concreta a lo mejor hay métodos más rápidos) hallamos la Tn y por tanto: F (, t) =

∞ X

hZ t

n=1

0

e−kn

2 (t−s)

i Bn (s) ds sen n

Serie que es solución formal de [PF ] (como siempre faltaría comprobar que es solución de verdad, que es realmente lo que sucede si la F es decente). La solución  de [P3 ] (por la linealidad de la ecuación y las condiciones iniciales y de contorno) será la suma de F y de la serie solución de [P1 ] que obtuvimos anteriormente. [Si hubiésemos abordado directamente la búsqueda de la solución de [P2 ] sin descomponerlo en dos, la única diferencia sería que las condiciones iniciales Tn (0) , en vez de ser 0 , serían los coeficientes del desarrollo en senos de ƒ () , es decir, deberíamos resolver los problemas de valores iniciales ¨ Rπ Tn0 + kn2 Tn = Bn (t) , con cn = 0 ƒ () sen n d ]. Tn (0) = cn [Si las condiciones de contorno de [P3 ] fuesen no homogéneas empezaríamos como en [P2 ] con un cambio  = − para conseguir que lo fuesen].

32

Resolvemos ahora el problema homogéneo para la varilla con extremos aislados: ¨  − k = 0 ,  ∈ (0, L), t > 0 t  [P4 ] (, 0) = ƒ ()  (0, t) =  (L, t) = 0

Separando variables (es la misma ecuación) aparecen, claro, las mismas EDOs del problema [P1 ]. Pero ahora cambian las condiciones de contorno de la X :  00 2 2    X + λX = 0 X0 = {1} . → λn = nLπ2 , n = 0, 1, 2, . . . , Xn = cos nπ L X 0 (0) = X 0 (L) = 0   2 2 2  Para estos valores de λ se tienen las Tn = e−kn π t/ L T0 = {1} . (, t) =

Así pues, probamos la serie:

co

+

2

∞ X

cn e−kn

2 π 2 t/ L2

cos nπ L

n=1

Queremos que se satisfaga la condición inicial: (, 0) =

co 2

+

∞ X

cn cos nπ = ƒ () . L

n=1

Los cn desconocidos serán los coeficientes de la serie de Fourier en cosenos de ƒ : cn =

2 L

RL 0

d , n = 0, 1, 2, . . . ƒ () cos nπ L

Observemos que de nuevo la solución se puede interpretar como la suma de una distribución de temperaturas estacionaria [ co / 2 ] y una distribución transitoria que tiende a 0 cuando t → ∞ . Era esperable que toda la varilla (aislada) tendiese a la misma temperatura y que esta fuese el valor medio de las temperaturas iniciales: RL co = 1L 0 ƒ () d 2 Si las condiciones de contorno hubiesen sido  (0, t) = F0 ,  (L, t) = FL (flujo constante dado en los extremos), no se puede encontrar una () que sea una recta (en general) y, al hacer  = − , la ecuación en  que resulta es no homogénea. Para resolver un problema no homogéneo con estas condiciones en la  , probaríamos la serie construida con las autofunciones que hemos hallado: F (, t) = T0 (t) +

∞ X

Tn (t) cos nπ , L

n=1

y resolveríamos las EDOs que surgirían, con los datos iniciales deducidas del dato inicial de la EDP.

Ej 2.

Tanteando con  = A2 +B obtenemos que  = 2 cumple las condiciones de contorno.

¨  −  = 0 ,  ∈ (0, 1), t > 0 t  (, 0) = 0  (0, t) = 0 ,  (1, t) = 2

Y haciendo  = −2 se tiene el problema:

¨ t −  = 2 ∞ ∞ X X (, 0) = −2 →  = T0 (t)+ Tn (t) cos nπ → T00 + [Tn0 +n2 π 2 Tn ] cos nπ = 2 n=1 n=1  (0, t) =  (1, t) = 0 [función que ya está desarrollada en cosenos]. ∞ ∞ R1 X X Como: T0 (0) + Tn (0) cos nπ = −2 = − 13 + n cos nπ , con n = −2 0 2 cos nπ d , n=1

n=1

¨

integrando y resolviendo:

T00

=2

¨

T0 (0) = − 31

(, t) = 2t + 2 −

1 3

,



Tn0 +n2 π 2 Tn = 0 Tn (0) = cn

n ∞ 4 X (−1) 2 π2 n n=1

e−n

2

π2 t

, se llega a cos nπ

[  → ∞ pues por el extremo derecho estamos constantemente metiendo calor: su flujo va en sentido opuesto al gradiente de temperaturas].

33

En el quinto problema para la ecuación del calor que tratamos la condición de  = 0 representa la radiación libre hacia un medio a 0 grados (el flujo de calor es proporcional a la temperatura en  = 0 ; si es positiva el calor sale y entra si es negativa). En  = 1 fijamos el flujo de calor que entra en la varilla (al ser  > 0 el flujo es hacia la izquierda).  t − k = 0 ,  ∈ (0, 1), t > 0  (, 0) = ƒ () [P5 ]   (0, t)−(0, t) = 0,  > 0  (1, t) = 1 Vimos en 1.3 que tiene solución única. Para resolverlo lo primero, como siempre, es conseguir condiciones de contorno homogéneas. Tanteando con rectas  = M+N , se llega a que  = + 1 las satisface. ¨ t − k = 0 =− →

(, 0) = ƒ () −  − 1  (0, t)−(0, t) =  (1, t) = 0

Separando variables se llega a T 0 +λkT = 0 y al problema de contorno:  00 X + λX = 0 que sabemos que no tiene autovalores < 0 . X 0 (0)−X(0) = X 0 (1) = 0 c2 −c1 = 0 → λ = 0 no autovalor. c2 = 0  p c2 −c1 = 0 Si λ > 0 : X = c1 cos +c2 sen  ,  = λ → c2 cos −c1 sen  = 0

Si λ = 0 : X = c1 +c2  →



 → c2 =  c1

 → c1 ( cos − sen ) = 0 → tn  =  .

tan w

Esta ecuación transcendente no se puede resolver pero está claro que hay infinitos λn = n2 > 0 (aproximables numéricamente).

0 w1

Las autofunciones se podrían poner: n o cos n  +  sen n  ,

!

a/w w3

w2

w4

n

pero quedan más compactas en la forma:  Xn = cos n (−1) . ∞ X

 Yendo a la ecuación en T : Tn = e−λn kt →  =

cn e−λn kt Xn () .

n=1

Imponiendo el dato inicial se determinan los cn [son aproximados al serlo los λn ]: ∞ X

4

n cn Xn () = ƒ ()−− 1 → cn = 2 +sen 2n n n=1

pues

R1 0

Xn ()

2

d =

1 2

+

1 4n

h

sen 2n (−1)

R 1h

i1 0

0

ƒ () −  −

1 

→ +

1 

cuando t → ∞

[la temperatura final de la varilla, como era esperable, es menor cuanto mayor sea el  , es decir, cuanto más fuertemente irradie su extremo].

34

i

Xn () d ,

.

Sí es calculable exactamente la distribución estacionaria hacia la que tienden las temperaturas en la varilla: (, t) = (, t) +  +

1 

x + 1aa

crece

0

1

Dos ejemplos más de separación de variables para el calor (o similar). El primero nos sirve para reflexionar sobre los cambios que hacen las condiciones de contorno homogéneas (siempre necesario) y en el otro vemos que se puede aplicar el método en otras ecuaciones separables (y no sólo en la del calor).

Ej 3.

¨ t −  = 0 ,  ∈ (0, π), t > 0 (, 0) = 1  (0, t) = 0, (π, t) = e−t 

Una  que cumple las condiciones de contorno salta a la vista: (t) = e−t . Haciendo  = + :

t −  = e−t (, 0) =  (0, t) = (π, t) = 0

[problema no homogéneo].

Necesitamos conocer las autofunciones de homogéneo para saber qué tipo de solución probar. Ya sabemos que al separar variables en el calor aparece X 00 +λX = 0 (además de T 0 +λT = 0 que ahora mismo no nos importa). Esto, unido a las condiciones que salen de los datos de contorno X 0 (0) = X(π) = 0 (problema conocido en 2.2), nos lleva a: i ∞ ∞ h X X (2n−1) (2n−1)2 (2n−1) (, t) = Tn (t) cos → Tn0 + Tn cos = e−t → 2 4 2 n=1

(

n=1

(2n−1) Tn0 + 4

2

Tn = Bn

e−t

Tn (0) = 0 (del dato inicial)

, con Bn = π2

Rπ 0

cos

(2n−1) 2

d =

4(−1)n+1 π(2n−1)

.

Resolvemos la EDO lineal mediante coeficientes indeterminados: Tnp = Ae−t → h i Tn(0)=0 2 2 16(−1)n+1 4Bn e−t Tn = Ce−(2n−1) t/ 4 + (2n−1) −→ Tn (t) = π(2n−3)(2n−1)(2n+1) e−t −e−(2n−1) t/ 4 . 2 −4 ¿Podríamos encontrar una  mejor que no estropee la homogeneidad de la ecuación? Buscamos (, t) que también la satisfaga. Al separar variables se ve que ∀A, B es solución:  = e−t (A cos +B sen ) . Imponiendo a esta  los datos de contorno: ¨ − =0 t   = −e−t cos  −→

=+

(, t) =

∞ X

cn e−(2n−1)

n=1

cn = π2

Rπ 0

2

(, 0) = 1+cos   (0, t) = (π, t) = 0

t/ 4 cos (2n−1) 2

(1+cos ) cos

[problema homogéneo y, por tanto, más sencillo]

→ (, 0) =

∞ X

cn cos

n=1

(2n−1) 2

d = π2

h

2(−1)n+1 2n−1

(2n−1) 2

(−1)n



= 1+cos  →

(−1)n

+ 2n+1 + 2n−3

i

.

[Evidentemente se podría ver que ambas soluciones coinciden].

Ej 4.

¨  − +2 = 0 ,  ∈ 0, π , t > 0 t  2 (, 0) = cos 5  (0, t) = (π/ 2, t) = 0

[El término +2 representa una pérdida de calor al medio a lo largo de la varilla].

Separando variables: (, t) = X()T(t) → 

X 00 X

0

= TT +2 = −λ

h

damos el 2 i → mejor a la T

 (0, t) = X 0 (0)T(t) = 0 → X 0 (0) = 0 X 00 + λX = 0    y de los datos de contorno: T 0 +(2+λ)T = 0  π2 , t = X π2 T(t) = 0 → X π2 = 0 ¨ 00 X + λX = 0   → λn = (2n−1)2 , n = 1, 2, . . . , Xn = cos(2n−1) X 0 (0) = X π2 = 0  o n  2 → T 0 = −(2+λn ) T → Tn = e− 2+(2n−1) t

Probamos pues: (, t) =

∞ X

cn e−





2+(2n−1)2 t

cos(2n−1) .

n=1

Y, por el dato inicial: (, 0) =

∞ X

cn cos(2n−1) = cos 5 → c3 = 1 y los otros 0 .

n=1

Así pues: (, t) = e−27t cos 5 . [Muy parecido a como lo probamos para el calor, se ve que esta solución es única; o bien, haciendo  = e−2t  se obtiene un problema para la ecuación del calor con esos mismos datos, problema cuya unicidad ya demostramos].

35

Resolvamos el problema para la cuerda vibrante con extremos fijos (en 4.1 lo resolveremos extendiendo los datos y aplicando la fórmula de D’Alembert): ¨  − c2  = 0 ,  ∈ [0, L], t ∈ R tt  [P6 ] (, 0) = ƒ (), t (, 0) = g() (0, t) = (L, t) = 0

Separando variables  = X()T(t) e imponiendo los datos de contorno obtenemos: ¨ 2 2  X 00 1 T 00 X 00 + λX = 0 , X(0) = X(L) = 0 → λn = nLπ2 , Xn = sen nπ L = = −λ → X c2 T T 00 + λc2 T = 0 n = 1, 2, . . . Las Tn correspondientes son combinaciones lineales de sen nπct y cos nπct . L L h i Así, funciones de la forma: n (, t) = kn cos nπct + cn sen nπct sen nπ , n = 1, 2, . . . L L L satisfacen la EDP y las condiciones de contorno. Probamos, pues: i ∞ h X (, t) = + cn sen nπct sen nπ kn cos nπct L L L n=1

con kn y cn constantes. Para que se cumplan las condiciones iniciales: ∞ RL X kn sen nπ = ƒ () → kn = 2L 0 ƒ () sen nπ d , n = 1, 2, ... (, 0) = L L n=1

y suponiendo que la serie se puede derivar término a término: ∞ RL X nπc 2 t (, 0) = cn sen nπ = g() → cn = nπc g() sen nπ d , n = 1, 2, ... L L L 0 n=1

pues

nπc cn L

son los coeficientes del desarrollo de g en senos.

Tenemos una solución, formal en principio, aunque se prueba que las series convergen y satisfacen realmente el problema si ƒ y g cumplen las condiciones que pediremos en 4.1: si sus extensiones impares respecto a 0 y L son C2 y C1 , respectivamente (si ƒ ó g no son tan regulares la serie solución representará lo que llamaremos una solución débil; en las ondas no desaparecen las discontinuidades). Para algunas cuestiones (valores concretos, dibujos, ... ) será mejor usar D’Alembert, pero se ven mejor otras propiedades en la serie. Por ejemplo, como cada n es 2L/ cperiódica en t , tambien  tiene este periodo. Observemos además que la solución aparece como combinación infinita de ‘modos naturales de vibración’ [ sen(nπ/ L) ] cada uno de los cuales vibra con una frecuencia nπc/ L (‘frecuencias naturales’ de la cuerda). En términos acústicos 1 da el tono fundamental (su frecuencia es πc/ L ) y los demás son los ‘armónicos’ (de frecuencia múltiplo de la anterior). ¨

Ej 5.

tt −  =  ,  ∈ [0, π], t ∈ R (, 0) = t (, 0) = (0, t) = (π, t) = 0

→ (, t) =

∞ X

Tn (t) sen n

n=1

Esta serie ya se anula en  = 0 y  = π . Además debe cumplirse: Rπ 2[−1]n+1 Tn0 + n2 Tn = π2 0  sen n d = → Tn = c1 cos nt + c2 sen nt + n (, 0) = t (, 0) = 0 → Tn (0) = Tn0 (0) = 0 → (, t) = 2

∞ X [−1]n+1

n3

2[−1]n+1 n3

.

[1−cos nt] sen n .

n=1

De otra forma: podríamos conseguir un problema homogéneo hallando una solución de la ecuación () que cumpla las condiciones de contorno:  (0)=(π)=0 −→  = 31 π 2 −3 . − 00 =  →  = c1 +c2 − 13 3  Con  = − , acabamos en [P6 ], con ƒ () = 31 3 −π 2  y g() = 0 . [Se podrían imponer otros tipos de condiciones de contorno (como las del calor) a la cuerda vibrante (y se resolverían los problemas separando variables). La condición  = 0 significa que el extremo de la cuerda se mueve con libertad verticalmente y  − = 0 ó  +b = 0 indican que el extremo está unido por un muelle al punto de anclaje].

36

Hasta ahora la EDO del problema de Sturm-Liouville siempre ha sido X 00 +λX = 0 , y, por eso, las series de Fourier eran todas con peso r() = 1 . Pero para otras EDPs similares a calor y ondas, o para estas ecuaciones en el plano o el espacio y coordenadas no cartesianas, surgen otras ecuaciones ordinarias y es necesario manejar la teoría más general del capítulo 2. Los problemas en más variables se verán en 3.3, pero podemos resolver ya alguno si se reduce a uno de 2 variables. Por ejemplo, la ecuación de ondas tt − c2 Δ = 0 en recintos esféricos lleva, en general, a una EDP en 4 variables (el tiempo t y las variables esféricas r , θ , ϕ ), cuyas soluciones quedarían determinadas (como en la recta) fijando unos datos de contorno y un par de condiciones iniciales. Pero si buscamos sólo sus soluciones independientes de los ángulos aparece la ecuación de ondas en el espacio con simetría radial (en 2 variables). En concreto, vamos a resolver aquí el siguiente problema homogéneo (vibraciones entre dos superficies esféricas): 

2

 tt −rr − r r = 0, 1 ≤ r ≤ 2, t ∈ R [P7 ] (r, 0) = ƒ (r) , t (r, 0) = g(r) 

(1, t) = (2, t) = 0

0

R00 + 2R T 00 r Separando variables: (r, t) = R(r)T(t) → = T = −λ → R



rR00 +2R0 +λrR = 0 T 00 + λT = 0

Las condiciones de contorno imponen: R(1) = R(2) = 0 . Vimos la ecuación de R en 2.2 (allí asociada a un problema singular, aquí es regular pues estamos en el intervalo [1, 2] ). Se resolvía haciendo el cambio de variable: S = rR→

 00   λn = n2 π 2 , n = 1, 2, . . . r=s+1 S00 + λS = 0 S + λS = 0 → Rn = senrnπr → → S(1) = S(2) = 0 S(0) = S(1) = 0 Sn = {sen nπs}

Y para esos valores de λ las soluciones para T son Tn = {cos nπt, sen nπt} . =

Probamos, pues:

∞ X



kn cos nπt + cn sen nπt

 sen nπr

.

r

n=1

Las condiciones iniciales imponen:

∞ X

kn senrnπr = ƒ (r) y

n=1

∞ X

nπcn senrnπr = g(r) .

n=1

Para hallar los coeficientes del desarrollo de una función en las autofunciones Rn (r)  0 debemos utilizar el peso del problema de Sturm-Liouville: r 2 R0 + λr 2 R = 0 . R2 R2 2 Como 〈Rn , Rn 〉 = 1 r 2 senr 2nπr dr = 12 y 〈 ƒ , Rn 〉 = 1 r 2 ƒ (r) senrnπr dr , concluimos que: kn = 2

R2 1

r ƒ (r) sen nπr dr

2 cn = nπ

y

R2 1

r g(r) sen nπr dr .

Evidentemente se llegaría a lo mismo (aquí es mucho más corto, pero otras veces no podremos hacer estos atajos) observando que las condiciones deducidas de las iniciales se podrían haber reescrito así: ∞ X

kn sen nπr = rƒ (r) y

n=1

∞ X

nπcn sen nπr = rg(r) .

n=1

De hecho, todo el problema se hubiera simplificado notablemente si hubiéramos utilizado inicialmente el cambio de variable que sugieren los cálculos anteriores: ¨  − = 0 tt rr  = r → (r, 0) = rƒ (r), t (r, 0) = rg(r) , problema casi igual al de la página anterior. (1, t) = (2, t) = 0

[Las ondas en plano con simetría radial satisfacen tt −rr − 1r r = 0 y la ecuación en R es rR00 +R0 +λrR = 0 , que (lo vimos en 2.2) está asociada a las funciones de Bessel].

37

Acabamos la sección con algunas reflexiones sobre cambios de variable y descomposición en subproblemas que generalicen las ideas que hemos utilizado. Los problemas clásicos que vimos en 1.3 estaban formados por una ecuación lineal, que podemos representar, si es no homogénea, por L[] = F , con L lineal (es decir, L[1 + b2 ] = L[1 ] + bL[2 ] ) y unas condiciones adicionales también lineales. En los que hemos resuelto por separación de variables necesariamente había un par de condiciones de contorno Ck [] = hk y, además una o dos condiciones iniciales. [Cuando resolvamos ecuaciones de Laplace separando variables en la próxima sección veremos que a veces las condiciones de contorno estarán implícitas (por ejemplo en un círculo se exigirá periodicidad). Y, en vez de condiciones iniciales, aparecerán otras dos de contorno (quizás alguna no escrita explícitamente, como la acotación)]. Supongamos, por ejemplo, que son 3 las condiciones adicionales (como en el calor) y que nuestro problema es de la forma: ¨ L[] = F [P]

M[] = ƒ C1 [] = h1 , C2 [] = h2

El problema de resolver [P] puede ser reducido a resolver otros subproblemas más sencillos. Por ejemplo, si 1 , 2 , 3 y 4 son soluciones de     L[] = F L[] = 0 L[] = 0 L[] = 0  M[] = ƒ  M[] = 0  M[] = 0  M[] = 0 [P2 ] [P3 ] [P1 ] [P4 ]  C1 [] = 0  C1 [] = h1  C1 [] = 0  C1 [] = 0 C2 [] = 0 C2 [] = 0 C2 [] = h2 C2 [] = 0 está claro, por la linealidad, que  = 1 +2 +3 +4 es solución de [P], pero, como ya hemos observado, bastantes veces nos convendrá descomponer [P] en menos subproblemas. En otros casos interesará convertir la ecuación en homogénea (si no hubiese condiciones de contorno, por ejemplo). Si somos capaces de encontrar una solución particular  de la ecuación ( L[] = F ), el cambio  = − convertirá [P] en: ¨ L[] = L[]−L[] = 0 M[] = ƒ − M[] C1 [] = h1 −C1 [] , C2 [] = h2 −C2 [] Más a menudo necesitamos hacer homogéneas las condiciones de contorno (la separación de variables y otros métodos lo exigen). Así, si lo que tenemos es una  que satisface C1 [] = h1 y C2 [] = h2 , haciendo, como siempre,  = − acabaríamos en ¨ L[] = F − L[] M[] = ƒ − M[] C1 [] = C2 [] = 0

Lo que ya es un lujo (pero se puede intentar buscar por el premio que nos da) es tener una  que cumpla las dos condiciones y además la ecuación (como en los ejemplos 3 y 5 de esta sección). Los problemas homogéneos siempre son más sencillos que los no homogéneos (separando variables, por ejemplo, los primeros exigen resolver sólo EDOs homogéneas, más corto que resolver las EDOs no homogéneas de los segundos). Como vemos, hay mucha variedad en los posibles cambios. En cada caso habrá que ver cuáles nos llevan a problemas mas asequibles. Si inicialmente hay condiciones homogéneas intentaremos que los cambios no las estropeen, aunque a veces no habrá más remedio.

38

3.2. Separación de variables para Laplace Resolvamos utilizando el método de separación de variables diversos problemas para la ecuación de Laplace en recintos especialmente simples. Comenzamos por el problema de Dirichlet en un rectángulo, es decir: b



 Δ = F(, y) , en (0, )×(0, b) [P1 ] (, 0) = ƒo (), (, b) = ƒb ()  (0, y) = go (y), (, y) = g (y)

f (x) b

ga(y)

g (y) o

0

fo(x)

a

Por ser lineales la ecuación y las condiciones, basta resolver los 5 subproblemas que se obtienen al hacer 4 de las 5 funciones que aparecen igual a 0 y sumar las 5 soluciones (de hecho, se puede descomponer en menos o hacer cambios que anulen alguno de los términos no homogéneos). Comencemos resolviendo, por ejemplo, uno de los 4 problemas para la ecuación homogénea: (, y) = X()Y(y) → X 00 Y +XY 00 = 0 →  00 00 00 X +λX = 0 − XX = YY = λ → Y 00 −λY = 0

¨ Δ = 0 , en (0, )×(0, b) (, 0) = ƒo () (, b) = (0, y) = (, y) = 0

De (0, y) = (, y) = 0 se deduce que X(0) = X() = 0 , con lo que el problema de contorno para la X tiene solución no trivial si o n 2 2 , n = 1, 2, . . . . λn = nπ2 , Xn = sen nπ  Para esos λn es Yn = c1 enπy/  +c2 e−nπy/  . La condición homogénea aún no aplicada (, b) = 0 impone Y(b) = 0 . Nos interesan las Yn que la cumplen: n o  nπ[b−y] c2 = −c1 e2nπb/  → Yn = c1 enπb/  enπ[y−b]/  −enπ[b−y]/  → Yn = sh  Probamos entonces:

(, y) =

∞ X

cn sh

nπ[b−y] 

sen nπ 

n=1

Para satisfacer la condición de contorno no homogénea que falta: ∞ R X (, 0) = cn sh nπb sen nπ = ƒo () → cn sh nπb = 2 0 ƒo () sen nπ d     n=1

Análogamente se resuelven los otros 3 subproblemas con F ≡ 0 de [P1 ]. En uno de ellos volvemos a tener las Xn de antes, y en los otros dos es Y (con condiciones nπy de contorno homogéneas) la que proporciona las autofunciones Yn = sen b . [Los papeles de X e Y son intercambiables. En calor y ondas el problema de contorno siempre era para la X (las condiciones de T eran inciales). Para Laplace en polares, aunque tanto R como Θ tendrán condiciones de contorno, la EDO de la Θ será más sencilla y la elegiremos siempre para obtener las autofunciones].

Para resolver el último subproblema, el de la ecuación no homogénea:  Δ = F(, y) , en (0, )×(0, b) (, 0) = (, b) = (0, y) = (, y) = 0 como siempre se prueba una serie de autofunciones. Aquí hay dos posibilidades [elegiremos la que dé un desarrollo más fácil para F ]: (, y) =

∞ X

Yn (y) sen nπ 

ó

n=1

(, y) =

∞ X

Xn () sen

nπy b

n=1

[No olvidemos que con un cambio  = − , o resolviendo menos subproblemas se puede llegar antes la solución; lo único necesario para empezar con separación de variables es que sea  = 0 en  = 0,  ó en y = 0, b ].

39

Siguiendo con Laplace en cartesianas, resolvemos un problema de Neumann. Suponemos la ecuación no homogénea, pero con condiciones de contorno homogéneas (si no lo fuesen, procederíamos de forma similar al problema anterior). 

[P2 ]

Δ = F(, y) , en (0, π)×(0, π) y (, 0) = y (, π) =  (0, y) =  (π, y) = 0

Separando variables en la ecuación homogénea llegamos, desde luego, a las mismas ecuaciones que en [P1 ]: X 00 +λX = 0 , Y 00 −λY = 0 . Las condiciones de contorno obligan a que X 0 (0) = X 0 (π) = 0 , Y 0 (0) = Y 0 (π) = 0 . Para este problema tenemos, pues, dos familias de autofunciones {cos n} ó {cos ny} , n = 0, 1, . . . y podemos elegir cualquiera de ella para nuestra serie. Por ejemplo: (, y) = X0 () +

∞ X

Xn () cos ny



n=1

X000 +

∞ X

[Xn00 −n2 Xn ] cos ny =

n=1

B0 () 2

∞ X

+

Bn () cos ny , Bn () = π2

Rπ 0

n=1

F(, y) cos ny dy

Debemos resolver los infinitos problemas de contorno para EDOs: Rπ X000 = 21 B0 = π1 0 F(, y) dy ; Xn00 −n2 Xn = Bn , n ≥ 1 ; con Xn0 (0) = Xn0 (π) = 0 . Las Xn con n ≥ 1 quedan determinadas de forma única (el problema homogéneo, como sabemos desde 2.1, tiene sólo la solución trivial).  Pero X000 = 0 , X00 (0) = X00 (π) = 0 tiene soluciones no triviales {1} , con lo que, Rπ según 2.3, para que haya solución para X0 es necesario que sea 0 1·B0 () d = 0 . Es decir, [P2 ] tiene solución sólo si

R πR π 0 0

F(, y) d dy = 0 .

Y en ese caso tiene infinitas que difieren en una constante. Todo esto es coherente con lo que sabíamos sobre Neumann desde 1.3. Ej 1. Calculemos la solución en el caso particular en que El problema sólo tiene solución si Entonces nos queda X000 = − π2

RR ƒ

F(, y) = −

F = 0 , es decir, si  =

π 2

.

.

 por suerte, la F ya está desarrollada en {cos ny} .

Por la misma razón los Bn , y por tanto los Xn , son nulos si n ≥ 1 . Integrando e imponiendo X00 (0) = X00 (π) = 0 obtenemos

(, y) =

1 3  6



π 2  4

+C

.

h ∞ X Si resolvemos probando  = Yn (y) cos n hay que desarrollar en serie. Lo hacemos, n=0

aunque aquí sea una pérdida de tiempo. Los coeficientes de F = − π2 en cos n son: ¨ R 0 , si n = 0, 2, 4, . . . 2 π π Bn = π 0 − 2 cos n d = 4 − πn 2 , si n = 1, 3, . . . Y000 +

∞ X

[Yn00 −n2 Yn ] cos n =

∞ X

B2m−1 cos(2m−1) →

m=1

n=1

¨ 00 Y0 = 0

Y00 (0) = Y00 (π) = 0

→ Y0 = C ;

¨ 00 Y2m −4m2 Y2m = 0

0 (0) = Y 0 (π) = 0 Y2m 2m

¨ 00 Y2m−1 − (2m−1)2 Y2m−1 = B2m−1 0 0 Y2m−1 (0) = Y2m−1 (π) = 0

→  = C+

4 π

∞ X cos(2m−1) m=1

(2m−1)

4

→ Y2m = 0 ;

B

2m−1 → Y2m−1 = − (2m−1) 2

i , que (salvo constante) es el desarrollo de la  de arriba .

40

Dos ejemplos más en cartesianas. El primero para Laplace con condiciones mixtas (parte Dirichlet, parte Neumann). Ya dijimos en 1.3 que todos ellos tienen solución única. ¨

Ej 2. ¨

 + yy = 0 , (, y) ∈ (0, 1)×(0, π) (, 0) = y (, π) = (0, y) = 0 , (1, y) = 1

Y 00 +λY = 0 , Y(0) = Y 0 (π) = 0 → λn = X 00 −λX = 0 , X(0) = 0

 = X()Y(y) →

2n−1 2 2

n , Yn = sen

(2n−1)y 2

n Para esos λ es X = c1 e(2n−1)/ 2 +c2 e−(2n−1)/ 2 −→ Xn = sh X(0)=0

Probamos (, y) =

∞ X

o

.

(2n−1) 2

o

.

cn Xn ()Yn (y) . Imponiendo el dato (1, y) = 1 que falta:

n=1

cn sh

2n−1 2

=

2 π



(, y) =

0

sen

∞ X

(2n−1)y 2

4 π(2n−1) sh

n=1

 (2n−1)π  4 1−cos π(2n−1) 2

dy = sh

2n−1 2

(2n−1) 2

sen

(2n−1)y 2



.

Si nos gustan más las condiciones de contorno para  podemos hacerlas homogéneas con un cambio de variable: ¨ + =0  yy (, 0) = − , y (, π) = 0 → (0, y) = (1, y) = 0

 =  ,  = − →

¨

X 00 +λX = 0 , X(0) = X(1) = 0  → λn = n2 π 2 , Xn = {sen nπ} , Yn = ch[nπ(π −y)] . Y 00 −λY = 0 , Y 0 (π) = 0 =

∞ X

kn Xn ()Yn (y) →

n=1

∞ X n=1

2 kn Xn (0)Yn (y) = − → kn = − ch[nπ 2]

→ (, y) =  +

∞ X n=1

2(−1)n πn ch[nπ 2 ]

R1 0

 sen nπ d

ch[nπ(π −y)] sen nπ

[que es otra expresión de la misma solución única]. En todos los problemas que hemos resuelto en este capítulo (excepto los de Neumann) la solución era única (todos eran problemas ‘físicos’). Pero no olvidemos que la unicidad en EDPs es complicada, y que un problema nuevo del que no se ha demostrado la unicidad podría no tenerla. Eso pasa en el siguiente ejemplo (para una ecuación de ‘Helmholtz’ muy asociada a los problemas de más de dos variables): 

Ej 3.

 

Δ+ = 0 , (, y) ∈ (0, π)× −   y , − π4 = y , π4 = 0

π π , 4 4

Como es ecuación nueva, separamos variables desde el principio:  = XY →

(0, y) = 0 , (π, y) = sen 2y

X 00 X

00

+1 = − YY = λ →

 00  00 n s=y+ π4 o Y + λY = 0 Y + λY = 0   −→ → λn = 4n2 , Yn = cos 2n y+ π4 , n = 0, 1, . . . π π π 0 0 0 0 Y − 4 =Y 4 =0 Y (0) = Y 2 = 0

p   X 00 + (1−λn )X = 0 , X(0) = 0 → X0 = {sen } y Xn = sh 4n2−1  si n ≥ 1 . (, y) = c0 sen  +

∞ X n=1

cn sh

p

4n2−1 



 cos 2ny+ nπ 2

=π

Tiene, por tanto, infinitas soluciones:  = C sen  +

= sen 2y →

p sh( 3 ) p sh( 3 π)

c0 indeterminado p  c1 sh 3π = 1 cn = 0 , n > 1

sen 2y .

Evidentemente no se podrá demostrar la unicidad haciendo uso de la fórmula de Green. Operando como en 1.3, si 1 y 2 son soluciones del problema, su diferencia satisface: ¨ Δ+ = 0 RR RR  RR  = 1 −2 → • = • = 0 → D Δ+2 = D 2 − D ||∇||2 = 0 ?? •=•=0

41

Para resolver los problemas en círculos nos interesa expresar el Laplaciano en polares (  = r cos θ , y = r sen θ ). Como, r =  cos θ+y sen θ ; rr =  cos2 θ+2y sen θ cos θ+yy sen2 θ θθ =  r 2 sen2 θ−2y r 2 sen θ cos θ+yy r 2 cos2 θ− rcos θ−y rsen θ



1

1

Δ = rr + r r + 2 θθ r Resolvamos el problema de Dirichlet homogéneo en un círculo:  Δ = 0 , en r < R [P3 ] (R, θ) = ƒ (θ) , θ ∈ [0, 2π) (r, θ) = R(r)Θ(θ) →

r 2 R00 +rR0 R

00

= − ΘΘ = λ →



R

Θ00 +λΘ = 0 r 2 R00 +rR0 −λR = 0

f (θ)

Parece que no hay condiciones para la Θ , pero está claro que la solución (r, θ) debe ser 2π-periódica en θ , es decir, debe ser Θ(0) = Θ(2π) , Θ0 (0) = Θ0 (2π) . Este problema de Sturm-Liouville periódico tiene por autovalores y autofunciones:   λn = n2 , n = 0, 1, 2, . . . , Θ0 (θ) = 1 , Θn (θ) = cos nθ, sen nθ . Las soluciones correspondientes de R son (ecuaciones de Euler): R0 (r) = c1 +c2 ln r y Rn (r) = c1 r n +c2 r −n si n ≥ 1 . Parece lógico imponer por argumentos físicos que la solución debe permanecer acotada cuando r → 0 (matemáticamente la solución también debe estarlo si debe ser de clase 2), así que debe ser c2 = 0 en ambos casos. Por tanto, probamos soluciones de la forma: (r, θ) = (R, θ) =

Debe ser: n =

1 πRn

Z



o 2

+

∞ X

o 2

+

∞ X

  r n n cos nθ + bn sen nθ

n=1

  Rn n cos nθ + bn sen nθ = ƒ (θ) , θ ∈ [0, 2π) →

n=1

ƒ (θ) cos nθ dθ , n = 0, 1, . . . , bn =

1 πRn

0



Z

ƒ (θ) sen nθ dθ , n = 1, 2, . . .

0

Sustituyendo estos coeficientes en la serie y operando formalmente: i Z 2π h ∞ X 1 rn (r, θ) = 1+2 cos n(θ−ϕ) ƒ (ϕ) dϕ Rn 2π

0

n=1

Vamos a sumar la serie: 1+2

∞ X r n cos nα

Rn

= 1+

n=1

∞ X n=1

  ∞  re−α n reα n X + = R R



n=1

α

−α

re re 1+ R−re α + R−re−α =

R2 −r 2 R2 +r 2 −2Rr cos α

.

Por tanto, la solución de [P3 ] se puede expresar: (r, θ) =

R2 −r 2 2π

Z

2π 0

ƒ (ϕ) dϕ R2 − 2Rr cos(θ − ϕ) + r 2

fórmula integral de Poisson

Haciendo aquí r = 0 (o mirando la serie) deducimos que

(0, θ) =

1 2π

R 2π 0

ƒ (ϕ) dϕ

:

si Δ = 0 , el valor de  en el centro de un círculo es el valor medio de  sobre la frontera. Habría que probar que la  de la serie (o la integral) es realmente solución de [P3 ]. Se demuestra que si ƒ es continua a trozos, la  tiene infinitas derivadas en r < R (aunque ƒ sea discontinua), que en ese abierto es Δ = 0 y que alcanza el valor de contorno con continuidad en los θ en que ƒ es continua (y sigue habiendo unicidad, cosa que vimos en 1.3 sólo si ƒ era continua). [La situación es totalmente análoga para [P1 ], Dirchlet en rectángulo]. [El problema exterior en r > R lo veremos en 3.3, para compararlo con el del espacio].

42

Vamos con el problema de Dirichlet no homogéneo en el círculo. En vez de tratarlo en general, resolvemos un problema concreto. 1 ¨ rr + rr + rθθ 2 = 4 , en r < 1 [P4 ] (1, θ) = cos 2θ Podríamos descomponerlo en dos (el de Δ = 0 lo acabamos de estudiar), pero lo resolvemos directamente. Como en todo problema no homogéneo probamos una serie con las autofunciones del problema homogéneo: (r, θ) = 0 (r) +

∞ X



n (r) cos nθ + bn (r) sen nθ





n=1

00 + 1r 00 + 0

∞ X



00 + 1r 0n − n

  00 n2  cos nθ + bn n 2 r

+ 1r b0n −

 n2 b sen nθ n 2 r



=4,

n=1

que, por suerte, ya está desarrollada en esta familia de autofunciones. [Si en vez de un 4 tuviésemos una F(r, θ) cualquiera, la desarrollaríamos en senos y cosenos, mirando la r como constante e identificaríamos ambos miembros].

Habrá, pues, que resolver las ecuaciones de Euler: r00 + 00 = 4 , r 2 00 + r0n − n2 n = 0 , r 2 b00 + rb0n − n2 bn = 0 . 0 n n La condición (1, θ) = cos 2θ (también desarrollada ya) impone que: bn (1) = 0 ∀n ; 2 (1) = 1 ; n (1) = 0 , n 6= 2 . La acotación cuando r → 0 será la otra condición necesaria para determinar la solución de cada EDO de segundo orden. Para la de 0 necesitamos una solución particular, que se puede hallar con la fórmula de variación de las constantes: R 1·4 dr R ln r·4 dr 1 ln r = 1 ,  − = r2 . 0p = ln r r 1/ r 1/ r 0

1/ r

o, mejor, tanteando, pues (porque la de coeficientes constantes asociada la tiene de la forma Ae2s ) sabemos que tiene una 0p = Ar 2 ( → 2A+2A = 4 , A = 1 ). Así: 0 = c1 + c2 ln r + r 2

acotada



c2 = 0

Para 2 : 2 = c1 r 2 + c2 r −2

acotada



c2 = 0

0 (1)=0



2 (1)=1



c1 = −1 c1 = 1

No necesitamos imponer los datos en la solución del resto de ecuaciones homogéneas para asegurar ya que el resto de n y las bn son cero ( 0 es solución y no hay más por tener un problema de Dirichlet solución única). La solución de [P4 ] es: (r, θ) = r 2 − 1 + r 2 cos 2θ [Se podría escribir en cartesianas:  = 22 −1 ].

Como otras veces, un buen cambio simplifica el problema. Por ejemplo, podemos en este caso buscar una solución (r) de la ecuación no homogénea resolviendo  00 + 1r  0 = 4 . La solución más sencilla de esta ecuación de Euler es  = r 2 .  Δ = 0 , en r < 1  = − → (1, θ) = cos 2θ − 1 De la serie de la página anterior obtenemos, sin más que identificar coeficientes, que la solución de este problema es: (r, θ) = r 2 cos 2θ − 1 lo que nos lleva de forma mucho más rápida a la solución de antes. 



Utilizando funciones de Green se dará en 3.4 una fórmula integral para  que generalizará la fórmula de Poisson de la página anterior .

43

Δ = F , r < R (R,θ) = ƒ

Resolvamos ahora el problema de Neumann homogéneo en un círculo:  Δ = 0 , en r < R [P5 ] r (R, θ) = ƒ (θ) , θ ∈ [0, 2π) Como el problema de contorno y la ecuación de Euler son las mismas que en Dirichlet, la solución que probamos es: o

(r, θ) =

2

+

∞ X

r

 n

n cos nθ + bn sen nθ

f (θ)



n=1

pero ahora es diferente la condición de contorno que falta: ∞   X r (R, θ) = nRn−1 n cos nθ + bn sen nθ = ƒ (θ) , θ ∈ [0, 2π) → n=1

n =

1 nπRn−1

Z



ƒ (θ) cos nθ dθ , bn =

0

1

Z

nπRn−1



ƒ (θ) sen nθ dθ , n = 1, 2, . . .

0

siempre que no tenga término independiente el desarrollo en senos y cosenos de ƒ (θ) ; es decir, una condición necesaria para que el problema se pueda resolver por este método es que se cumpla: R 2π 0

ƒ (θ) dθ = 0



confirma lo visto en 1.3: debía ser

H ∂D

ƒ ds =

RR D

 F ddy = 0 .

Además, o queda indeterminado [Neumann siempre tiene unicidad salvo constante]. 

Ej 4.

Δ = 0 en r < 1 r (1, θ) = sen3 θ

r (1, θ) =

∞ X

  n n cos nθ+bn sen nθ = sen3 θ =

n=1

3 4

sen θ− 14 sen 3θ .

1 No hay que hacer integrales: b1 = 34 , b3 = − 12 y los demás cero.

Por tanto: (r, θ) = C +

1 3 3 r sen θ − 12 r sen 3θ , 4

C cualquiera.

Y ahora resolvemos uno de Neumann no homogéneo en un semicírculo:  Δ = F(r, θ) , en r < 1, 0 < θ < π [P6 ] r (1, θ) = θ (r, 0) = θ (r, π) = 0 Como para este problema no hemos resuelto el homogéneo, debemos comenzar hallando sus autofunciones. Conocemos la ecuación en Θ que sale al separar variables. Junto a las condiciones de contorno nos dará dichas autofunciones:  00  Θ + λΘ = 0 → λn = n2 , Θn (θ) = cos nθ , n = 0, 1, 2, . . . → 0 0 Θ (0) = Θ (π) = 0 (r, θ) = Ro (r) +

∞ X n=1

∞ X

Rn (r) cos nθ

h

La serie con cosenos y senos del [P4 ] no cumple los datos de contorno; aquí no hay periodicidad.

i



i ∞ X 1 0 n2 R00 + R − R cos nθ = F(r, θ) = Bo (r) + Bn (r) cos nθ , n 2 r n n r n=1 n=1 R R 1 π 2 π con Bo (r) = π 0 F(r, θ) dθ y Bn (r) = π 0 F(r, θ) cos nθ dθ . 0  Basta, pues, resolver: rRo +R0o = rR0o = rBo (r) y r 2 Rn +rR0n −n2 Rn = r 2 Bn (r) ,

Ro + 1r R00 +

h

ambas con los datos de contorno (singulares): Rn acotada en r = 0 y R0n (1) = 0 . Si n ≥ 1 el problema homogéno (y, por tanto, el no homogéneo) tiene solución Rn única (aunque el problema sea singular, vale lo que vimos en 2.3). Pero si n ≥ 0 : rRo +R0o = 0 → Ro = c1 +c2 ln r

R acotada

Roh = {1} → R1 infinitas soluciones 0 Existen ninguna solución Ro del no homogéno según sea 0 rBo (r)dr 6= =0 . −→

R0 (1) = 0

h i R 1R π Concuerda una vez más con 1.3. Debía ser: 0 0 rF(r, θ) dθdr = 0 .

44

Resolvemos para acabar con Laplace en polares dos problemas con condiciones mixtas. El primero va a ser homogéneo. ¨ Δ = 0 , r < 1 , θ ∈ 0, π  ¨  2 Θ00 +λΘ = 0 , Θ0 (0) = Θ π2 = 0 [P7 ] r (1, θ) = ƒ (θ) → r 2 R00 +rR0 −λR = 0 θ (r, 0) = (r, π2 ) = 0

0

 Los autovalores y autofunciones son conocidos: λn = (2n−1)2 , Θn = cos(2n−1)θ n = 1, 2, . . . .

Resolviendo para esos λn la ecuación en R y exigiendo que esté acotada en r = 0 : ∞ X

(r, θ) =

cn r 2n−1 cos(2n−1)θ

∞ X



n=1

cn =

(2n−1) cn cos(2n−1)θ = ƒ (θ) →

n=1

4 [2n−1]π

R π/ 2 0

ƒ (θ) cos(2n−1)θ dθ , n = 1, 2, . . .

(solución única).

El recinto siguiente no incluye el origen. La condición implícita de estar acotada en ese punto es sustituida por un dato explícito en r = 1 : 0

¨

Ej 5.

Δ = 0 , 1 < r < 2 , 0 < θ < π (1, θ) = (2, θ) = (r, 0) = 0 , θ (r, π) = r 2

0 0

Aparentemente es un problema homogéneo, pero ya dijimos que las condiciones de contorno para Laplace en polares que deben ser homogéneas son las de la θ . Necesitamos una  que las cumpla. Claramente  = r 2 θ lo hace: ¨ Δ = −4θ , 1 < r < 2 , 0 < θ < π (1, θ) = −θ, (2, θ) = −4θ (r, 0) = θ (r, π) = 0

 = − →

Las autofunciones del homogéno las dará el problema de contorno:  00 n o Θ + λΘ = 0 [2n−1]2 [2n−1]θ → λn = , Θ (θ) = sen , n = 1, 2, . . . n 0 4 2 Θ(0) = Θ (π) = 0 Probamos entonces la serie:

(r, θ) =

∞ X

Rn (r) sen

n=1 ∞ X

h

R00 + n

1 0 R r n

n=1



[2n−1]2 Rn 4r 2

con Bn =



2 π

0

i

sen

[2n−1]θ 2

= −4θ = 4

[2n−1]θ 2

−θ sen

[2n−1]θ 2

→ ∞ X

Bn sen

n=1

dθ =

[2n−1]θ 2

2[−1]n π[n−1/ 2]2

De los datos no homogéneos deducimos las condiciones para las Rn : ∞ X

Rn (1)Θn (θ) =

n=1

∞ X

Bn Θn (θ) ,

n=1

∞ X

Rn (2)Θn (θ) =

n=1

∞ X

4Bn Θn (θ)

n=1

 2 Resolvemos pues: r 2 R00 + rR0n − n − 21 Rn = 4Bn r 2 con Rn (1) = Bn , Rn (2) = 4Bn . n Bn → Rn = c1 r n−1/ 2 + c2 r −(n−1/ 2) + Ar 2 Rnp = Ar 2 [ λ = 2 no autovalor] → A = 4−(n−1/ 2)2 c. contorno



c1 =

[2q+2 −1][Bn −A] 22q −1

, c2 =

2q [2q −4][Bn −A] 22q −1

, llamando q = n− 12 .

Simplificando un poco: Rn (r) =

2[−1]n πq2 [q2 −4][22q −1]

[2q+2 −1]r q + 2q [q2 −4]r −q − [22q −1]r 2



La solución final es  = r 2 θ +  donde la  es la serie de arriba con los Rn dados por esta expresión.

45

3.3. Algunos problemas en tres variables Comenzamos estudiando las series de Fourier dobles, de teoría semejante a las de una variable (las triples, que aparecerían en problemas con 4 variables, son también similares). Sean Xm () ,  ∈ [, b] e Yn (y) , y ∈ [c, d] las autofunciones de dos problemas de  Sturm-Liouville con pesos respectivos r() y s(y) , y sea ƒ (, y) ∈ C1 [, b]×[c, d] . Entonces, para cada (, y) ∈ (, b)×(c, d) se puede escribir ƒ como la serie: ƒ (, y) =

∞ X ∞ X

cnm Xn Ym con cnm =

m=1 n=1

h

1

Z bZ d

1

〈Xn , Xn 〉 〈Ym , Ym 〉

〈, 〉 designa, desde luego,

Rb 

pues para  fijo se puede poner ƒ (, y) =



  r d ó

∞ X

Rd c

ƒ (, y) Xm Yn r s dyd

c

i   s dy .

Cm () Ym , Cm () =

m=1

y con Cm () =

∞ X

〈Cm (), Xn 〉

cnn Xn , cnm =

〈Ym , Ym 〉

,

se tiene la expresión de arriba.

〈Xn , Xn 〉

n=1

〈 ƒ (, y) , Ym 〉

[Se llega a lo mismo, desde luego, desarrollando primero en Xn y luego en Ym ].

En particular, se tienen los desarrollos en series trigonométricas dobles de una  función ƒ ∈ C1 [0, L]×[0, M] : ƒ (, y) =

∞ X ∞ X

bnm sen nπ sen L

mπy M

con bnm =

n=1 m=1

ƒ (, y) =

1  4 00



1X 2

+

n0 cos nπ + L

n=1

[O los desarrollos parecidos en 1 4

y

1 2

∞ X ∞ X

0m cos

4 LM

P

Z LZ 0

M

sen cos ó

P

 cos y =

π 2

0

∞ X ∞ X

nm cos nπ cos L

mπy M

mπy M

dy d

cos sen , o con series en senos y cosenos].

, en [0, π]×[0, π] de dos formas:

bnm sen n sen my con bnm = 16 π

4 π2

∞ X ∞ X [−1]n+1 m

n[4m2 −1]



π2

+

ƒ (, y) cos nπ cos L

n=1 m=1

4

dy d

0

0

ƒ (, y) =  cos y

→  cos y =

nm =

mπy M

mπy M

m=1 n=1

n=1 m=1

Z πZ

0

ƒ (,y) sen nπ sen L

son, como siempre, para que la fórmula valga también si n = 0 ó m = 0 ].

Ej 1. Desarrollemos  cos y =

LM

M

m=1

con nm =

[Los factores

∞ 1 X 2

Z LZ

4

π

Z πZ

π

 cos y sen n sen my dy d 0

0

sen n sen 2my

0 si m 6= 1



0

 cos y cos n cos my dy d =  π si m = 1, n = 0 n 2

cos y −



2[(−1) −1]/ (πn ) si m = 1, n > 0

4 π

∞ X n=1

1 (2n−1)2

cos[2n−1] cos y [ya estaba desarrollado en y ].

[La igualdad entre ƒ y su serie se da en los puntos de continuidad de la ƒ extendida, de forma impar en el primer caso y par en el segundo, en cada variable hasta [−π, π] y luego de forma 2π-periódica; así, la serie en senos converge hacia  cos y en el lado  = 0 del cuadrado [0, π]×[0, π] , pero no lo hace en los otros lados; la serie en cosenos, en cambio, converge (uniformemente) en todo el cuadrado, incluido el borde].

46

Resolvamos separando variables varios problemas (homogéneos) en 3 variables. Primero, la ecuación del calor en un cuadrado: estudiamos la evolución de las temperaturas de una placa (dadas las iniciales) si el borde se mantiene a 0o : 0

!



 t − k[ +yy ] = 0 , (, y) ∈ (0, π)×(0, π) , t > 0 (, y, 0) = ƒ (, y)  (, 0, t) = (, π, t) = (0, y, t) = (π, y, t) = 0

0

0 !

0

0

Buscamos soluciones: (, y, t) = X()Y(y)T(t) → XYT 0 − k[X 00 Y +XY 00 ]T = 0 X 00 X

=

1 T0 k T



Y 00 Y

= −λ →

¨ X 00 + λX = 0 Y 00 Y

=λ+

1 T0 k T

= −μ →



Y 00 + μY = 0 T 0 + k[λ+μ]T = 0

[Como en 2 variables, dejamos para la T la expresión más complicada].

Las condiciones de contorno exigen: X(0) = X(π) = Y(0) = Y(π) = 0 . Así pues: ¨  o n λ = n2 , Xm = {sen n}, n = 1, 2, . . . − n2 +m2 kt → T = e . nm μ = m2 , Yn = {sen my}, m = 1, 2, . . .  n o 2 2 Cualquier nm (, y, t) = e− n +m kt sen n sen my satisface la ecuación y todas las condiciones de contorno, así como lo hace cualquier combinación lineal de ellas. Esto nos lleva a probar la serie:  ∞ X ∞ X 2 2 bnm e− n +m kt sen n sen my (, y, t) = n=1 m=1

que debe satisfacer además: (, y, 0) =

∞ X ∞ X

bnm sen n sen my = ƒ (, y) →

n=1 m=1

bnm =

4 π2

Z πZ 0

π

ƒ (, y) sen n sen my d dy

, n, m ≥ 1 .

0

[Como en la varilla, aquí también  → 0 cuando t → ∞ ].

Ahora, Laplace en un cubo con condiciones de contorno mixtas (cuya solución seá única como los similares del plano): Δ = 0 en (0, π)×(0, π)×(0, π)  (, y, 0) = ƒ (, y) 

  = 0 en  = 0,  = π, z = π y = 0 en y = 0, y = π

 = XYZ → ¨



00 Y” + ZZ Y

00 = − XX

=λ →

Z 00 Z

−λ = − Y” Y

=μ →

¨ X 00 +λX = 0, X(0) = X(π) = 0 Y 00 +μY = 0, Y 0 (0) = Y 0 (π) = 0 Z 00 −[λ+μ]Z = 0, Z(π) = 0

n λ = n2 , Xn = {sen n}, n = 1, 2, . . . → Z = sh mn μ = m2 , Ym = {cos my}, m = 0, 1, . . .

(, y, z) =

∞ 1 X 2

p

n2 +m2 [π −z]

o

 cn0 sh n[π −z] sen n

n=1

+

∞ X ∞ X

cnm sh

p

n2 +m2 [π −z]



sen n cos my

m=1 n=1

Como (, y, 0) = ƒ (, y) , los cnm son: cnm =

π 2 sh π

4 p

Z πZ n2+m2



0

π

ƒ (, y) sen n cos my dy d 0

47

n = 1, 2, . . . m = 0, 1, . . .



Resolvamos el problema de Dirichlet en una esfera. En los libros de cálculo en varias variables se encuentra la expresión del laplaciano en esféricas:  = r sen θ cos ϕ « y = r sen θ sen ϕ → z = r cos θ

Δ = rr +

2r r

+

θθ r2

+

cos θ θ sen θ r 2

+

ϕϕ

θ

sen2 θ r 2

r

Veamos primero el caso con datos independientes de ϕ : h i ( cos θ rr + 2r r + r12 θθ + sen  = 0 , r R (R, θ) = ƒ (θ) , 0 ≤ θ ≤ π  → 0 cuando r → ∞

Separando variables se llega a las mismas Θn que en los problemas interiores: {Θn } = {cos nθ, sen nθ} , n = 0, 1, . . .

{Θn } = {Pn (cos θ)} , n = 0, 1, . . .

Pero hay que elegir diferentes Rn , para las nuevas condiciones en el infinito:  n = 0 , c1 +c2 r −1 → R0 = r −1 n = 0 , c1 +c2 ln r → R0 = {1}  n > 0 , c1 r n +c2 r −n → Rn = {r −n } n > 0 , c1 r n +c2 r −(n+1) → Rn = r −(n+1)  −1

En el plano ningún R0 → 0 , y en el espacio están acotadas tanto 1 como r ; tender a  0 nos dejaría sin soluciones en el plano y pedir acotación daría infinitas en el espacio .

Probando las series correspondientes e imponiendo (R, θ) = ƒ (θ) , se obtiene que las soluciones respectivas son estas series con los coeficientes indicados: (r, θ) = 20 + n = bn =

Rn π

∞ X n=1

R 2π

0 R Rn 2π π 0

∞ X

(r, θ) = r0 +

  r −n n cos nθ+bn sen nθ

n r −(n+1) Pn (cos θ)

n=1

ƒ (θ) cos nθ dθ , n = 0, 1, . . .

n =

R (2n+1)Rn+1 π 2 0

ƒ (θ) Pn (cos θ) sen θ dθ n = 0, 1, . . .

ƒ (θ) sen nθ dθ , n = 1, 2, . . . ƒ (θ) = 

Ej 4. Hallemos la solución en ambos casos cuando

constante.

Basta mirar las series para deducir las soluciones en ambos casos: =

=

en el plano.

R r

en el espacio.

[Interpretemos estos resultados mirándolos como soluciones estacionarias de la ecuación del calor. Si mantenemos la superficie de una bola de radio R constantemente a o , la temperatura que tenderían a tener todos los puntos del espacio sería R/ r , disminuyendo con la distancia a la bola. Para el primer caso, en vez de imaginarnos en un mundo bidimensional, situémonos en el espacio con datos y soluciones independientes de la variable z : si toda la superficie de un cilindro infinito de radio R se mantiene a o , todo el espacio tenderá a tener esa temperatura]. [Si nos planteásemos el problema en el interior r < R , es inmediato ver que la solución, tanto en el plano como en infinito, es  =  ].

Ej 5. Sea R = 1 y ƒ (θ) = cos2 θ . Resolvamos y comparemos con las soluciones en r < 1 . En el plano, la serie del interior y exterior llevan a la misma condición: ∞  X  n cos nθ+bn sen nθ = 12 + 12 cos 2θ → (1, θ) = 20 + n=1

= h

1 2

+

1 2 r cos 2θ 2

En cartesianas  =

(interior) ,  = 1+2 −y 2 2

y =

1 2

+

1 2r 2



cos 2θ (exterior) .

2 −y 2 1 + 2 2 2(2 +y 2 )

i , respectivamente .

Para el espacio, el interior ya se ha resuelto en el ejemplo 2. Y en el exterior la condición que aparece al hacer r = 1 vuelve a coincidir con la del interior. Las soluciones respectivas son, pues: =

1 3



1 2 r 3

+ r 2 cos2 θ (interior) ,  =

50

1 3r



1 3r 3

+

1 r3

cos2 θ (exterior) .

Si los problemas ‘esféricos’ llevan a Legendre, los ‘cilíndricos’ (Laplace en polares más otra coordenada, t en calor y ondas, z en Laplace) llevan a Bessel, como sucede en los problemas de vibración de una membrana circular (de un tambor). Como hicimos con Laplace en la esfera, para empezar tratamos el caso más sencillo con 2 variables en el que la vibración no depende de θ . Y para simplificar aún más suponemos que inicialmente es t = 0 :    1  tt − rr + r r = 0 , r ≤ 1, t ∈ R [Las vibraciones con simetría  (r, 0) = ƒ (r), t (r, 0) = 0 (1, t) = 0

 = RT →

T 00 T

0

=

R00 + Rr R

= −λ →

¨

radial en el espacio , como se vio en 3.1, son mas sencillas].

0

+ λrR = 0 , R acotada en 0 , R(1) = 0 p  + λT = 0 , T 0 (0) = 0 → cos( λ t)

rR0

T 00

El problema de contorno singular para la R fue visto al final de 2.1. Recordemos p que con s = r λ desaparecía λ y la ecuación pasaba a ser una de Bessel: p  p  sR00 (s)+R0 (s)+sR(s) = 0 → R = c1 J0 (s)+c2 K0 (s) = c1 J0 r λ +c2 K0 r λ p  Imponiendo los datos se tenían los autovalores λ tales que J λn = 0 , n 0 n p o y las autofunciones asociadas Rn = J0 r λn . Nos falta imponer la condición inicial que falta a la serie: (r, t) =

∞ X

cn cos

p

  p  λn t J0 r λn →

∞ X

 p  cn J0 r λn = ƒ (r)

n=1

n=1

Este desarrollo ya lo discutimos en el último ejemplo de 2.2. Allí vimos que era: cn =

J21

2 p  λn

Z

1 0

r ƒ (r) J0 r

p

 λn dr

p R1 ƒ (r) = 1−r 2 la integral 0 (r −r 3 ) J0 (rn ) dr , n = λn , que define cn . R n R1 R n Haciendo s = rn : 0 = 12 0 s J0 (s)ds − 14 0 s3 J0 (s)ds . n n  0 La primera primitiva es inmediata, pues s J1 = s J0 . La segunda, por partes: R R s2 s J0 ds = s3 J1 − 2 s2 J1 ds = s3 J1 − 2s2 J2 = (s3 −4s) J1 + 2s2 J0 ,  0 ya que s2 J2 = s2 J1 y Jn+1 = 2n J − Jn−1 . Y como J0 (n ) = 0 concluimos: s n ∞ R1 X 8 = 43 J1 (n ) ⇒ (r, t) = cos(n t) J0 (n r) . 3 0

Ej 6. Hallemos si

n

n=1

n J1 (n )

P Pese a su aspecto complicado, está solución no lo es mucho más que la kn cos(nπt) sen(nπ) que se obtendrían para la cuerda vibrante con datos similares (lo resolvimos en 3.1).

En muchos libros (o en programas tipo Maple o Sage) se pueden encontrar los ceros n de J0 : {n } ≈ 2.4048256 , 5.5200781 , 8.6537279 , 11.791534 , 14.930918 , . . . y los valores de J1 (n ) : 0.519147 , –0.340265 , 0.271452 , –0.232461 , 0.206547 , . . . Necesitamos sólo un programa que reconozca la J0 para dar valores o hacer dibujos aproximados de la solución. Por ejemplo, utilizando los 5 primeros términos de la serie, podemos (con Maple en este caso) aproximar y dibujar (0, t) : (0, t) ≈ 1.108 cos(2.405 t) – 0.1398 cos(5.520 t) + 0.04548 cos(8.654 t) – 0.02099 cos(11.79 t) + 0.01164 cos(14.93 t) Las vibraciones de un tambor, a diferencia de lo que pasa a una cuerda, no son periódicas (los n no son múltiplos exactos unos de otros).

51

Para acabar esta sección, tratemos el problema más general y complicado en 3 variables:    1 1 2  tt − c rr + r r + r 2 θθ = 0 , r ≤ 1, t ∈ R  (r, θ, 0) = ƒ (r, θ), t (r, θ, 0) = 0 (1, θ, t) = 0

 = RΘT → 

0

T 00 c2 T

=

R00 + Rr R

1 Θ00 r2 Θ

+

= −λ →

r 2 R00 +rR0 R

+ λr 2 =

Θ00 Θ

= −μ →



Θ00 +μΘ = 0 , Θ 2π-periódica → μm = m2 , m = 0, 1... , Θm = {cos mθ, sen mθ}, Θ0 = {1} p  T 00 + λc2 T = 0 , T 0 (0) = 0 → cos[ λ ct]



r 2 R00 + rR0 + [λr 2 −μ]R = 0 , R acotada en 0

Para μ = m2 consideramos el problema de contorno singular para R : ¨ r 2 R00 + rR0 + [λr 2 −m2 ]R = 0 R acotada en 0 , R(1) = 0 p Haciendo s = r λ desaparece como siempre λ y la ecuación se convierte en Bessel: s2 R00 (s)+sR0 (s)+[s2 −m2 ]R(s) = 0 → p  p  R = c1 Jm (s)+c2 Km (s) = c1 Jm r λ +c2 Km r λ p  R acotada ⇒ c2 = 0 . Los autovalores serán los λ que hagan Jm λ = 0 , que son una sucesión infinita para cada m : λm1 , . . . , λmk , . . . n p o Y las autofunciones son Rmk = Jm r λmk . Así que probamos: (r, θ, t) =

1 2

∞ X

 p   p  c0k J0 r λ0k cos c λ0k t

k=1 ∞ X ∞ X

+

 p   p  [cmk cos nθ+dnk sen nθ] Jm r λmk cos c λmk t

m=1 k=1



1 2

∞ X

c0k J0 r

p

∞ X ∞ X p   [cmk cos nθ+dnk sen nθ] Jm r λmk = ƒ (r, θ) λ 0k + m=1 k=1

k=1

Para r fijo, ƒ (r, θ) =

1 A (r) 2 0

+

∞ X 

 Am (r) cos mθ+Bm (r) sen mθ , con

m=1

Am (r) = π1

R 2π

1 π

R 2π

Bm (r) =

ƒ (r, θ) cos mθ dθ , m = 0, 1, . . . ,

0

ƒ (r, θ) sen mθ dθ , m = 1, 2, . . . .

0

Desarrollando: ∞ X

Am (r) =

cmk Jm r

p

λ mk



k=1

Teniendo en cuenta que

∞ X

, Bm (r) =

dmk Jm r

p

λ mk



k=1

R1

r J2m 0

r

p

λmk dr = 

1 2 J 2 m+1

p

λ mk



,

se llega a la expresión definitiva para los coeficientes: cnk = dnk =

2 p π J2m+1 ( λmk )

Z 1Z

2 p 2 π Jm+1 ( λmk )

Z 1Z

0

0



r ƒ (r, θ) cos nθ Jm r

p

 λmk dr dθ

0 2π

r ƒ (r, θ) sen nθ Jm r

0

52

p

 λmk dr dθ

3.4. Funciones de Green.  En lo que sigue trabajaremos formalmente con la δ en dos variables, utilizando sólo que:

ii.

RR

i. δ(ξ−, η−y) = 0 para (ξ, η) 6= (, y)  F(ξ, η) δ(ξ−, η−y) dξ dη = F(, y) si F continua en D ⊂ R2 y (, y) ∈ D . D

Consideremos el problema de Dirichlet no homogéneo:  Δ = F(, y) en D (PD )  = ƒ en ∂D Nuestro objetivo es (como en 2.4) expresar su solución en función de integrales en las que sólo aparezcan una ’función de Green’ G y los datos F y ƒ :  ΔG = δ(ξ−, η−y) en D Si G(, y; ξ, η) satisface (PG ) , para cada (, y) ∈ D G = 0 en ∂D Teor 1:

y vista como función de (ξ, η) , se le llama función de Green de (PD ) y la solución de (PD ) es (, y) =

ZZ

G(, y; ξ, η) F(ξ, η) dξdη + D

I

Gn (, y; ξ, η) ƒ (ξ, η) ds ∂D

[ Gn es, como siempre, la derivada de G en la dirección de n , vector unitario exterior a D ]. Del teorema de la divergencia es fácil deducir la llamada segunda identidad de Green: RR H ¯ se tiene Si  y G son C2 (D) [G Δ− ΔG] dξdη = ∂D [Gn −Gn ] ds D Si  es la solución de (PD ) y G la de (PG ), y admitimos que la identidad anterior es válida para nuestra G (que claramente no es C2 , pero se justifica con ’distribuciones’) tenemos: RR H RR H [GF−δ] dξdη = ∂D [−ƒ Gn ] ds →  = D GF dξdη + ∂D Gn ƒ ds D ¿Cómo resolver (PG )? Comencemos buscando una (, y; ξ, η) que, vista como función de (ξ, η) , satisfaga Δ = δ , aunque no cumpla la condición de contorno. ¿Qué funciones conocidas cumplen Δ = 0 y puedan originar una δ ? Las soluciones de Laplace en polares que dependen de r son: rr +

1  r r

= 0 →  = c1 + c2 ln r

Así que algún múltiplo del discontinuo logaritmo de la distancia r = PQ del punto P = (ξ, η) al Q = (, y) es buen candidato a  : Teor 2:

  1 1  = 4π ln (ξ−)2 +(η−y)2 = 2π ln PQ satisface Δ = δ(ξ−, η−y) para (, y) fijo.

A  se le llama solución fundamental para el punto (, y) .

Para probar el teorema volvemos a hacer ’trampa’ con la δ . Ya vimos que Δ = 0 si r 6= 0 , o sea, si (ξ, η) 6= (, y) . Además, el ’teorema’ de la divergencia en un círculo de centro Q y radio R nos da: RR H H R 2π 1 R dθ = 1 → Δ = δ Δ dξdη = r=R n ds = r=R r ds = 0 2πR r≤R Si  satisface Δ = 0 en D , la función + seguirá satisfaciendo Δ[+] = δ para cada (, y) ∈ D fijo. Por tanto, para encontrar G [y tener resuelto (PD )] basta encontrar la  armónica en D tal que + = G se anule en la frontera ∂D La forma práctica de hallar la  (en recintos D limitados por rectas y circunferencias) es el método de las imágenes. Mirando la geometría de D se tratará de escribir G como suma de la solución fundamental  y de funciones armónicas  del mismo tipo, logaritmos de distancias a puntos Q0 exteriores a D (’imágenes’ de Q respecto de la ∂D ), escogidos de forma que la G se anule en la frontera de D . Resolvemos un primer ejemplo con la G , en el que D está limitado por rectas:

53



(P1 )

Δ = 0 en D = { > 0}×{y > 0} (, 0) = ƒ (), (0, y) = 0,  acotada

Sean Q = (, y) ∈ D fijo, 1 P = (ξ, η),  = 2π ln PQ .

1 Si Q0 = (−, y) , es claro que 0 = − 2π ln PQ0 es una función de P que es armónica en D (lo es en R2 −{Q0 } ) y que  +0 = 0 si P pertenece al eje y , pues entonces PQ = PQ0 . Análoga1 mente ∗ = − 2π ln PQ∗ , con Q∗ = (, −y) , es armónica en D y +∗ = 0 si P está en el eje  . Para que G sea cero en am0 = − 1 ln PQ0 , bos ejes a la vez hay que sumar una nueva ∗ 2π ∗ 0 es la Q0∗ = (−, −y) . Entonces G(P, Q) =  + 0 + ∗ + ∗ función de Green buscada, ya que ΔG = δ [pues Δ = δ y 0 ) = 0 ] y G = 0 si P ∈ ∂D [si P está en el eje y Δ(0 +∗ +∗

es

PQ = PQ0

y

PQ∗ = PQ0∗ ;

Q’(-x,y)

Q(x,y)

+



D

P(!,")

+



Q’(-x,-y)

y similar en el eje  ].

Q (x,-y) *

*

Escribiendo las distancias analíticamente tenemos:     1 1 G(, y; ξ, η) = 4π ln (ξ−)2 + (η−y)2 − 4π ln (ξ+)2 + (η−y)2     1 1 − 4π ln (ξ−)2 + (η+y)2 + 4π ln (ξ+)2 + (η+y)2 Y como n = −j en el eje  , la solución de nuestro problema (P1 ) será: h H R∞ y R∞ (, y) = ∂D Gn ƒ ds = 0 −Gη η=0 ƒ (ξ) dξ = · · · = π 0 (ξ−)12 +y2 −

1 (ξ+)2 +y 2

i

ƒ (ξ) dξ

Resolvamos ahora el problema no homogéneo de Dirichlet en el círculo: 

(P2 )

Δ = F(r, θ) en r < R (R, θ) = ƒ (θ) , θ ∈ [0, 2π]

2

Q = (r, θ) ∈ D fijo, P = (σ, ϕ) variable.

La solución fundamental  en estas coordenadas queda:   1 1  = 2π ln PQ = 4π ln σ 2 + r 2 − 2rσ cos(θ−ϕ)

R Q’ (__ , ) r θ

P(σ, ɸ)

Q(r, θ)

D ¿Dónde situar el punto imagen Q0 ? Las cosas no son tan claras como en el ejemplo anterior. Es claro que su θ ha de ser igual, pero ¿a qué distancia del origen O colocarlo? Podríamos llegar al resultado tanteando, pero nos limitamos a comprobar que la G es: h i 2  1 G(P, Q) = 2π ln PQ − ln PQ0 + ln Rr , Q0 = Rr , θ , o expresada en términos de coordenadas: G(r, θ; σ, ϕ) =

1 4π

  ln σ 2 + r 2 − 2rσ cos(θ−ϕ) −

1 4π

 ln R2 +

r 2 σ2 R2

− 2rσ cos(θ−ϕ)



  En efecto: G =  + 0 +cte ⇒ ΔG = 0  0 armónica en R2 −{Q0 } y Q0 ∈ / D y G = 0 si P ∈ ∂D , o sea, si σ = R . Además, Gn = Gσ σ=R y ds = R dϕ , por lo que la solución de (P2 ) es:

(r, θ) =

R RR 2π 0 0

σ G(r, θ; σ, ϕ) F(σ, ϕ) dϕdσ +

1 2π

R 2π 0

R2 −r 2 R2 −2Rr cos(θ−ϕ)+r 2

ƒ (ϕ) dϕ

expresión mucho más compacta que las series de Fourier, aunque estas integrales, en general, no sean calculables (y habrá que aproximarlas, pero son aproximaciones también las sumas parciales). Las cuentas en tres dimensiones son muy similares a los de dos. Si G es solución de (PG ): RRR H (, y, z) = G F dξdηdγ + ∂D Gn ƒ dS ( ∂D es ahora una superficie) D Se ve de manera similar que la solución fundamental en el espacio es:   1  =− rr + 2r r = 0 →  = c1 + cr2 4πPQ

Los puntos imágenes respecto a planos son igual de sencillos y para la esfera de radio R vuelve a situarse el punto Q0 a una distancia R2 / r del origen.

54

4. Otros métodos en EDPs Este capítulo está dedicado al estudio de varios temas independientes entre sí. En 4.1 nos dedicaremos a sacarle jugo a la fórmula de D’Alembert deducida en 1.3 para la solución del problema puro de valores iniciales para la cuerda infinita:  tt − c2  = 0 , , t ∈ R (, 0) = ƒ () , t (, 0) = g() Utilizaremos que la solución (, t) resulta ser la suma de dos ondas que se mueven en sentido opuesto a velocidad c . Daremos también una fórmula para las soluciones en el caso de la ecuación no homogénea (con fuerzas externas F(, t) ). Comprobaremos como, extendiendo de forma adecuada los datos iniciales a todo R, podemos abordar problemas con condiciones de contorno. Al estar manejando funciones con expresiones diferentes en diferentes intervalos, escribir la solución explícitamente nos puede llevar a discusiones complicadas. Por eso nos conformaremos muchas veces con hallar su expresión para valores de t o  fijos o con los dibujos de la solución. En 4.2 comenzaremos dando sin demostración la solución del problema puro de valores iniciales para la ecuación de ondas homogénea en el espacio (fórmula de Poisson-Kirchoff). De ella deduciremos la fórmula para el plano. Estudiaremos las diferencias entre la propagación de las ondas en una, dos y tres dimensiones espaciales. Comprobaremos que las ondas en el espacio ‘pasan’ (como ocurre con el sonido), mientras que en el plano la influencia de los datos iniciales se deja sentir, aunque amortiguándose, a lo largo del tiempo (en la recta dependerá de si la perturbación inicial se da en la posición o en la velocidad). Estudiaremos también las ondas que se propagan en el espacio con simetría esférica que son de tratamiento sencillo, por ser esencialmente unidimensionales, ya que un sencillo cambio de variable lleva a la ecuación de la cuerda (para n = 2 no existe tal cambio). En la la sección 4.3 definiremos la transformada de Fourier F y veremos algunas de sus propiedades que permiten resolver algunas EDPs en intervalos no acotados (para ellos no se puede utilizar separación de variables por no aparecer problemas de Sturm-Liouville). Como ocurre con la transformada de Laplace para las EDOs, aplicando la F a algún problema para EDPs acabaremos en otro más sencillo (de EDOs, para las ecuaciones en dos variables que tratamos). Resuelto este segundo problema, para hallar la solución habrá que encontrar una transformada inversa. Para problemas en semirrectas introduciremos también las transformadas seno y coseno. En particular (además de otros problemas), las transformadas de Fourier nos permitirán resolver problemas de la ecuación del calor en varillas no acotadas (no resolubles con las técnicas de los capítulos anteriores) como:  t −  = 0 ,  ∈ R, t > 0 (, 0) = ƒ () ,  acotada Aparecerá la solución fundamental de la ecuación del calor y se comprobará que, según nuestra ecuación matemática, el calor se transmite a velocidad infinita.

55

4.1. Ecuación de la cuerda vibrante En el capítulo 1 vimos que para el problema puro de valores iniciales:

u(x,0)

¨  − c2  = 0 , , t ∈ R tt  (P1 ) (, 0) = ƒ () t (, 0) = g()

g(x) f(x) x

las características eran ±ct = K , la solución general (, t) = p(+ct) + q(−ct)

, p y q funciones arbitrarias de C2 ,

y la solución única de (P1 ), satisfaciendo ya los datos iniciales: Fórmula de D’Alembert

(, t) =

 1 1 ƒ (+ct)+ƒ (−ct) + 2c 2

Z

+ct

g(s) ds

[1]

−ct

Para que  sea C2 , debía ƒ ∈ C2 y g ∈ C1 (entonces es solución clásica o regular). [Si  es continua pero no C2 se llama ‘solución débil’, concepto típico EDPs. En cada caso hay que precisar que se admite como solución débil y comprobar que el problema sigue bien planteado (si hay más funciones que valen como soluciones, ¿seguirá la unicidad?)].

t

(xo ,to )

x-ct=xo-cto

x+ct=xo+cto x xo+cto

xo-cto

dominio de dependencia

Ej 1. Sea

Observemos que (o , to ) sólo depende de los valores de ƒ en los puntos o −cto y o +cto [puntos de corte con el eje  de las características que pasan por (o , to ) ] y de los de g en el intervalo [o−cto , o+cto ] . A este intervalo se le llama dominio de dependencia del punto (o , to ) [de los valores iniciales ƒ y g ; el dominio de dependencia de los valores de ƒ se reduce a los extremos].

ƒ () = 0 , g() = 

→ (, t) =

1 2c

R +ct −ct

s ds =

[La cuerda infinita se inclina progresivamente, cosa poco real. La ecuación es sólo un modelo simplificado. Más interés (y más complicación de análisis) tienen los problemas en los que los datos son no nulos sólo en intervalos acotados].

1  2 +ct s −ct 4c

= t .

u(x,t)

t=0

La solución de (P1 ) es la suma de dos ondas que viajan a velocidad c , una hacia las  crecientes y otra hacia las decrecientes. A la vista de [1]: Llamando G() ≡

1 2c

R 0

g(s) ds :

q() = p() =

1 ƒ ()−G() va hacia la derecha 2 1 ƒ ()+G() va hacia la izquierda 2

Para obtener un dibujo de la solución (, t) en diferentes instantes, identificadas estas ondas viajeras, bastará trasladar sus gráficas y sumarlas (gráficamente). Ej 2. Supongamos ƒ = 0 salvo una perturbación en forma de triángulo en torno a 0 y que soltamos la cuerda sin impulso ( g = 0 ). Dibujemos la solución para diferentes t . Basta trasladar las dos ondas que viajan en sentidos opuestos [aquí ambas son 21 ƒ () ]: t=b/2c —b

t=b/c

h/2 b

b

—b

—b

t=3b/2c

h/2

h

f 0

f/2 b

h/2 —b

b

Ha costado muy poco hacer estos dibujos y predecir la evolución de esta solución débil [bastante más costaría dar la expresión analítica de la solución para todo  y todo t ]. Los picos de la ƒ inicial se mantienen indefinidamente y viajan también a velocidad c .

56

Supongamos ahora que hay fuerzas externas. El problema es: (P2 )

n  − c2  = F(, t) , , t ∈ R tt  (, 0) = ƒ (), t (, 0) = g()

Necesitamos sólo la solución F del problema con ƒ = g = 0 , pues, por la linealidad, si 1 es la solución del (P1 ) anterior, es 1 +F la solución de (P2 ). Sabiendo algo de derivación de integrales, no es difícil deducir que  Z tZ +c[t−τ] 1 tt − c2  = F(, t) F(s, τ) ds dτ satisface F (, t) = (, 0) = t (, 0) = 0 2c 0 −c[t−τ] Por tanto, concluimos que la solución de (P2 ) es: (, t) =

 1 1 ƒ (+ct)+ƒ (−ct) + 2c 2

Z

+ct

g(s) ds + −ct

1 2c

Z tZ

+c[t−τ]

Se comprueba que el recinto descrito por la integral doble es el triángulo del plano sτ limitado por el eje τ = 0 y las características que pasan por (, t) . Así pues, para hallar la solución  en un punto (, t) se necesita sólo: i) los valores de F en dicho triángulo, ii) los de g en su base y iii) los de ƒ en los dos puntos −ct y +ct . 

Ej 3. =

tt −  = 2 (, 0) =  , t (, 0) = 3

R +t  1 (+t)+(−t) + 12 −t 2

F(s, τ) ds dτ

[2]

0 −c[t−τ]

t

x-ct

τ

(x,t)

x

s x+ct

Utilizando directamente [2]: 3 ds+ 12

R t R +[t−τ] 0 −[t−τ]

2 ds dτ = +3t +2

Rt 0

[t −τ] dτ = +3t +t 2

A veces es fácil hallar una solución particular  de la ecuación no homogénea y así evitar el cálculo de la integral doble, pues  =  −  conduce a un problema con F = 0 , resoluble con [1] (esto no se podrá hacer siempre cuando haya condiciones de contorno, pues podrían dejar de ser homogéneas). Por ejemplo si ƒ depende sólo de  o de t se puede buscar una () o una (t) . En este caso:  tt −  = 0 − = 2 →  = −2 +C+K → si () = −2 ,  cumple (, 0) = +2 , t (, 0) = 3 R   +t →  = 12 (+t)+(+t)2 +(−t)+(−t)2 + −t 3 ds = +2 +t 2 +3t →  = +3t +t 2 tt = 2 → (t) = t 2 +3t →



tt −  = 0 →  =  →  =  + 3t + t 2 (, 0) = , t (, 0) = 0

Resolvamos ahora el problema para la cuerda semi-infinita y fija en un extremo: ¨  −c2  = 0 ,  ≥ 0, t ∈ R tt  (P3 ) (, 0) = ƒ () , t (, 0) = g() (0, t) = 0

[para que no esté rota, debe ser ƒ (0) = 0 ].

La fórmula [1] exige funciones definidas ∀ . ¿Cómo extender ƒ y g a todo R? Si llamamos ƒ ∗ y g∗ a sus extensiones se debe cumplir la condición de contorno: R ct   1 (0, t) = 21 ƒ ∗(ct) + ƒ ∗(−ct) + 2c g∗(s) ds = 0 . −ct Es claro que ƒ ∗ y g∗ han de ser impares respecto a 0 , es decir, ƒ ∗(−) = −ƒ ∗() ; g∗(−) = −g∗() . Así pues, la solución de (P3 ) es la del siguiente problema (para la cuerda infinita): ¨  −c2  = 0 , , t ∈ R tt    1 Z +ct ∗ (, 0) = ƒ ∗() , (, t) = 12 ƒ ∗(+ct)+ƒ ∗(−ct) + 2c g (s) ds [3] −ct t (, 0) = g∗() pues  cumple la ecuación, las condiciones iniciales para  ≥ 0 , y la de contorno. 57

Siguiendo con la cuerda semi-infinita, veamos como se resuelve el problema más general con fuerzas externas y extremo móvil: ¨  −c2  = F(, t) ,  ≥ 0, t ∈ R tt  (P4 ) (, 0) = ƒ () , t (, 0) = g() (0, t) = h0 (t)

[debe ahora ser ƒ (0) = h0 (0) ].

Primero debemos hacer la condición de contorno homogénea, encontrando una  que la cumpla y haciendo  = − . La  más clara (no siempre la mejor) es: (t) = h0 (t) . Una vez que tenemos la condición de contorno homogénea, la solución del problema en  la da [2] si sustituimos sus ƒ , g y F por ƒ ∗ , g∗ y F ∗ , siendo ésta última la extensión impar de F mirándola como función de  .

Ej 4.

¨ tt − = 0 ,  ≥ 0, t ∈ R (, 0) = t (, 0) = 0 (0, t) = t 2

Hallemos primero la solución para un  y t fijos: (1, 2) .

Para anular la condición de contorno podemos usar la  de arriba: ( n ¨  − = −2 2 , 0 →  = −t → (, 0) = t (, 0) = 0 → (, 0) = t (, 0) = 0 (0, t) = 0 (1, 2) = 12

RR 4

h F ∗ = 21 (2) área

+(−2) área

i

-2

2

2 -1

3

1

= −3 → (1, 2) = −3+4 = 1 .

[Por ser constantes las F a integrar, nos hemos ahorrado el cálculo de integrales dobles. Pero como esto no se podrá hacer en general, vamos a perder un poco el tiempo en hallar (1, 2) sin este atajo. El valor que estamos calculando es: RR R 2R 3−τ (1, 2) = 12 4 F ∗ = 12 0 τ−1 F ∗(s, τ) ds dτ Sobre el triángulo pequeño la integral viene dada por: R R R1 1 1 0 2 ds dτ = 0 (1−τ) dτ = 2 0 τ−1

1 2

.

Para el otro cuadrilátero hay que dividir en dos el recinto de integración: R R R 2R 3−τ R1 R2 1 1 3−τ (−2) ds dτ + 12 1 τ−1 (−2) ds dτ = 0 (τ −3) dτ + 1 (2τ −4) dτ = − 27 . 2 0 0 Sumando ambos resultados obtenemos (1, 2) = −3 como antes]. Pero podríamos conseguir un problema sin F (que siempre es complicado), haciendo el cambio con una  mejor. Tanteando un poco se ve que  = 2 +t 2 cumple la condición y también la ecuación: ¨ tt − = 0

 = − →

¨  − = 0 , , t ∈ R tt  2 (, 0) = − , t (, 0) = 0 → (, 0) = ƒ ∗() t (, 0) = 0 (0, t) = 0

→ (1, 2) =

1 ∗ [ƒ (3)+ƒ ∗ (−1)] 2

= −4 → (1, 2) = 5−4 = 1

x2

f*

x

-x2

Con este segundo cambio no es difícil dar la (, t) para todo , t ≥ 0 (con el primero nos costaría mucho más). Está claro que hay que considerar dos posibilidades, pues, aunque  + t es siempre positivo,  − t puede ser también negativo, y la ƒ ∗ tiene expresiones distintas para valores positivos y negativos: ¨ ( 1 − 2 (+t)2 + 21 (−t)2 = −2t,  ≤ t (−t)2 ,  ≤ t 1 ∗ ∗  = 2 [ƒ (+t)+ƒ (−t)] = → = 1 1 2 2 2 2 0 , ≥t − (+t) − (−t) = − −t ,  ≥ t 2

2

[Como las ondas viajan a velocidad c = 1 los puntos a distancia ≥ t debían estar parados en el instante t ].

En 4.2 veremos que los problemas de ondas en el espacio con simetría radial se reducen con el cambio  = r a problemas de cuerdas semi-infinitas.

58

Estudiemos la cuerda acotada y fija en ambos extremos [resuelta ya en 3.1]: ¨  −c2  = 0 ,  ∈ [0, L], t ∈ R tt  (P5 ) (, 0) = ƒ () , t (, 0) = g() (0, t) = (L, t) = 0

L

0

[debe ser ƒ (0) = ƒ (L) = 0 ].

Para hallar su solución única con la fórmula de D’Alembert extendemos ƒ y g a [−L, L] de forma impar respecto a 0 y luego de forma 2L-periódica a todo R, es decir, llamando ƒ ∗ y g∗ a estas extensiones: ƒ ∗(−) = −ƒ ∗() , ƒ ∗(+2L) = ƒ ∗() ; g∗(−) = −g∗() , g∗(+2L) = g∗() . f

f*

L

0 -L

-2L

3L

2L

(se tiene entonces que ƒ ∗ y g∗ son también impares respecto a L ).

Como para (P3 ), la solución de (P5 ) se obtiene aplicando [3] al siguiente problema (por la imparidad de los datos se cumplen también las condiciones de contorno):  tt −c2  = 0 , , t ∈ R (, 0) = ƒ ∗() , t (, 0) = g∗() Para que la  dada por [3] sea C2 (regular) deben ƒ ∈ C2 [0, L] y g ∈ C1 [0, L] y además: ƒ (0) = ƒ (L) = ƒ 00 (0) = ƒ 00 (L) = g(0) = g(L) = 0 [ ƒ 0 y g0 existen en 0 y L por la imparidad]. 

Ej 5.

 

u(x,0)

tt −  = 0 ,  ∈ [0, 1], t ∈ R n  , 0≤≤1/ 2 (, 0) =

(Puede representar la pulsación de la cuerda de una guitarra).

1− , 1/ 2≤≤1

t (, 0) = (0, t) = (L, t) = 0

f

x

1/2

1

0

Es complicado hallar explícitamente (, t) ∀ , t pues ƒ ∗ tiene muchas expresiones: 1/2

f*

1

ƒ ∗() =

0

 ···  −1 − , −3/ 2 ≤  ≤ −1/ 2     , −1/ 2 ≤  ≤ 1/ 2  1 − , 1/ 2 ≤  ≤ 3/ 2     − 2, 3/ 2 ≤  ≤ 5/ 2 ···

  Hallar (, t) = 12 ƒ ∗ ( + t) + ƒ ∗ ( − t) exigiría discutir en qué intervalos se mueven +t y −t y sería muy largo (para estas discusiones conviene dibujar los dominios de dependencia). Algo más fácil es hallar la solución para un t o  fijos. Por ejemplo:     , 14 = 12 ƒ ∗ (+ 14 ) + ƒ ∗ (− 14 )  

=

 + 18 2 3 − 2 8 3 − 2 8

+ + +

 − 81 2  − 81 2 5 − 2 8

1/4

=  , 0 ≤  ≤ 14 =

1 4

,

1 4

= 1− ,

≤  ≤ 34 3 4

0

-1/2

≤≤1

1/4

1/2

3/4

1

Sí es muy fácil hallar  para un (, t) dado. No se necesita siquiera la expresión de ƒ ∗ . h h   i  i  Por ejemplo:  41 , 3 = 12 ƒ ∗ 13 + ƒ ∗ − 11 = 21 ƒ ∗ − 34 + ƒ ∗ − 34 = −ƒ 43 = − 14 . 4 4 ↑ ƒ ∗ es 2-periódica

↑ ƒ ∗ es impar

Tampoco se necesita lahexpresión de ƒ ∗ para hacer dibujos: basta trasladar ondas y sumar.   i h  i Dibujemos:  12 , t = ƒ ∗ 12 +t + ƒ ∗ 21 −t = ƒ ∗ 12 +t − ƒ ∗ t − 12 1/2

u(1/2,t) 5

3

1 0

4

2

t

La gráfica se repite con periodo 2. Esto es general: por las propiedades de ƒ ∗ y g∗ la  dada por [3] es 2L −periódica. Lo que era evidente en la serie solución dada en 3.1: c ∞ R 1/ 2 R1 X 4 sen nπ (, t) = kn cos nπt sen nπ , kn = 2 0  sen nπ d+2 1/ 2 (1−) sen nπ d = n2 π 22 . n=1

(Pulsando la cuerda en el centro desaparecen los armónicos pares).

59

Si queremos resolver el problema más general: ¨  −c2  = F(, t) ,  ∈ [0, L], t ∈ R tt  (P6 ) (, 0) = ƒ () , t (, 0) = g() (0, t) = h0 (t) , (L, t) = hL (t)

(hay fuerzas externas y movemos los extremos)

primero, como siempre, hay que hacer las condiciones de contorno homogéneas, hallando una  que las cumpla y haciendo  = − . Una  de esas es la conocida:   (, t) = 1− L h0 (t) + L hL (t) [a veces será mejor buscar otra]. La solución del problema en  la da de nuevo [2], poniendo en vez de ƒ , g y F , las extensiones impares y 2L-periódicas ƒ ∗ , g∗ y F ∗ (vista F como función de  ). Ej 6.

¨ tt − = 0 ,  ∈ [0, 2], t ∈ R (, 0) = 2 , t (, 0) = 0 (0, t) = 0 , (2, t) = 4

Hallemos (1, 2) y (, 1) , mediante D’Alembert y por separación de variables. 1

La  = 2 de arriba es adecuada en este caso: ¨ tt − = 0 ,  ∈ [0, 2]  = −2 → (, 0) = 2 −2 , t (, 0) = 0 . (0, t) = (2, t) = 0

-2

Debemos extender ƒ de forma impar y 4-periódica a

ƒ∗

1 2

4

x2–2x

-1

definida en R:

. . . , −(+2) en [−2, 0] , (−2) en [0, 2] , −(−4)(−2) en [2, 4] , . . . La solución viene dada por  = 12 [ƒ ∗(+t)+ƒ ∗(−t)] . Por tanto:     (1, 2) = 12 ƒ ∗(3)+ƒ ∗(−1) = 12 ƒ ∗(−1)+ƒ ∗(−1) = −ƒ (1) = 1 → (1, 2) = 3 . 4per

impar

Para hallar (, 1) aparecen dos casos (se podría ver con los dominios de dependencia): (   0 ≤  ≤ 1 , 12 [−(−1)(+1) + (+1)(−1)] = 0 (, 1) = 12 ƒ ∗(+1)+ƒ ∗(−1) = → (, 1) = 2 . 1 1≤≤2 ,

[Es claro que llevando

ƒ∗

2

[−(−1)(−3) + (−3)(−1)] = 0

una unidad a izquierda y derecha y sumando todo se cancela].

Para resolver el problema en  separando variables copiamos la solución dada en 3.1: ∞ R2 X 16 (, t) = kn cos nπt sen nπ con kn = 0 (2 −2) sen nπ d = 3 3 [cos nπ −1] 2 2 2 n π n=1



(, t) = − 32 π3

∞ X m=1

1 (2m−1)3

cos

(2m−1)πt 2

sen

(2m−1)π 2

.

Para t = 1 todos los cosenos se anulan, con lo que (, 1) = 0 (como por D’Alembert). h i ∞ X (−1)m+1 1 1 1 π3 Además (1, 2) = 32 = 1 ; deducimos que 1 − 3 + 3 − 3 + · · · = 32 . 3 3 π (2m−1) 3 5 7 m=1

Por último veamos cómo se debe extender si la condición de contorno es  (0, t) = 0 :    1  ∗  (0, t) = 12 ƒ ∗ 0 (ct)+ƒ ∗ 0 (−ct) + 2c g (−ct)−g∗(ct) = 0 , ƒ ∗ 0 impar y g∗ par ⇒ se deben extender ƒ y g de forma par respecto a 0 (o respecto a L si fuese ahí  = 0 ). con condiciones  = 0 y cos nπ [Separando variables salen las autofunciones sen nπ L L si son  = 0 , su periodicidad y paridades son las mismas que las obtenidas aquí]. 

Ej 7.

 

tt − = 0 ,  ∈ [0, 2π], t ∈ R n sen , ∈[0,π] (, 0) = 0 , t (, 0) =  (0, t) =  (2π, t) = 0

Hallemos (, 2π) , por D’Alembert y separando variables.

0, ∈[π,2π]

g*

tt − = 0, , t ∈ R π 2π 0 con g∗ par y 4π-periódica. –2π 4π (, 0) = 0, t (, 0) = g∗ () R +2π R 2π Rπ [la integral en un periodo de una función (, 2π) = 12 −2π g∗ = 21 −2π g∗ = 0 sen s ds = 2 periódica no depende del intervalo]. 

2  Separando variables: X 00 +λX = 0 , X 0 (0) = X 0 (2π) = 0 → λn = n4 , Xn = cos n , n = 0, 1, . . . 2 n T 00 +λ T = 0 ∞ X T0 = {t} n  → →  = 20 t + n sen nt cos n = 0 π . 2 2 t=2π T(0) = 0 Tn = sen nt , n ≥ 1 n=1 2 ∞ R Rπ X 2 2π t (, 0) = 20 + n 2n cos n = g() → 0 = 2π g = π1 0 sen  d = π2 → (, 2π) = 2 . 2 0 n=1

60

4.2. Ondas en tres y dos dimensiones. Sea el problema de valores iniciales para las de ondas en 3 dimensiones espaciales: ¨   tt − c2  +yy +zz = 0 , (, y, z) ∈ R3 , t ∈ R (P3 ) (, y, z, 0) = ƒ (, y, z) , t (, y, z, 0) = g(, y, z) Se puede deducir una fórmula para la solución de (P3 ) análoga a la de D’Alembert para n = 1 . Aceptemos que, si ƒ ∈ C3 y g ∈ C2 , esa solución viene dada por la ZZ h 1 ZZ i 1 fórmula de Poisson ∂ [pk] (, y, z, t) = ∂t ƒ dS + g dS 2 2 o de Kirchoff 4πc t 4πc t C C siendo C la superficie de la bola de centro (, y, z) y radio ct . La forma más natural de parametrizar esta superficie es mediante los ángulos θ y ϕ de las coordenadas esféricas centradas en el punto (, y, z) del dibujo de la derecha →

θ ct (x,y,z) ɸ

Desarrollando las integrales de [1] se obtiene: h i R 2πR π ∂ t (, y, z, t) = ∂t ƒ (+ct sen θ cos ϕ, y+ct sen θ sen ϕ, z+ct cos θ) sen θ dθ dϕ 4π 0 0 R 2πR π t + 4π g(+ct sen θ cos ϕ, y+ct sen θ sen ϕ, z+ct cos θ) sen θ dθ dϕ 0 0 Estudiemos ahora la propagación de ondas en 2 dimensiones: ¨   tt − c2  +yy = 0 , (, y) ∈ R2 , t ∈ R (P2 ) (, y, 0) = ƒ (, y) , t (, y, 0) = g(, y) Podemos mirar (P2 ) como un caso particular de (P3 ) en que datos (y por tanto soluciones) no dependen de z . Las coordenadas adecuadas ahora para parametrizar C son las cartesianas (o las cilíndricas). Expresando [pk] en cartesianas se obtiene: 

1 2πc

(, y, t) =

∂ ∂t

ƒ (ξ, η) dξdη

ZZ B

p

c2 t 2 − (ξ−)2 − (η−y)2

+

g(ξ, η) dξdη

ZZ B

p



c2 t 2 − (ξ−)2 − (η−y)2

donde B es todo el círculo de centro (, y) y radio ct . La fórmula anterior escrita en polares centradas en (, y) queda: (, y, t) =

1 2πc





2πZ ct

Z

∂t

0

0

r ƒ (+r cos θ, y+r sen θ) drdθ + p c2 t 2 − r 2

Z

2πZ ct 0

0

r g(+r cos θ, y+r sen θ) drdθ p c2 t 2 − r 2



  tt −  +yy +zz = 0 , (, y, z, t) ∈ R4 (, y, z, 0) = z , t (, y, z, 0) = 2 +y 2

¨

Ej 1. Resolvamos:

Aplicando directamente la fórmula de Poisson-Kirchoff: h i R 2πR π ∂ t  = ∂t (z+t cos θ) sen θ dθdϕ 4π 0 0 R 2πR π t + 4π (2 +y 2 +t 2 sen2 θ+2t[ sen θ cos ϕ+y sen θ sen ϕ]) sen θ dθdϕ 0 0 h Rπ i Rπ ∂ t = ∂t (z+t cos θ) sen θ dθ + 2t 0 (2 +y 2 +t 2 sen2 θ) sen θ dθ 2 0 2 ∂   = ∂t tz + t 2 +y 2 + 2t3 = z + t2 + ty 2 + 23 t 3 También podemos descomponer el problema en dos y sumar sus soluciones:   El de ƒ = z , g = 0 se puede ver como uno para n = 1 : 1 = 12 (z+t) + (z−t) = z . El de ƒ = 0 , g = 2 +y 2 , como uno de n = 2 : 2 =

1 2π

=

Z

h

2πZ t 0

0

r(2 + y 2 + r 2 + 2r[ cos θ+y sen θ]) drdθ = p t2 − r 2

− (2 +y 2 )

p

t 2 −r 2 −

1 3

2t 2 +r 2

61

p

t 2 −r 2

it 0

Z

t

0

r(2 +y 2 )+r 3 dr p t2 − r 2

= t2 +ty 2 + 32 t 3 .

Interpretemos la fórmula [pk]. Los valores de  sólo dependen de los de ƒ y g sobre el borde de la esfera B((, y, z), ct) . Si para t = 0 hay una perturbación concentrada en un punto P del espacio, en otro t sólo están perturbados los puntos de la superficie esférica de centro P y radio ct , pues para los demás puntos es ƒ = g = 0 sobre la superficie C . Si inicialmente se perturba todo un conjunto A , los puntos afectados para cada t son una región At del espacio formada por la unión de todas las superficies esféricas de radio ct y centro P ∈ A . La superficie exterior de At se llama frente delantero de la onda y la interior frente trasero. En el dibujo se esquematizan ambos frentes para el caso de una perturbación inicial de una esfera de radio  . Los puntos que alcanza el frente delantero, antes en reposo, comenzarán a oscilar. Los puntos sobrepasados por el trasero volverán al reposo.

frente delantero ct+a

ct-a a

frente trasero

Veamos ahora lo que sucede en el plano. Supongamos una perturbación localizada para t = 0 en un punto P del plano. Otro punto M , situado a una distancia d de P , permanecerá en reposo hasta el instante to = d/ c . Si t ≥ to , P ya pertenece al círculo B(M, ct) y por tanto será (M, t) 6= 0 : a partir del instante to el punto M permanece perturbado indefinidamente (aunque tienda a pararse cuando t → ∞ , como las ondas producidas por una piedra en un estanque). Esta situación no contradice los resultados para n = 3 : la perturbación de P , vista como una perturbación en el espacio independiente de z , consiste de hecho en un cilindro vertical infinito sobre P , con lo que al M irán llegando las perturbaciones provinientes de puntos cada vez más lejanos del cilindro (que, por tanto, serán cada vez más pequeñas). Las ondas que se propagan constituyen ondas cilíndricas en el espacio: en cada cilindro paralelo al inicial la solución toma un valor constante. [Las ondas pasan en el espacio y permanecen en el plano]. Si las ƒ y g sólo dependen de  , se puede ver que como caso particular de [pk] aparece la conocida fórmula de D’Alembert para n = 1 . Si se mira esta solución sumergida en R3 se puede interpretar como la suma de dos ondas planas avanzando por planos perpendiculares al eje  a velocidad ±c . Todos los puntos de cada plano están igualmente perturbados. Veamos si para la cuerda las perturbaciones iniciales pasan o permanecen. Para ello vamos a definir lo que se llama dominio de influencia: el valor de la dominio de influencia t ƒ inicial en  = o influye sólo en los valores de la solución  de la g x-ct=xo sobre las dos características que pasan por (o , 0) [dominio de x+ct=xo influencia de la ƒ ], pues este punto no influye en el valor de la dom. inf. solución en puntos que no estén sobre ellas. Por la misma razón de la f el dominio de influencia de la g en o consiste en el triángulo x xo infinito limitado por dichas características. En el caso n = 1 , se da una situación intermedia entre n = 2 y n = 3 : la influencia de la posición inicial ƒ desaparece, pero la de la velocidad g inicial se deja sentir indefinidamente. Nos interesan también los dominios de influencia en la cuerda semi-infinita (las ondas en el espacio con simetría esférica se reducirán a ella). La situación es la siguiente: Como se extendía de forma impar respecto del origen, si o t está perturbado, también lo estará (en sentido opuesto) el punto −o . Cuando la característica que sale de o llega a  = 0 se encuentra con la que viene del punto simétrico (‘rebota’). La ƒ influye, pues, en el segmento y semirrectas indicados. Y la g , sobre la región sombreada (fuera, o se f integra 0 ó se cancelan las aportaciones de o y −o ). Como se ve, también la g en este caso deja de influir sobre la solución pasado un tiempo. [Este dibujo nos sirve además para ver que se invierte una onda cuando llega a un extremo fijo: cuando rebota, aparece la onda que viene de −o con forma opuesta a que llegó]. Si n = 2 , el dominio de dependencia de (, y, t) de los datos iniciales es todo el círculo B((, y), ct) y el de influencia de la ƒ y g iniciales en un punto (o , yo , 0) es todo el cono (−o )2 +(y−yo )2 ≤ c2 t 2 . Para n = 3 la influencia de (o , yo , zo , 0) es solamente la superficie de un cono tetradimensional (no dibujable).

62

t

t

(x,y,z)

ct y

y x

x

(xo ,yo ,0)

Consideremos ahora ondas en el espacio con simetría radial. Pasando a esféricas y quitando los términos con derivadas respecto a θ y ϕ llegamos al problema: ¨   tt − c2 rr + 2r r = 0 , r ≥ 0, t ∈ R (Pr ) (r, 0) = ƒ (r) , t (r, 0) = g(r) Haciendo  = r , la ecuación se transforma en la de la cuerda: tt −c2 rr = 0 . Y como  es acotada, aparece la condición de contorno: (0, t) = 0 · (0, t) = 0 . Así, el problema en las nuevas variables es: ¨ tt − c2 rr = 0 , r ≥ 0, t ∈ R (P ) (r, 0) = rƒ (r), t (r, 0) = rg(r), (0, t) = 0 Sabemos desde la sección anterior que si F ∗ y G∗ son las extensiones impares respecto a 0 de F(r) ≡ rƒ (r) y G(r) ≡ rg(r) la solución de (Pr ) es: (r, t) =

1 1 [F ∗(r +ct)+F ∗(r −ct)] + 2cr 2r

R r+ct r−ct

G∗(s) ds

[•]

que podemos poner en la forma (r, t) = 1r p(r +ct) + 1r q(r −ct) e interpretar como la suma de dos ondas esféricas, cuyos radios disminuyen o crecen a velocidad c . La magnitud de la perturbación propagada es inversamente proporcional al radio. [•] da problemas en r = 0 , pero con L’Hôpital y el teorema fundamental del cálculo: F ∗0 (ct)+ 1c G∗(ct) = (0, t)

 1 ∗  1  ∗0 F (ct)+F ∗0 (−ct) + 2c G (ct)−G∗ (−ct) = r→0 2

→

 ¨

Ej 2. ¨

 (0, t) puede no ser continua aunque ƒ lo sea (si F ∗ no es C1 ) .

tt − Δ = 0 , r ≥ 0 , t ∈ R (r, 0) = 0, t (r, 0) =



1, r ≤ 1 0, r > 1

Comencemos suponiendo n = 3 . Su solución es  =

tt − rr = 0 , r, t ∈ R  r , |r| ≤ 1 (r, 0) = 0, t (r, 0) = G∗ (r) = 0 , |r| > 1 → (r, t) =

 r

R 1 r+t 2

r−t

, si  es la solución de:

G*

G∗

r

Estudiemos la evolución para t ≥ 0 de un punto M del espacio situado a una distancia R > 1 del origen. Si t < R−1 o si t > R+1 es claro que  = 0 . Si t ∈ [R−1, R+1] , la integral se reduce a: R1 1−[R−t]2 s ds → (R, t) = 4R R−t Se ve que M oscila sólo durante un intervalo de tiempo finito [eso lo podíamos decir dibujando el dominio de influencia]. Y que la amplitud máxima de la oscilación es inversamente proporcional a la distancia que separa M del origen.

t R+1

dominio de influencia

R-1 -1

R-t

1

r R

u(R,t)

1/4R

t Dar (R, t) con la fórmula [pk] es complicado, pero sí es R-1 R R+1 fácil hallar: ¨ 1 RR de C 1 dS = área = t , si 0 ≤ t ≤ 1 4πt C (0, 0, 0, t) = 4πt = G∗(t) [predicho con L’Hôpital]. RR 1 0 dS = 0 , si t > 1 4πt C

Hay discontinuidades ( G era discontinua), pero se concentran en el origen [ (M, t) sí era continua]. t ≥1

1

Miremos ahora el problema como si fuese para n = 2 . Los cálculos son siempre más difíciles, así que nos limitamos a hallar (0, 0, t) : R ¨ t p r dr = t , t ≤ 1 R R R t r g dr 0 t 2 −r 2 1 2π t r g drdθ (0, 0, t) = 2π 0 0 p 2 2 = 0 p 2 2 = R 1 p r dr t −r

Como debía suceder, t −

63

t −r

p

t 2 −1 =

0

t+

p1

p

t 2 −r 2

= t−

→ 0.

t 2 −1 t→∞

t 2 −1 , t ≥ 1



Ej 3.

n tt −rr − 2r r = 0 , r ≥ 0, t ∈ R (r −2)(r −4) si r ∈ [2, 4] , con ƒ (r) = 0 en el resto de [0, ∞) (r, 0) = ƒ (r) , t (r, 0) = 0

Dibujemos la solución para t = 3 y 6 y describamos la evolución de dicha solución. Para ello nos basamos en los dibujos del problema para la cuerda semiacotada: ¨  − = 0 , r ≥ 0 ¨  − = 0 , r ∈ R tt rr tt rr (r, 0) = rƒ (r) ≡ F(r) → (r, 0) = F ∗(r) impar t (r, 0) = (0, t) = 0 t (r, 0) = 0

Será (r, t) = Movemos

1 ∗ F 2

F ∗ (r+t)+F ∗ (r−t) 2

y (r, t) =

(r,t) r

.

a izquierda y derecha y sumamos.

Precisamos los dibujos hallando algunos valores: Como F(r) = r(r −2)(r −4) , r ∈ [2, 4] , es F(3) = −3 p y F es mínima para  = 2+ 32 3 ≈ 3.2 .  8 2  12 , 3 = −3/ = − 34 , (6, 3) = −3/ = − 14 , 1/ 2 6 2 (3, 6) = 3/32 = 12 , (9, 6) = −3/ = − 61 , 9

Además (0, t) = F ∗ 0 (t) → (0, 3) = 3t 2 −12t = 8 t=3 = −1 . [ (0, t) resulta ser discontinua para t = 2 y t = 4 : F ∗ 0 (2+ ) = −4 6= 0 y F ∗ 0 (4− ) = 8 6= 0 . En esos instantes los ‘picos’ de ƒ confluyen en el origen].

Tanto para  como para  , la onda se divide en 2 y se refleja cambiando de signo; pero, mientras en dimensión 1 no se deforma, en el espacio disminuye al alejarse del origen. ¨

Ej 4.

 tt − rr + 2r r = 0 , r ≥ 0 (r, 0) = r , t (r, 0) = 0

Calculemos (1, t) para t ≥ 0 .

¨ tt −rr = 0 , r ∈ R ¨ tt −rr = 0 , r ≥ 0 ƒ ∗ extensión impar de r 2 2   → (r, 0) = ƒ ∗(r)  = r → (r, 0) = r − r 2 si r ≤ 0 . t (r, 0) = (0, t) = 0 t (r, 0) = 0 (1 [(1+t)2 +(1−t)2 ] = 1+t 2 si 0 ≤ t ≤ 1 (1,t) Por tanto, (1, t) = 1 = 12 . [(1+t)2 −(1−t)2 ] = 2t si t ≥ 1 2

También se puede hallar con la fórmula de Poisson-Kirchoff. Para simplificar, la evaluamos en el punto más sencillo situado a distancia 1 , el (0, 0, 1) : p h i h i R 2πR π p θ ∂ t R1 ∂ t 2 +2t cos θ sen θ dθ dϕ s=cos 2 +2ts ds (0, 0, 1, t) = ∂t 1+t = 1+t 4π 0 ∂t 2 0 −1 =

∂ ∂t

h

i1  1 ∂  2 +2ts)3/ 2 (1+t = 16 ∂t |t+1|3 −|t−1|3 6 −1

que nos lleva al resultado de antes.

64

( ∂

=

1 6

[2t 3 +6t] si ∂t ∂ [6t 2 +2] si ∂t

0≤t≤1 t≥1

4.3. Transformadas de Fourier. Sea ƒ () definida en R y absolutamente integrable

hR∞

i | ƒ | < ∞ . −∞ ∞

Z

La transformada de Fourier de ƒ es la función: ˆƒ (k) = p1



ƒ () ek d .

−∞

Si ƒ es además C1 se puede recuperar a partir de ˆƒ usando la fórmula de inversión: ƒ ∈ C1 (R) y absolutamente integrable ⇒ ƒ () = p1

Teor 1

Z



 Algunos libros no ponen la constante

1 p 2π



ˆƒ (k) e−k dk ∀ ∈ R .

−∞

en la definición de ˆƒ y ponen

1 2π

en la fórmula

de inversión; también se puede ver en la primera fórmula e−k y en la segunda ek ;  como otros resultados (algunos se probarán en problemas) no la demostramos .

Se llama a ƒ transformada inversa de Fourier de ˆƒ . Vamos a denotar  también F (ƒ ) = ˆƒ y F −1 ˆƒ = ƒ . Es evidente que F y F −1 son lineales. Veamos otras propiedades. La F hace desaparecer derivadas: ƒ , ƒ 0 , ƒ 00 ∈ C(R) y absolutamente integrables ⇒

Teor 2

F (ƒ 0 ) = −kF (ƒ ) F (ƒ 00 ) = −k 2 F (ƒ )

R∞ R∞   ∞   F ƒ 0 () = p1 −∞ ƒ 0 () ek d = p1 ƒ () ek −∞ − pk −∞ ƒ () ek d = −k F ƒ () , 2π 2π 2π R∞       pues ƒ → 0 si −∞ | ƒ | converge. F ƒ 00 () = −k F ƒ 0 () = −k 2 F ƒ () . →∞

Estas transformadas nos aparecerán resolviendo EDPs (probamos las 2 primeras):    ekb −ek 1 ,  ∈ [, b] F −1 ˆƒ (k) ek = ƒ (−) . Si h() = 0 en el resto , F (h) = p1 . k 2π Teor 3   2 2 2 2 F e− = p1 e−k / 4 . F −1 e−k = p1 e− / 4 . 2

F −1 ˆƒ e

 −k

=

1 p 2π

2

R∞ −∞

ˆƒ (k) e−k(−) dk = ƒ (−) . F (h) =

1 p 2π

Rb 

La convolución de ƒ y g es la función: (ƒ∗g)() = p1

ek d =



Teor 4

Z



1 ekb −ek p k 2π

.

ƒ (−s) g(s) ds .

−∞

Se tiene ƒ ∗g = g∗ƒ , y F (ƒ ∗g) = F (ƒ ) F (g) , si las transformadas existen.

Aplicando a una EDP en dos variables la F en una de ellas aparece una EDO (en ˆ . Resolviendo la EDO se halla  ˆ . Identificando la  de la la otra variable) para la  que proviene o con el teorema 1 se puede a veces dar explícitamente la solución, pero en muchos casos hay que dejar  en términos de integrales no calculables. 

Ej 1. ¨

t +  = g() (, 0) = ƒ ()

Aplicamos la F en la variable  (se supone que  , g y ƒ son buenas, de modo que se pueden usar los teoremas):

h kt i ˆ ˆ t − k  ˆ = g(k)  d. i. ˆ g(k) e −1 ˆ ˆ = ˆƒ (k) ekt + g(k) ˆ → (k, t) = p(k) ekt − k , p arbitraria →  k ˆ ˆ (k, 0) = ƒ (k)

Por tanto: (, t) = ƒ (−t) + Como

Rt 0

g(−) d = −

R −t 

p

2π g()∗h() siendo h() =

g(s) ds , concluimos que



1 si  ∈ [0, t] 0 en el resto

 = ƒ (−t) +

R −t

g(s) ds

 La solución la podemos calcular también con las técnicas del capítulo 1:  R ξ=−t dt = 1 → → η = g(η) →  = p(−t) + 0 g(s) ds → d η= R R −t R  p() + 0 g(s) ds = ƒ () →  = ƒ (−t) − 0 g(s) ds + 0 g(s) ds como antes .

65

.

Más interés que el ejemplo anterior, puesto que no conocemos ningún otro método para resolverlo, tiene el problema para el calor en una varilla infinita:  t −  = 0 ,  ∈ R, t > 0 (P) (, 0) = ƒ () ,  acotada Supongamos que  y ƒ son suficientemente regulares y que tienden a 0 en ±∞ lo suficientemente rápido como para poder utilizar los teoremas anteriores. Aplicando la F en la variable  a la ecuación y al dato inicial se tiene el problema: ¨ ˆt + k 2  ˆ=0  2 ˆ cuya solución es (k, t) = ˆƒ (k) e−k t ˆ ˆ (k, 0) = ƒ (k) La solución será la convolución de las transformadas inversas de cada uno de los factores (la del segundo la vimos en el teorema 3): 1

2 πt

G(, s, t) =



Z

(, t) = p

2 1 p e−(−s) / 4t 2 πt

ƒ (s) e−(−s)

2 / 4t

ds ≡

Z



G(, s, t) ƒ (s) ds

[1]

−∞

−∞

es la llamada solución fundamental de la ecuación del calor

[es la temperatura del punto  en el tiempo t debida a una ƒ inicial de la forma δ(−s) ].

Una vez deducida [1], en vez de justificar los pasos que llevaron a ella, se prueba que proporciona realmente la solución de (P) con hipótesis más amplias incluso de las que nos permiten aplicar la F . En concreto, para cualquier ƒ acotada y continua a trozos [1] nos da la solución única acotada de (P) que es continua para t ≥ 0 a excepción de los puntos de t = 0 en que ƒ es discontinua. De [1] se deduce también que, según nuestro modelo matemático, el calor se transmite a velocidad infinita: si ƒ > 0 en un entorno de un o y nula en el resto, está claro que (, t) > 0 por pequeño que sea t y grande que sea |−o | . También se ve que  es C∞ para t > 0 aunque ƒ sea discontinua (¡aunque sea ƒ () = δ(−s) !). Son propiedades claramente diferentes de la ecuación de ondas. Ej 2. Apliquemos [1] para resolver un par de problemas particulares. ƒ () =

Suponemos primero que:



0 , 0

→ (, t) =

1 p 2 πt

R∞ 0

e−(−s)

p Haciendo  = (s−)/ 2 t la integral se transforma en: R∞ R / 2pt R∞ 2 2 2 (, t) = p1π −/ 2pt e− d = p1π 0 e− d + p1π 0 e− d = 1

donde ϕ(s) =

!(s)

0

2 p π

Rs 0

ds

 p

1+ϕ

2 t

aparece a menudo en la teoría de las probabilidades.

s

1

ƒ () = e− Z

2

i

e− d es la llamada función error que

Como se observa, la solución tiende hacia 12 para todo  cuando t tiende a ∞ .

=

h

/ 4t

2

-1

Sea ahora

1 2

2

t!" 1/2 x

0

. Completamos cuadrados y hacemos un cambio de variable:



(−s) 2 1 p e−s e− 4t 2 πt −∞

2

Haciendo z = • se obtiene:

2

Z



2 1 −  p e 4t+1 e−(•) ds 2 πt −∞ Z∞ p 2  = p1 p2 t e− 4t+1 2 πt 4t+1

ds =

−∞

con • = 2

e−z dz =

p  s 4t+1 − p4t+1 p 2 t p

1 1+4t

Pero sale más corto aplicando directamente F : ( ˆ t = −k 2  ˆ  2 k 2 (1+4t) ˆ = p1 e− 4 →  →  = p 1 e− 1+4t . 2 1+4t 2 ˆ (k, 0) = p1 e−k / 4 2

66

2

e− 1+4t .



Ej 3.

Hallemos la solución para una ƒ () general y deduzcamos la solución para ƒ () ≡ 1 .

t −  + 2t = 0 ,  ∈ R, t > 0 (, 0) = ƒ () ,  acotada

[Como F (1) no existe, no se puede resolver directamente el problema con (, 0) = 1 ]. ¨ ˆ t +(k 2 +2t) ˆ=0  ˆ t) = p(k) e−k 2 t−t 2 d.. ˆ t) = ˆƒ (k) e−t 2 e−k 2 t → → (k, → (k, ˆ (k, 0) = ˆƒ (k) Z 2

2

En particular, si ƒ () ≡ 1 ,  =

2

Z



e−t p 2 πt −∞

e−(−s)

2

/ 4t ds

=



e−t p 2 πt −∞

2

(, t) = e−t ƒ () ∗ F −1 (e−k t ) =

2

e−t p π

Z



ƒ (s) e−(−s)

2

↑p −∞ (s−)/ (2 t ) = 

2

/ 4t

ds .

2

e− d = e−t .

2

[Parece que sería adecuado hacer un cambio de la forma  =  e−t →



t −  = 0 ; (, 0) = ƒ ()

de [1] se deduce nuestra fórmula y  ≡ 1 es solución clara si ƒ () ≡ 1 (la varilla sigue a 1o ).

Análogamente a lo que pasaba con la transformada de Laplace para resolver EDOs, el uso de la F permite abordar problemas de EDPs con la delta de Dirac δ sin entrar en sutilezas sobre continuidades y saltos en derivadas. La transformada de la delta es muy fácil de hallar:   F δ(−) =

1 p 2π



Z

δ(−) ek d =

−∞

1 p 2π

ek .

[Obsérvese que formalmente esta función (que no tiende a 0 en ±∞ ) no tiene transformada inversa, pero, como ya hemos dicho, con la F se suele ser riguroso justificando los resultados al final]. Resolvamos un problema (algo complicado) para la cuerda infinita con una F = δ (empujamos hacia arriba en el punto central de la cuerda): ¨  ˆ tt + k 2  ˆ = p1  tt −  = δ() ,  ∈ R, t ≥ 0 2π Ej 4. (Pδ ) . . Aplicando la F : (, 0) = t (, 0) = 0 ˆ (k, 0) = ˆt (k, 0) = 0 La solución general ( λ = ±k y p a simple vista) es: ˆ (k, t) = p(k) cos kt + q(k) sen kt +

p

1 2π k 2

d..

ˆ −→ (k, t) =

1−cos kt p 2π k 2

=

2 p 2π

h sen k t i2 k

2

.

En la h del teor 4, cuando  = −b se tiene como caso particular: Si h() =



p

kb −kb 1 ,  ∈ [−b, b] , F (h) = p1 e −e = pπ2 senk bk . k 0 en el resto 2π

La  será, por tanto, la convolución de una h de este tipo consigo misma. En concreto:  R∞ 1 ,  ∈ [−t/ 2, t/ 2]  = 12 ∞ h(−s) h(s) ds , donde h() = 0 en el resto

Discutiendo en qué intervalos el integrando es 1 ó 0 según los valores de  se concluye: Si  ≤ −t ó si  ≥ t es  = 0   Si  ∈ [−t, 0] ,  = 21 + 2t − (− 2t ) = 12 [+t]   Si  ∈ [0, t] ,  = 12 2t − (− 2t ) = 12 [t −] ¨ 0 , si || ≥ t  Es decir,  = 1  t −|| , si || ≤ t 2 Para hacerlo sin transformadas, más fácil que discutir R t R +t−τ  = 21 0 −t+τ δ(s) ds dτ , es hacer la ecuación homogénea con un cambio de variable. Como  = 21 || satisface  00 = δ() , con  = + se obtiene: tt −  = 0 (, 0) = ||/ 2 →  = t (, 0) = 0

¨

 1 |+t|+|−t| − 12 || . 4

Discutiendo los valores absolutos se llega a la solución de antes.

67

En problemas para regiones semi-infinitas se usan las transformadas seno y coseno que son caso particular de F por las propiedades de las funciones pares o impares. Se definen estas transformadas de funciones ƒ absolutamente integrables en [0, ∞) mediante: Fs (ƒ )(k) = ˆƒs (k) =

q

2 π

Z



ƒ () sen k d ; Fc (ƒ )(k) = ˆƒc (k) =

q

2 π

0



Z

ƒ () cos k d

0

La fórmula de inversión adopta la forma: R∞ Sea ƒ ∈ C1 ([0, ∞)) y sea 0 | ƒ | < ∞ . Entonces: q Z∞ 2 ˆƒs (k) sen k dk para todo  ∈ (0, ∞) ƒ () = π Teor 1’ ƒ () =

q

2 π

Z

0 ∞

ˆƒc (k) cos k dk para todo  ∈ [0, ∞)

0

Con hipótesis análogas a las del teorema 2 se tiene también: q q Teor 2’ Fs (ƒ 00 ) = −k 2 Fs (ƒ ) + π2 ƒ (0) k ; Fc (ƒ 00 ) = −k 2 Fc (ƒ ) − π2 ƒ 0 (0) . [Por este resultado, la Fs será útil cuando nos den el valor de (0, t) mientras que la Fc la emplearemos si lo fijado es  (0, t) ]. p R p  00  p2 R ∞ 00 ∞ ∞ Fs ƒ () = pπ 0 ƒ () sen k d = pπ2 ƒ 0 () sen k 0 − k pπ2 0 ƒ 0 () cos k d p R p ∞   p ∞ = −k pπ2 ƒ () cos k 0 −k 2 pπ2 0 ƒ () sen k d = −k 2 Fs ƒ () + pπ2 ƒ (0)k .   p R∞ Fc ƒ 00 () = pπ2 0 ƒ 00 () cos k d = p

= − pπ2

p 2 p π

p R ∞ ∞ ƒ 0 () cos k 0 + k pπ2 0 ƒ 0 () sen k d p ∞     p ƒ 0 (0) + k pπ2 ƒ () sen k 0 −k 2 Fc ƒ () = −k 2 Fc ƒ () − pπ2 ƒ 0 (0) .

Estas transformadas aparecen en problemas del calor en [0, ∞) :  2 1 −2 / 4 ; F −1 e−k 2 = p1 e−2 / 4 . Teor 3’ Fs−1 k e−k = [2] 3/ 2  e c 2

Ej 5. Calor en una varilla semi-infinita:

¨  −  = 0 ,  > 0, t > 0 t  (, 0) = 0 , (0, t) = g(t)  acotada

ˆ Llamemos (k, t) a la transformada seno de (, t) respecto a  (suponiendo como ˆ es: siempre que existe). El problema para  q q 2 Rt 2 ˆ = π2 g(t) k , (k, ˆt + k 2  ˆ ˆ  0) = 0 → (k, t) = π2 e−k t 0 g(s) k ek s ds La fórmula de inversión, el cambio de orden de integración y el teor 3’ nos dan: R ∞R t Rt R∞ 2 2 (, t) = π2 0 0 g(s) k e−k (t−s) sen k ds dk = π2 0 g(s) 0 k e−k (t−s) sen k dk ds →

(, t) =

Ej 6. Ondas semi-infinita:

1 p 2 π

Rt

s 0 [t−s]3/ 2

e−

2

/ [4(t−s)] g(s) ds

¨ tt − = 0 ,  ≥ 0, t ∈ R (, 0) = t (, 0) = 0 (0, t) = t 2

Para Fs (o Fc ) no se necesita (nada habitual) hacer la condición de contorno homogénea: q q h i 2 ˆ→ ˆ tt +k 2  ˆ = π2 t 2 k →  ˆ = p(k) cos kt + q(k) sen kt + π2 tk − k23 Fs  =  q h i R∞ 2 2 2 (cos kt−1) 2 (cos kt−1)  ˆ ˆ t (k, 0) = 0 →  ˆ = π2 tk + (k, 0) =  →  = π2 0 tk + sen k dk 3 k k3 La integral es muy complicada. Hallamos sólo (1, 2) pues entonces parece simplificarse: R∞ 3    k k (1, 2) = π8 0 sen − sen dk = (tablas) = π8 π2 − 3π =1 k 8 k3 [Llegamos a ese valor en 4.1 a partir de D’Alembert (que era mejor camino)].

68

Apéndice Repaso de EDOs dy d

Algunas EDOs de primer orden

= ƒ (, y)

resolubles

[ ƒ , ƒy continuas en un entorno de (o , yo ) ⇒ existe una única solución con y(o ) = yo ]. R R dy p() Separables: d = q(y) → q(y) dy = p() d + C . dy y y dy Se convierten en separables: d = ƒ  con z =  . d = ƒ (+by) con z = +by . R R R R dy Lineales: d = ()y+ƒ () → y = Ce ()d + e ()d e− ()d ƒ () d . [solución general de la homogénea + solución yp de la no homogénea]. dy

Exactas: M(, y)+N(, y) d = 0 con Ej.

 M = U  My ≡ N → U(, y) = C solución. N = Uy

y

dy d

= y− (solución única si y 6=  ) se puede resolver por tres caminos: R (2z−2) dz R y y2 y z z =  → z 0 +z = z−1 → = −2 d +C → z 2 −2z = 2 −2  = C2 .  z 2 −2z dy

y + (−y) d con My ≡ N = 1 → d dy

=

y− y

U = y → U = y+p(y)

→ y 2 −2y = C .

Uy = −y → U = y− 12 y 2 +q()

= − y +1 lineal (solución única si y 6= 0 ) .  =

C + 1y y

R

y dy =

y C +2 y

.

  dy Pasa una sola curva integral (solución de d = · · · o de d = · · · ) salvo por (0, 0) . dy

EDOs lineales de orden 2 :

[n] y 00 +()y 0 +b()y = ƒ () ,  , b , ƒ continuas en  .

y 1

|W|() =

y10

y2 . 0 y2

Si o ∈  , tiene una sola solución (definida en todo  ) con y(o ) = yo , y 0 (o ) = yo0 . Si y1 , y2 son soluciones de la homogénea ( ƒ ≡ 0 ) con wronskiano |W|(s) 6= 0 para algún s ∈  , la solución general de la homogénea es: y = c1 y1 +c2 y2 . Si yp es una solución de [n], la solución general de [n] es: y = c1 y1 +c2 y2 +yp . R y ƒ R y ƒ 1 2 Una solución particular de [n] es: yp = y2 |W| d − y1 |W| d [fvc].

Coeficientes constantes: [h] y 00 +y 0 +by = 0 , μ2 +μ+b = 0 (autovalores). Si μ1 6= μ2 reales → y = c1 eμ1  + c2 eμ2  La solución general de [h] es: Si μ doble (real) → y = (c1 +c2 ) eμ Si μ = p±q → y = (c1 cos q+c2 sen q) ep Método de coeficientes indeterminados para [c] y 00 + y 0 + by = ƒ () : Si ƒ () = eμ pm () , con pm polinomio de grado m , y μ no es autovalor, tiene [c] solución particular de la forma yp = eμ Pm () , con Pm del mismo grado. Si μ es autovalor de multiplicidad r , hay yp = r eμ Pm () .   Si ƒ () = eμ pj () cos q + j , k , y p ± q no  qk () sen q , pj , qk de grados  p es autovalor, hay yp = e Pm () cos q+Qm () sen q con P y Qm de grado m   m = máx{j, k} . Si p±q es autovalor hay yp = ep Pm () cos q+Qm () sen q . Ej. y 00 −y = e . μ = ±1 → solución general: y = c1 e +c2 e− +yp , con: yp = Ae → (A+2)−A = 1 → yp = 12 e . O más largo:  R   R −  e e− − e e + e e e = − 1 e − 1 e . |W|() =  − = −2 , y p = e −2 −2 4 2 e

−e

69

Euler: [u] 2 y 00 +y 0 +by = 0 , μ(μ−1)+μ+b = 0 . Si μ1 6= μ2 reales → y = c1 μ1 +c2 μ2 La solución general de [u] es: Si μ doble (real) → y = [c1 +c2 ln ] μ Si μ = p±q → y = [c1 cos(q ln )+c2 sen(q ln )] p  Una yp de 2 y 00 +y 0 +by = h() se obtiene de la [fvc] con ƒ () = h()/ 2 ,  o utilizando que con  = es se convierte en y 00 (s)+(−1)y 0 (s)+by(s) = h es . Si

b() ≡ 0 , y 0 =  lleva [e] a lineal de primer orden en  .

Ej. y 00 −2y 0 =  . Se puede ver como Euler: 2 y 00 −2y 0 = 2 , μ(μ−1)−2μ = 0  → y = c1 +c2 3 +yp , con yp = A2 yp = Ae2s → yp = − 21 2 . h i R R 3 1  3 = 32 , y = 3 1·1 +  ·1 = − 1 2 . O bien, |W|() = p 2 2 2 2 3 3 0 3

O de otra forma: y 0 =  →  0 = 2 +1 →  = C2 +2 

R d 2

= C2 − → y = K +C3 − 12 2 .

Para otras ecuaciones lineales de segundo orden hay buscar:

Soluciones en forma de serie: Si , b son analíticas en  = 0 , es un punto regular de [e] y 00+ ()y 0 +b()y = 0 y la solución de [e] es y =

∞ X

ck k = c0 y1 +c1 y2 , con c0 , c1 arbitrarios.

n=0

 = 0 es punto singular regular de [e∗ ] 2 y 00+ ∗()y 0 +b∗()y = 0

si ∗ , b∗ son

analíticas en  = 0 . Sean r1 ≥ r2 las raíces de q(r) = r(r −1)+∗ r +b∗ . 0 0 Hay solución y1 de [e*] de la forma y1 = r1

∞ X

ck k , c0 6= 0 .

n=0

La segunda solución y2 linealmente independiente es: a] Si r1 −r2 6= 0, 1, · · · : y2 = r2 c] Si r1 −r2 ∈ N : y2 = r2

∞ X

∞ X

bk k , b0 6= 0 . b] Si r1 = r2 : y2 = r1 +1

n=0

∞ X

bk k + 1 ln  .

n=0

bk k +dy1 ln  , b0 6= 0 , d ∈ R.

n=0

EDOs importantes resolubles utilizando series: Legendre

(1−2 )y 00 −2y 0 +p(p+1)y = 0 . Tiene soluciones polinómicas si p = n ∈ N :

P0 = 1 , P1 =  , P2 = 32 2 − 12 , P3 = 25 3 − 32  , P4 = 35 4 − 15 2 + 38 , . . . 8 4 R1 R1 2 Se cumple que: −1 Pn Pm d = 0 , si m 6= n ; −1 P2n d = 2n+1 . Bessel:

2 y 00 +y 0 +[2 −p2 ]y = 0

→ r = ±p . r1 = p → Jp () ≡

∞   p X (−1)m [/ 2]2m

2

m=0

m! (p+m+1)

Jp soluciones acotadas en  = 0 , con infinitos ceros [los de J0 son: 2.4.., 5.5.., ...]. Las soluciones linealmente independientes de ellas son no acotadas en 0 . Cuando p = 12 ,

3 2

, . . . , la solución es expresable con funciones elementales   cos   p +c2 p por ejemplo, si p = 12 es y = c1 sen .     0 2p Recurrencia: Jp+1 =  Jp − Jp−1 . Derivadas: p Jp () = p Jp−1 () , J00 () = − J1 . 1

P2

P0 P3

0.8

P1

0.4

–1

J0

Bessel

0.6

1

J1

0.2 0 –0.2

Legendre

–0.4

70

5

10

15

20

.

Repaso de convergencia uniforme Sea la sucesión de funciones definidas en A ⊂ R : {ƒn ()} = ƒ1 (), ƒ2 (), ..., ƒn (), ... . {ƒn } converge puntualmente ƒ en A si para cada  ∈ A es l´ım ƒn () = ƒ () . n→∞

{ƒn } converge uniformemente hacia su límite puntal ƒ en A si ∀ϵ > 0 existe algún N tal que ∀ ∈ A , si n ≥ N entonces |ƒ () − ƒn ()| < ϵ . Gráficamente, si {ƒn } → ƒ uniformemente, a partir de un N todas las gráficas de las ƒn quedan dentro de toda banda de altura 2ϵ alrededor de la de ƒ . Si la convergencia es sólo puntual, para cada  el N es distinto y no se puede dar uno válido para todos los puntos de A .  0 si  = 0 Ej. ƒn () = 1/ n → (puntualmente). 1 si  ∈ (0, ∞)

f

!

f2 f1 A

La convergencia es uniforme en [1, 2] , pero no en [0, 1] . Para cada  ∈ [0, 1] existe N tal que si n ≥ N el punto (, 1/ n ) está dentro de la banda, pero hace falta elegir N mayores según nos acercamos a 0 . En [1, 2] la convergencia es uniforme, pues el N que vale para  = 2 claramente vale también para el resto de los  del intervalo.

ƒn continuas en un intervalo  y {ƒn } → ƒ uniformemente en  ⇒ ƒ continua en  . Si las ƒn son derivables, que ƒn → ƒ uniformemente no basta para que ƒ sea derivable, o puede existir ƒ 0 y no ser el límite de las ƒn0 (como en los ejemplos de la derecha); para que pasen ambas cosas, deben también converger las ƒn0 uniformemente.

|x|

1–sen(n2x) n

Las series de funciones son un caso particular ∞ X n=1

ƒn converge puntualmente o uniformemente en A hacia ƒ si lo hace la sucesión de sus sumas parciales Sn = ƒ1 + · · · + ƒn .

Criterio de Weierstrass

Sean {ƒn } definidas de números tal que |ƒn ()| ≤ Mn P en A y {Mn } una sucesión P ∀ ∈ A y tal que Mn converge. Entonces ƒn converge uniformemente en A . Ej.

P sen n n2

n converge uniformemente en todo R pues sen ≤ n2

1 n2

y

P 1 n2

converge.

[Se tiene entonces, por ejemplo, que la suma ƒ () de esta serie es continua en todo R ]. P cos n La serie obtenida derivando término a término: diverge, por ejemplo, si  = 0 . n (Para otros  , como  = π , converge por Leibniz, y para casi todos es difícil decirlo).

Así pues, en general, no se pueden derivar término a término las sumas infinitas como las finitas. Aunque sí se puede hacer con las series de potencias: La serie

∞ X

cn n = c0+c1 +c2 2+· · · converge uniformemente en todo intervalo

n=0

cerrado [, b] ⊂ (−R, R) ( R radio de convergencia). Para || < R la función ƒ () definida por la serie es derivable y ƒ 0 () =

∞ X

ncn n−1 = c1 +2c2 +3c3 2 + · · ·

n=1

2

3

Ej. − 2 + 3 + · · · con R = 1 , converge puntualmente   si  ∈ (−1, 1] hacia log(1 + ) y uniformemente en cualquier intervalo [, 1] ,  > −1 , pero no lo hace en todo (−1, 1] , pues las sumas parciales están acotadas en ese intervalo y el log no. La serie derivada término a término 1−+2 + · · ·  1  converge en (−1, 1) hacia 1+ .

71

Repaso de cálculo en varias variables  Sean , x ∈ Rn , A ⊂ Rn . Entorno de centro  y radio r es Br () ≡ x : kx−k < r .   es interior a A si hay algún Br () ⊂ A . A es abierto si A = nt A ≡ x interiores a A .  Frontera de A es ∂A ≡ x : ∀r, Br (x) tiene puntos de A y de Rn −A . A = nt A ∪ ∂A .

La derivada según el vector v de un campo escalar ƒ : Rn → R en un punto  es: Dv ƒ () ≡ ƒv () = l´ım

h→0

ƒ (+hv)−ƒ () h

si

=

ƒ ∈C1

∇ƒ · v

[si v es unitario se llama direccional, si v = i es la parcial ∂ƒ / ∂() , ... ].

∂ƒ1 / ∂1 · · · ∂ƒ1 / ∂n . . ∂(y1 ,...,yn ) .. .. = . ∂(1 ,...,n ) ∂ƒn / ∂1 · · · ∂ƒn / ∂n  = r sen θ cos ϕ «

¨ y = ƒ ( , ..,  ) 1 1 1 n · · · · · · · · · · · · · · · , el determinante jacobiano es Si yn = ƒn (1 , .., n )

Polares:

 = r cos θ y = r sen θ





∂(,y) ∂(r,θ)

= r . Esféricas: y = r sen θ sen ϕ z = r cos θ



∂(,y,z) ∂(r,θ,ϕ)

= r 2 sen θ .

Cambios de variable en integrales dobles:  Sea g : (, ) → (, ), y(, ) de C1 , inyectiva en D∗ , g(D∗) = D y ƒ integrable. RR RR  ∂(,y) Entonces: ƒ (, y) d dy = D∗ ƒ (, ), y(, ) ∂(,) d d . D Integrales de línea de campos escalares: Sea C la curva C1 descrita por una función vectorial c(t) : [, b] → R2 y sea ƒ un R Rb   campo escalar tal que ƒ c(t) es continua. Entonces: C ƒ ds ≡  ƒ c(t) kc0 (t)k dt . [No depende de la c(t) elegida. Si C es C1 a trozos, se divide [, b] y se suman las integrales]. Teorema de la divergencia (en el plano):

Sea D ⊂ R2 limitado por ∂D curva cerrada simple, f : D → R2 campo vectorial C1 , RR H y n el vector normal unitario exterior a ∂D . Entonces D div f ddy = ∂D f n ds .    0  0 0 Si ∂D viene descrita por c(t) = (t), y(t)

un normal unitario es n = y (t),− (t)

kc (t)k .

Ej. Comprobemos el teorema para f(, y) = (7, y 2 −1) en el semicírculo r ≤ 3 , 0 ≤ θ ≤ π : RR R πR 3 2y ddy = 0 0 2r 2 sen θ dr dθ = 36 . D R R3 Para C1 , si c() = (, 0) ,  ∈ [−3, 3] → C (1−y 2 ) ds = −3 d = 6 . 1

Para C2 , si c(t) = (3 cos t, 3 sen t) , t ∈ [0,π] → kc0 (t)k = 3 . Como R Rπ  n = (cos t, sen t) , C f n ds = 3 0 7 cos t +9 sen3 t −sen t dt = 30 . 2

Integrales de superficie de campos escalares: Sea S la superficie descrita por la función vectorial r(, ) : T ⊂ R2 → R3 y sea ƒ tal RR RR   ∂r ∂r × ∂ d d . que ƒ r(, ) es continua. Entonces: S ƒ dS ≡ T ƒ r(, ) ∂ producto vectorial fundamental ↑

  Si S es del tipo z = h(, y) se puede describir r(, y) = , y, h(, y) , con T proyección  de S sobre z = 0 , y el producto vectorial fundamental adopta la forma − h ,−hy ,1 .

Ej. Integremos ƒ (, y, z) = z 2 sobre la superficie esférica x =  . Eligiendo r(, ) = ( cos  sen ,  sen  sen ,  cos ) , RR R πR 2π z 2 dS = 0 0 2 cos2  2 sen  d d = 4π 4 . 3 S pvf ↑





Con r(, y) = , y, 2 −2 −y 2 , el pvf es p 2  2 2 →  − −y p RR RR R p 4π 2 2 2 2 z dS = 2   − −y ddy = 4π r 2 −r 2 dr = 3 4 . ∗ S T 0 p

72

problemas de EDII (r)

2011

problemas 1 1.

Resolver (si es posible) los siguientes problemas de Cauchy: 32 y + = 5 (, 0) = 3 −y

 −y = y  (, 1) =  2.

(2y−)y + = 2y (1, y) = 0

y + = −2 e−y (−1, y) = 0

y −y = 2y (, 0) = 

+6y 4  y +3y 2  = 2 y 2 (, 1) = 

yy +(2y−) =  (, 1) = 0

yy + e  = 2 (, 0) = 0

2

Sea yy − = +2 y los datos iniciales: i) (, 0) = − , ii) (, 2) = 7 . Hallar la única solución que satisface uno de ellos y dos soluciones distintas que cumplan el otro.

3. Resolver y +2y = 3 con

i) (, 1) = 1 , estudiando la unicidad de la solución. ii) (0, y) = 0

4. Sea (E) y 2 y +2  = 2 +y 2 . Resolver (E) con el dato (, 1) = +1 . ¿Es única la solución? Imponer unos datos de Cauchy para los que (E) tenga infinitas soluciones y dar dos de ellas. 5.

Precisar para qué valores de n entero positivo el dato de Cauchy (, n ) = n determina una única solución de la ecuación  +y = y 2 cerca de (0, 0) .

6.

Sea la ‘ecuación cuasilineal’ (E) A(, y, )y +B(, y, ) = C(, y, ) . Probar que si las soluciones del sistema de ecuaciones: η(, y, ) = c1 d C dy A [curvas características de (E)], = B , d = B son d ξ(, y, ) = c2  entonces η(, y, ) = p[ξ(, y, )] o bien, ξ(, y, ) = q[η(, y, )] con p , q arbitrarias es la solución general de (E). Resolver la cuasilineal: y + = 0 con: i) (, 0) =  , ii) (0, y) = 0 .

7.

Reducir a forma canónica y, si es posible, encontrar la solución general: e  + ey yy = 

8.

 −3y +2y 2  = y

 +4y −5yy +6 +3y = 9

Escribir (E) tt + 2t = 2 en forma canónica y hallar su solución general. De los datos de Cauchy: i) (, 0) = t (, 0) = 0 , ii) (0, t) = 0 ,  (0, t) = t , hay unos que determinan una única solución de (E). Hallarla en ese caso.

9. Sea [E] tt + 2t +  +  = 0 . Hallar su solución general. Hallar (y simplificar) la solución de [E] que satisface (, −) = 0 , t (, −) = 1 . Escribir una solución de [E], distinta de la  ≡ 0 , que cumpla (, ) = t (, ) = 0 . 10. a) Escribir (E) 4yyy − +2y = 0 en forma canónica para y > 0 y para y < 0 . b) Resolver (E) con los datos iniciales: (, 1) = 2 , y (, 1) =  . 

11. Resolver el problema

tt −4 = 2 , i) directamente, ii) tras hacer  = −t 2 . (, ) = 2 , t (, ) = 

12. Sea (E) Ayy+By+C+Dy+E+F = G(, y) , con A, B, . . . , F constantes. Probar que, si no es parabólica, un cambio de variable  = epy eq  , con p y q adecuadas, lleva (E) a una (E*) sin derivadas de primer orden. ¿Para qué relación entre las constantes A, . . . , F no tiene (E*) término en  ? Aplicar lo anterior para hallar la solución general de y+2y+3+6 = 1 . Probar que cualquier ecuación parabólica o es resoluble o se puede escribir con cambios de variable en la forma η +E∗ξξ = G∗∗(ξ, η) . 13. Sea (e) tt − +Dt +E = 4 , con D y E constantes. a] Escribir (e) en forma canónica. ¿Para qué relaciones entre D y E es esta forma resoluble? b] Para D = −2 , E = 2 , hallar la o las soluciones de (e) con los datos: (0, t) = e2t ,  (0, t) = 2 .

i

problemas de EDII (r)

2011

problemas 2 1.

Determinar los autovalores y autofunciones asociadas: y 00 + λy = 0 y(0) = y 0 (1) = 0

y 00 + λy = 0 y(−1) = y(1) = 0

y 00 + λy = 0 y 0 (0)−αy(0) = y(1) = 0

2 y 00 +y 0 +[λ2 − 41 ]y = 0 y(1) = y(4) = 0

y 00 + λy = 0 y(0) = y(1)+y 0 (1) = 0

Comprobar que hay infinitos autovalores positivos ∀α . Discutir si los hay ≤ 0 . Estudiar cómo varía con α el menor autovalor.

2.

Sea

3.

Desarrollar a) ƒ () = 1 y b) ƒ () = 2 ,  ∈ [0, 1] , en serie de i) {sen nπ} , ii) {cos nπ} . Dibujar algunas sumas parciales de las series obtenidas.

4.

Desarrollar ƒ () = cos3  ,  ∈ [0, π] , en serie de i) {cos n}, ii) {sen n}, dibujando las funciones hacia las que tienden las series y estudiando la convergencia uniforme.

5.

Desarrollar en senos y cosenos en [−π, π] , estudiando la convergencia puntual y uniforme: a) ƒ () = sen2  ,

6.

Sea ƒ () =



b) ƒ () = | sen | ,

c) ƒ () = sen

 2

,



−π, si − π ≤  < 0

d) ƒ () = sen , si 0 ≤  < π

∞ X 1 , 0≤≤1 n cos nπ . . Hallar su desarrollo en serie de Fourier ƒ () = 20 + 2 0 , 1 0 (, 0) = 1−2,

2.

Resolver

t −  = e−2t cos  ,  ∈ 0, (, 0) = 1 ,  (0, t) = 0, 

π , 2

π ,t 2

t>0

=1

¨ tt −  = 4 sen 6 cos 3 ,  ∈ 0, π  2 f) (, 0) = t (, 0) = 0, t ∈ R π (0, t) =  ( 2 , t) = 0

+ 4t −  = 0 ,  ∈ [0, π], t ∈ R (, 0) = sen 2 t (, 0) = (0, t) = (π, t) = 0

Resolver

t − −4 −4 = 0 ,  ∈ (0, π), t > 0 (, 0) = e−2 , (0, t) = (π, t) = 0

¨

d)

tt

¨ t −  = F(t) ,  ∈ (0, π), t > 0 . (, 0) = ƒ ()  (0, t) =  (π, t) = 0 ¨

3.

b)

 (0, t) = ( 21 , t) = 0

¨  −  +  = 0 ,  ∈ (0, 2), t > 0 t  § t+1 1 , 0≤≤1 (, 0) = 0 , 1 <  ≤ 2 ,  (0, t) =  (2, t) = 0 ¨

e)

¨

Determinar la distribución estacionaria si ƒ () = sen2 2 y F(t) = e−t .

t −  = 0 ,  ∈ (0, 1), t > 0 (, 0) = 0 ,  (0, t) = 0,  (1, t) = 2e−t

y hallar el l´ım (, t) . t→∞

[Simplifica los cálculos hallar una (, t) = X()T(t) cumpliendo ecuación y condiciones de contorno].



4.

Sea ¨

t − = 0 ,  ∈ (0, π), t > 0 Resolverlo y hallar para cada  ∈ (0, π) el . límite de la solución (, t) cuando t → ∞ . (, 0) = 0 ,  (0, t) =  (π, t) = t

t − 4 = cos

π , 2

 ∈ (0, 1), t > 0

Calcular la solución y su límite cuando t → ∞ ( F y T constantes).

5.

Sea

6.

Sea una placa circular homogénea de 1 cm de de radio, inicialmente a 0o . Supongamos que en t = 0 todo su borde se calienta hasta 1o y luego se mantiene a esa temperatura. Determinar la distribución de temperaturas en la placa para t > 0 . ¿Hacia qué valor tenderá la temperatura de un punto situado a 0.5 cm del centro de la placa cuando t → ∞ ?

(, 0) = T,  (0, t) = F, (1, t) = T



7.

Sea

.

t −  −  = 0 ,  ∈ (0, 3π), t > 0 (, 0) = 1 , (0, t)−4 (0, t) = (3π, t) = 0

Determinar, según la constante  , el límite de la solución cuando t → ∞ .  00 X +2X 0 +λX = 0 8. i] Hallar los autovalores y autofunciones del problema . X(0) = X(1)+X 0 (1) = 0  t − −2 = 0 ,  ∈ (0, 1) , t > 0 [directamente o tras un ii] Resolver cambio  = ept+q  ]. (, 0) = e− , (0, t) = (1, t)+ (1, t) = 0

X 00 + λX = 0 Hallar sus autovalores y autofunciones y comprobar que . X(0) = X(1)−X 0 (1) = 0 la primera autofunción es ortogonal a todas las demás.  t − +2 = 2 ,  ∈ (0, 1) , t > 0 ii] Resolver por separación de variables. (, 0) = 1− , (0, t) = (1, t)− (1, t) = 1 

9. i] Sea

tt −  = 0 ,  ∈ [0, π], t ∈ R (, 0) = t (, 0) = 0 (0, t) = sen t, (π, t) = 0

¨

10. Sea

Determinar valores de  para los que la solución no esté acotada. 11. Sea ttt −4t 3  −t = 0 . a] Hallar la solución que satisface: (, 1) =  , t (, 1) = 2 . b] Separar variables  = XT en la ecuación y comprobar que la solución particular de a] aparece como producto de soluciones asociadas a λ = 0 .

iii

iv

problemas de EDII (r)

2011

problemas 3 (Laplace y 3 variables) 1.

Resolver por separación de variables: a)



Δ = −1 , (, y) ∈ (0, π)×(0, π)  = 0 en  = 0,  = π, y = 0, y = π

¨

Δ = r 2 cos 2θ , 1 < r < 2 (1, θ) = (2, θ) = 0

c)

e)

¨ Δ = y cos  , (, y) ∈ (0, π)×(0, 1)  (0, y) =  (π, y) = 0 y (, 0) = y (, 1) = 0 ¨ Δ = r 2 cos 3θ , r < 2, 0 < θ < π6  d) (2, θ) = θ (r, 0) =  r, π6 = 0

¨ Δ = 2 cos2 y , (, y) ∈ (0, π)×(0, π) (π, y) = 5 + cos y (0, y) = y (, 0) = y (, π) = 0

b)



f)

¨ Δ = 0 , 1 < r < 2, 0 < θ < π 4 h) (1, θ) = 0, r (2, θ) = sen θ π π (r, 0) = (r, 4 )−θ (r, 4 ) = 0

¨ Δ = r , r < 2, 0 < θ < π g) θ (r, 0) = θ (r, π) = 0 (2, θ) = 3

2.

Δ = cos θ , 1 < r < 2 r (1, θ) = 0, r (2, θ) = cos 2θ

Resolver por separación de variables:

¨  +yy +6 = 0 en (0, π)×(0, π) y (, 0) = 0 , y (, π) = 0 .  (0, y) = 0 , (π, y) = 2 cos2 2y

 +yy −9 = 0 en (0, π)×(0, π) Resolverlo en general, y para ƒ () = cos 4 .  (0, y) =  (π, y) = 0 . ¿Es única la solución? y (, 0) = 0 , y (, π) = ƒ ()

¨

3.

Sea:

4.

Probar que

¨

5.

6.

Resolver

2 3

≤ 

rr +

1 π , 2 2

≤ 1 , si (r, θ) es la solución del problema en el plano:

Δ = 0 , r < 1 (1, θ) = ƒ (θ)

1  r r

+

1  r 2 θθ



1, 0 ≤ θ ≤ π

con ƒ (θ) = 0, π < θ < 2π

= cos2 θ , r < 1, 0 < θ < π

r (1, θ) =  , θ (r, 0) = θ (r, π) = 0

para los  que se pueda.

 2 00 r y + ry 0 − y = r 2 a] Discutir cuántas soluciones y(r) tiene . y 0 (1)+y(1) = y(2) = 0  Δ = sen θ , 1 < r < 2 b] Resolver el problema plano: . r (1, θ) = (2, θ) = 0 ¨ Δ = 0 , r < 1, θ ∈ (0, π)

(1, θ)+2r (1, θ) = 4 sen (r, 0) = θ (r, π) = 0

7. Hallar la única solución de este problema en el plano:

3θ 2

.

Comprobar que cambiando +2r (1, θ) por −2r (1, θ) el problema físicamente imposible que resulta pasa a tener infinitas soluciones. 8.

Hallar (en términos de funciones elementales) una solución acotada de: ¨ rr + rr + rθθ 2 + 4 = 0 , r < 1 , 0 < θ < π [Separando variables y haciendo s = 2r aparece una ecuación conocida]. (1, θ) = sen 2θ , (r, 0) = θ (r, π) = 0 ¨

9.

Hallar la única solución de los problemas en el plano

rr + 1r r + r12 θθ =

2 sen θ 1+r 2

(1, θ) = 1 ,  acotada

:

i] en el círculo r < 1 , ii] en la región infinita r > 1 [¡ojo!, r rctn r → ∞ ] . r→∞

¨

10. Calcular el valor en el origen de la solución del problema plano

v

Δ = r cos2 θ , r < 1 . (1, θ) = 0 , 0 ≤ θ < 2π



11. Resolver el problema para la ecuación de Laplace en el espacio ¨

12. Resolver el problema en la semiesfera:

rr +

2  r r

+

1  r 2 θθ

+

Δ = 0 , r < 3 . r (3, θ)+(3, θ) = sen2 θ

cos θ  r 2 sen θ θ

r (1, θ) = ƒ (θ) , θ (r, π/ 2) = 0

= 0 , r < 1, 0 < θ < π2

¿Qué condición debe cumplir ƒ (θ) para que exista solución? Hallar la solución si ƒ (θ) = cos2 θ −  para el único  para el que existe.

13. Hallar la solución de:

¨ Δ = 0 , si r > R (R, θ) = cos3 θ , 0 ≤ θ < 2π  acotada cuando r → ∞

y

¨ Δ = 0 , si r > R (R, θ) = cos3 θ , 0 < θ < π  → 0 cuando r → ∞

(en el plano)

14. Resolver:  t − Δ = 0, (, y) ∈ (0, π)×(0, π), t > 0  (, y, 0) = 1 + cos  cos 2y   (0, y, t) =  (π, y, t) = 0 y (, 0, t) = y (, π, t) = 0 ¨ Δ = z , 2 +y 2 +z 2 < 1  = z 3 si 2 +y 2 +z 2 = 1 ¨ Δ = 0 , 2 +y 2 +z 2 < 1  = 3 si 2 +y 2 +z 2 = 1

(en el espacio)

tt −Δ = 0 , (, y) ∈ (0, π)×(0, π), t ∈ R  (, y, 0) = 0 ,  (, y, 0) = sen 3 sen2 2y 

t

 (0, y, t) = (π, y, t) = 0 y (, 0, t) = y (, π, t) = 0

t − Δ = 0, 1 < r < 2, 0 < z < 1, t > 0  (r, θ, 0) = sen πz 

 (1, z, t) = (2, z, t) = 0 (r, 0, t) = (r, 1, t) = 0

15. Escribir en cartesianas los armónicos esféricos: Y00 , rY10 , rY11 , r 2 Y20 , r 2 Y21 , r 2 Y22 .

vi

problemas de EDII (r)

2011

problemas 4 1.

Resolver por diferentes caminos:  tt − 4 = e−t , , t ∈ R a] (, 0) = 2 , t (, 0) = −1

2.

¨ tt − = 0 ,  ≥ 0, t ∈ R Sea (, 0) = 0 , t (, 0) = cos2  . (0, t) = t

3.

Sea



b]

tt −4 = 16 , , t ∈ R (0, t) = t ,  (0, t) = 0

 a] Hallar  π, 2π . b] Hallar (, 2π) para  ≥ 2π .

¨ tt −4 = 0 ,  ∈ [0, 2], t ∈ R  (, 0) = 4−3 , t (, 0) = 0 . Hallar  32 , 34 . Dibujar (, 2) . Hallar (, 1) . (0, t) = (2, t) = 0

tt − = 0 ,  ∈ [0, 2π] , t ∈ R Dibujar (, π) y hallar su expresión con n 2 sen  , ∈[0,π] (, 0) = , t (, 0) = 0 . D’Alembert. Resolver por separación de 4. Sea 0 , ∈[π,2π]  variables y comprobar. (0, t) = (2π, t) = 0  

5.

¨  − =  ,  ∈ [0, π], t ∈ R tt  Sea (, 0) = , t (, 0) = 0 (0, t) = 0, (π, t) = π

Hallar 

6.

¨  − = 0 ,  ∈ [0, 2], t ∈ R tt  Sea (, 0) = t (, 0) = 0 (0, t) = t , (2, t) = 0

a] Hallar (, T) , T ∈ [0, 2] , y describir la evolución de la cuerda para t ∈ [0, 2] . b] Hallar (, 2k) , k = 1, 2, . . .

¨

7.

Sea

tt − = 0 , , t ∈ R n 1, ||≤1/ 2 (, 0) = 0 , t (, 0) =

.

0 ||>1/ 2

8.

Sea

9.

Sea

 π ,π 2

con D’Alembert y separando variables.

a] Dibujar (, 1) , (, 2) y (, 3) . b] Dibujar (3, t) , t ≥ 0 .



tt − = 6 ,  ≥ 0, t ∈ R . Calcular (0, t) para todo t. (, 0) = t (, 0) =  (0, t) = 0

¨

 tt − rr + 2r r = 0 , r ≥ 0, t ∈ R . (r, 0) = r , t (r, 0) = −2 ¨

10. Resolver

a] Hallar (1, 2) . b] Hallar (1, t) para todo t ≥ 0 .

tt −rr − 2r r = 0, r ≤ 1, t ≥ 0 (r, 0) = 0, t (r, 0) = 1r sen πr , (1, t) = 0 R∞

i) por separación de variables, ii) con las técnicas del capítulo 4. p

d  e−k cos k dk probando que d = − 2  e (, 0) = pπ . 0 2    2 2 2 2 Usar lo anterior para calcular: Fc−1 e−k , Fs−1 k e−k , F −1 e−k , F e− .

11. Hallar (, ) =



12. Sea

2

2

t − = (2 −1) e− / 2 ,  ∈ R , t > 0 (, 0) = 0 ,  acotada

h El término no homogéneo es la i . −2 / 2 derivada segunda de e

Hallar su solución (en términos de funciones elementales) y el l´ım (, t) : t→∞

a] Aplicando la F directamente. b] Con un cambio que haga la ecuación en homogénea y evaluando la integral de los apuntes mediante un cambio de variable. 13. Comprobar, paso a paso y utilizando la F , que la solución de: ¨ 2 Z∞ 2 2 t − = e− / 4 ,  ∈ R , t > 0 e−k −e−k (t+1) −k viene dada por: (, t) = p1π e dk . 2 k (, 0) = 0 ,  acotada −∞ R∞ p 2 Deducir el valor de (0, t) integrando por partes y utilizando que −∞ e−s ds = π . 

14. Hallar su solución sin que aparezcan integrales:

vii

t − + = 0 ,  ∈ R, t > 0 (, 0) = e−

2

/2

.

15. Obtener la fórmula de D’Alembert utilizando transformadas de Fourier. 

16. Sea

tt −3t +2 = 0 , , t ∈ R Resolverlo con transformadas de Fourier . y deducir la solución para ƒ () = 2 . (, 0) = ƒ () , t (, 0) = 0 

17. Hallar la solución de

i) a partir de su forma canónica, tt +2t + = 0 , , t ∈ R , ii) con transformadas de Fourier. (, 0) = 0, t (, 0) = g()

a1 ] la solución con (, 0) =  , 18. a] Dada 3t − = 2 , hallar: a2 ] dos soluciones con (, −3) = −2 .  3t − = g() b1 ] utilizando las características, b] Resolver y comprobar a1 ]. , b2 ] con transformadas de Fourier, (, 0) = ƒ () ¨

2t +  = t 2 , b] (, 0) = e−

¨

t + et  +2t = 0 i) utilizando las características, ii) con transformadas de Fourier. (, 0) = ƒ ()  t + (cos t) = ,  ∈ R, t ≥ 0 . 20. a) Resolver por Fourier y por las características: (, 0) = ƒ ()  cos2 ,  ∈ [−π/ 2, π/ 2] b) Si ƒ () = describir (, t) para t ≥ 0 . 0 en el resto 19. Resolver a]

viii

problemas adicionales de EDII (r)

2011

problemas adicionales 1 1.

Sea [E] y 3 y − = 2y 2  . a] Hallar la solución general de [E] tomando i) η = y , ii) η =  . b] Resolver [E] con el dato inicial (, 1) = 2 , estudiando la unicidad de la solución. c] ¿En qué puntos del plano es tangente la curva 2 = −y 2 a alguna característica de [E] ?

2.

Sea y −2y = 2y y los datos iniciales: i) (, 1) = e− , ii) (−y 2 , y) = 0 . Hallar la única solución que satisface uno de ellos y dos soluciones distintas que cumplan el otro.

3.

 i) η = t , Sea (E) t − 2t = 2t −t 2  . Hallar la solución de (E) con (, 1) = 1 tomando ii) η =  . Escribir 2 soluciones distintas de (E) válidas en un entorno de origen que cumplan (0, t) = 0 .

4.

Sea (E) (y+1)y+ = 0 . Dibujar sus características. Probar que (E) tiene una única solución satisfaciendo (, 0) = ƒ () . Probar que si ƒ no es constante dicha solución no puede estar definida en todo R2 . ¿En torno a qué puntos hay más de una solución de (E) que cumple (y 2 , y) = 0 ? Estudiar si existen soluciones de (E) satisfaciendo (0, y) = g(y) .

5.

Determinar en torno a qué puntos tienen solución única los problemas: seny y +  = 1 (0, y) = 1

(2 + y 2 )y +  = 0 (, 0) = 0

(2 + y)y +  = 0 (, 2 ) = 

6.

Probar que ninguna solución de  = 0 está definida en todo el semiplano y ≥ 0 y contiene la curva  : y = 2 , z = 3 . Estudiar en qué entornos de  hay soluciones únicas locales.

7.

Hallar (si se puede) la solución o soluciones de las siguientes ecuaciones cuasilineales que satisfacen cada uno de los datos de Cauchy que se indican: y +  =  y +  = 2

8.

con con

i) (, 0) = 1 , ii) (0, y) = 1 i) (, 0) =  , ii) (, ) = 1

Reducir a forma canónica y, si es posible, encontrar la solución general: t 2 tt −2  = 0

yy +2y +2 = 0

2  −2yy +y 2 yy = e

9. Sea [E] tt −2  −t = 0 . Escribirla en forma canónica y hallar su solución general. Determinar la solución de [E] que satisface (, 0) = 2 , t (, 0) =  . Escribir (si existe) alguna solución de [E], distinta de la  ≡ 0 , que cumpla (et , t) = t (et , t) = 0 . 10. Sea yy−4yy+4y 2 −1y y = 0 . Hallar su solución general y la que cumple

(, 1) = +1 . y (, 1) = 2+4

11. i] Resolver y + e+y  −  = 0 con el dato inicial (, 0) = e− . ii] Escribir en forma canónica yy + e+y y − y = 0 . Hallar su solución general. 12. Resolver los siguientes problemas de Cauchy (, t ∈ R): ¨ − =0 ¨ − = + tt  tt  t  (, ) = 0 (, 0) =  t (, ) = 0 t (, 0) = 0  +Lt +R = 0 ,  +Ct +G = 0 donde L, R, C y G son constantes características de la linea. a) Hallar la EDP de segundo orden (E) que verifica  . b) Si GL = RC , comprobar que un cambio adecuado reduce (E) a la ecuación de ondas y hallar (, t) si inicialmente (, 0) = V() e (, 0) = () .

13. El potencial  y la intensidad  en una linea telegráfica satisfacen:

14. Estudiar la unicidad de los problemas ( D dominio acotado en R2 ): ¨  −kΔ = F(, y, t) en D  t Δ−k 2  = F en D (, y, 0) = ƒ (, y) en D  = ƒ en ∂D (, y, t) = 0 en ∂D

I

15. Estudiar la unicidad de los problemas:  tt −(c() ) = F(, t) ,  ∈ (0, 1), t ∈ R   (, 0) = ƒ (), t (, 0) = g() (0, t) = 0, (1, t) = 0   (c ∈ C1 y positiva)

 

Δ = F en D ⊂ R2 dominio acotado  = ƒ en C1 , n = g en C2



C1 ∪ C2 = ∂D , C1 ∩ C2 = ∅

16. Si la distribución inicial de temperaturas en una varilla es ƒ () = 22 − 3 ,  ∈ [0, 2] , y la temperatura para t > 0 en los extremos es h0 (t) = −t/ (1+t 2 ) , h2 (t) = 2 sen t/ t , y suponemos que no existen fuentes de calor en el interior de la varilla, determinar la máxima y mínima temperaturas alcanzadas en la varilla para t ≥ 0 .

II

problemas adicionales de EDII (r)

2011

problemas adicionales 2  00 y − 2y 0 + y + λy = 0 . y(0) = y(1) = 0

1.

Desarrollar ƒ () =  en las autofunciones del problema

2.

Desarrollar ƒ () =  en autofunciones del problema singular:

3.

Desarrollar ƒ () = 1−2 en serie de autofunciones del problema:

4.

Determinar los autovalores de

5.

Sea

6.

Discutir, según los valores de la constante b , cuántas soluciones tienen los problemas: ¨  2 y 00 −3y 0 +3y = b−2 y 00 + 2y 0 = 1 0 0 y (1) = 2y (2)+by(2) = 0 y(1) = y 0 (1) , y(2) = 2y 0 (2)

7.

Estudiar la unicidad de y 00 = ƒ () ,  ∈ (0, 1) [ecuación de Poisson en una dimensión] con diferentes condiciones separadas, utilizando técnicas similares a las de las EDPs.



y 00 + 2y 0 + λy = 0 . y acotada en 0, y 0 (1) = 0 (y 0 )0 + λy = 0 y acotada en 0, y(1) = 0

   y 00 + λ−V() y = 0 0 , si 0 <  < 1 si V() = . 1 , si 1 <  < 2 y(0) = y(2) = 0

2

y 00 = e−(−1) . Precisar para qué valores de α tiene solución. αy(0)+(1−α)y 0 (0) = y(1) = 0

00 + r −1 0 = F(r) , , b ≥ 0. 0 (1)−(1) = A, 0 (2)+b(2) = B [se puede interpretar como un problema para Laplace en el plano con simetría radial].

8. Precisar cuándo tiene solución o soluciones

9. Sea

10. Sea

y 00 + λy = 1 a) Hallar autovalores y autofunciones del problema homogéneo. . y 0 (−1) = y(1) = 0 b) ¿Existen para algún λ infinitas soluciones del no homogéneo? ¿Para qué valores de λ tiene solución única? y 00 + λy = −4π 2  . Precisar para qué λ tiene infinitas y resolverlo en ese caso. y(0) = 1 , y(1) = 0 y 00 + λy = 1 . y(0)−y 0 (0) = y(1)+y 0 (1) = 0

Hallar autovalores y autofunciones del homogéneo. Ver para qué λ hay solución y para cuáles es única. Calcular aproximadamente λ1 , λ2 , λ3 y los ceros en (0, 1) de y2 e y3 .

11. Sea

12. Estudiar para qué valores de n ∈ N existe solución de:



13. Sea

cos  y 00 − 2 sen  y 0 = ƒ ()    y 0 − π4 = y 0 π4 −y π4 = 0

y 00 + ny = cosn  . y(0) = y(2π), y 0 (0) = y 0 (2π)

a] Ver para qué  no tiene solución única y dar para ese  una ƒ () para el que haya infinitas soluciones. b] Resolverlo con la función de Green si  = 2 , ƒ () = 1 .

2 y 00 − y 0 + λy = 3 , y(1)−y 0 (1) = y(2)−2y 0 (2) = 0 haciendo uso de la función de Green en el caso de que exista.

14. Calcular para λ = 0 y λ = 1 la solución (si la hay) de

15. Sea

y 00 + 2y 0 + λy = ƒ () . Hallar autovalores y autofunciones del homogéneo. y(1) = y(2) = 0

Determinar para qué n ∈ N el problema con λ = π 2 , ƒ () = sen nπ tiene soluciones, calculándolas en ese caso. Si λ = 0 , ƒ () = 1 , hallar la solución con la función de Green. 16. Sea

y 00 + 2y 0 =  + c a) Discutir cuántas soluciones tiene. b) Para c = 0 ,  = −1 , . y 0 (1)−y(1) = y 0 (2) = 0 hallar la solución haciendo uso de la función de Green.

III

(y 0 )0 = ƒ () , usando la fórmula para y acotada en 0, y(1) = 0 problemas regulares. Comprobar que proporciona la solución i) si ƒ () = 1 , ii) si ƒ () =  . Relacionar los resultados con la ecuación de Poisson en el plano.

17. Hallar la G(, s) del problema singular

18. Constuir la función de Green de 19.

y 00 = ƒ () . Resolverlo si ƒ () =  . y(0) = −y(1), y 0 (0) = −y 0 (1)

Hallar una fórmula para la solución de un problema de Sturm-Liouville no homogéneo utilizando desarrollos en serie de autofunciones del homogéneo. y 00 + λy = 1 Escribir, si λ 6= n2 π 2 , el desarrollo en autofunciones de la solución de . y(0) = y(1) = 0 Hallar la solución exacta para λ = 0, 1, −1 . Desarrollarla si λ = 0 y comprobar.

20. Desarrollar la solución para λ = 0 en serie de autofunciones del homogéneo: y 00 + λy =  y(0) = y 0 (1) = 0

y 00 + λy = sen π y(−1) = y(1) = 0

IV

y 00 − 2y 0 + y + λy = e y(0) = y(1) = 0

problemas adicionales de EDII (r)

2011

problemas adicionales 3 1.

2.

3.

a] Desarrollar ƒ () = cos 2 ,  ∈ [0, π] , en serie de {sen n} , dibujando la función hacia la que tiende la ¨ serie y estudiando la convergencia uniforme. t −  = 0 ,  ∈ (0, π), t > 0 [Conviene buscar una  que b] Resolver: . cumpla también la ecuación]. (, 0) = 0 , (0, t) = e−t/ 4 , (π, t) = 0  00 Hallar autovalores y autofunciones del homogéneo y precisar y + λy =  . si hay para algún λ infinitas soluciones del no homogéneo. y 0 (−1) = y 0 (1) = 0  tt − = 0 ,  ∈ [−1, 1], t ∈ R b] Resolver: . (, 0) = cos 2π , t (, 0) = 1 ;  (−1, t) =  (1, t) = 0

a] Sea

Resolver por separación de variables y dar interpretación física cuando se pueda: ¨  −  = 0 ,  ∈ (0, π), t > 0 ¨  −  = 0 ,  ∈ (0, π), t > 0 t  t  a)

4.

(, 0) = 1 (0, t) = 0, (π, t) = cos t

¨ t −  = A ,  ∈ (0, 1), t > 0 Sea (, 0) = B  (0, t) = C,  (1, t) = D 

5. Sea

b)

(, 0) = 0 (0, t) = 1,  (π, t) = 0

Resolverlo y determinar para qué relación entre las constantes A, B, C, D hay solución estacionaria (interpretarlo físicamente).

t −  = F() ,  ∈ (−1, 1), t > 0 (, 0) = 0 ,  (−1, t) =  (1, t) = 0

y sea Q(t) =

R1 −1

(, t) d .

Calcular la variación en el tiempo de Q(t) y deducir cuándo es constante. Resolver si: i) F() = sen π , ii) F() = sen2 π . ¿Tiene límite  cuando t → ∞ ? 2 2 6.

Sea una varilla de aluminio ( k = 0.86 cm2 /seg) de 20 cm de longitud, con una temperatura inicial uniforme de 25 grados. En el instante t = 0 el extremo  = 0 se enfría hasta 0 grados, mientras que el extremo  = 20 se calienta hasta 60 grados, y ambos se mantienen después a esas temperaturas. Escribir la distribución de temperaturas (, t) para todo t y evaluar  en  = 5, 10 y 15 para t = 0, 5 y 30 utilizando tres y diez términos de la serie. 

7. Resolver

t −  = 0 ,  ∈ (0, 1), t > 0 (, 0) = 0 , (0, t)+ (0, t) = 1,  (1, t) = 0

8.

¨  − −2 = F() ,  ∈ (0, π), t > 0 t   Sea (, 0) = ƒ () . (0, t) = (π, t) = 0

9.

Resolver



10.

y comprobar que  → −∞ . t→∞

a] Resolverlo en general, y para F() = ƒ () = e− sen 2 . b] Demostrar que tiene solución única.

t − 2t = 0 ,  ∈ (0, 3), t > 0 (, 0) = 0 , (0, t) = 0,  (3, t) = t 2

y demostrar que tiene solución única.

Resolver por separación de variables: a)

¨ Δ = 0, r < 2  3,  ∈ (−π/ 2, π/ 2) (2, θ) = 1,  ∈ (π/ 2, 3π/ 2) ¨

11.

Resolver el problema plano

12.

Resolver el problema plano

13.

Sean (Pα )

¨ Δ +  = 0 , r < 1, π/ 2 < θ < 3π/ 2 (1, θ) = sen 2θ,  acotada    r, π2 =  r, 3π =0 2

Δ = 9r , 1 < r < 2 (1, θ) = 2 sen2 θ , r (2, θ) = 0



¨

b)

Δ = π , r < 1, θ ∈ (0, π) (r, 0) = (r, π) = (1, θ) = 0

Δ = 0 , r < 1, 0 < θ < α (1, θ) = sen kπθ , (r, 0) = (r, α) = 0 α

¨

y (P)

.

y probar que ( 21 , π2 ) ≤ 0 . Δ = 0 , r < 1 . (1, θ) = sen kπθ 2

Comparar para k = 1 y k = 2 las soluciones de (P) con las de (Pα ) si α → 2π . Hallar cotas superiores e inferiores para todas las soluciones.

V

14.

¨ tt − Δ = 0, (, y) ∈ (0, π)×(0, π), t ∈ R (, y, 0) = sen3  sen y , t (, y, 0) = 0 . Resolver por separación de variables (0, y, t) = (π, y, t) = 0 , (, 0, t) = (, π, t) = 0

15.

Resolver el problema para la ecuación de Laplace en el espacio



16.

Δ = 0 , r < 1 . r (1, θ) = cos3 θ

Un cubo homogéneo de lado π, inicialmente a temperatura constante T1 , se sumerge en el tiempo 0 en un baño que se mantiene a temperatura T2 . Hallar la distribución de temperaturas en cualquier tiempo t > 0 . y 00 = ƒ () en términos de la función de Green, la función ƒ y(1) = , y(2) = b y las constantes  y b , por el camino de cálculo de la G para la ecuación de Laplace en el   plano (s) = 21 |s−| satisface  00 = δ(s−) para  fijo . b) Llegar al resultado con técnicas del capítulo 2. c) Escribir la solución si ƒ () = 1 ,  = 0 , b = 1 .

17. a) Hallar la solución de

18. Sabiendo que (1, θ) =



sen θ, θ ∈ [0, π] , 0 , θ ∈ [π, 2π]

hallar el potencial  en el punto del plano de coordenadas polares r = 2 , θ = 0 . 19. Hallar la función de Green para la ecuación de Laplace: i) en el semicírculo r < 1 , θ ∈ (0, π) ; ii) en el dominio r > 1 , θ ∈ (0, π2 ) . 20. Escribir, en coordenadas esféricas, la función de Green G para la ecuación de Laplace en la esfera unidad y deducir la expresión,  en términos de G , F y ƒ , de la solución de: Δ = F , r < 1 (P)  = ƒ si r = 1 Hallar el valor de la solución de (P) en el origen en caso de que: i) F = ƒ = 1 , ii) F = z , ƒ = z 3 .

VI

problemas adicionales de EDII (r)

2011

problemas adicionales 4 

1.

Para los problemas:

a]

 

tt − = 0 ,  ≥ 0, t ∈ R n sen π, 1≤≤2 t (, 0) =



0 en [0,1]∪[2,∞)

b]

 

(, 0) = (0, t) = 0

tt − = 0 ,  ∈ [0, 4], t ∈ R n sen π, 2≤≤3 (, 0) = 0 resto de [0,4]

t (, 0) = (0, t) = (4, t) = 0

i) dibujar el dominio de influencia; ii) dibujar (, 1), (, 2) y (, 3); ii) dibujar (3, t), t ≥ 0. 2.

1

Dibujar (, 2 ) , (, 1) , (, 2) , (, 3) y (1, t) , t ≥ 0 ,   tt − = 0 , , t ∈ R tt − = 0 ,  ≥ 0, t ∈ R n  n   sen π, 2≤≤3 0≤≤1 (, 0) = 0 resto de R (, 0) = (1−), 0, ≥1   n  π,−2≤≤−1 t (, 0) = (0, t) = 0 t (, 0) = 0sen resto de R

y hallar (, 1) , para:  tt − = sen π ,  ∈ [0, 1], t ∈ R  (, 0) = sen π  t (, 0) = sen π (0, t) = (1, t) = 0

3.

¨  − = 0 ,  ∈ [0, 1], t ∈ R tt  . Hallar ( 12 , 12 ) y ( 21 , 32 ) . Sea (, 0) = t (, 0) = 0 (0, t) = 0 , (1, t) = sen t

4.

Sea

5.

¨ tt − = 0 ,  ≥ 0, t ∈ R Sea (, 0) = e− , t (, 0) = 0 . (0, t) = e−t

6.

Sea

7.

Sea

¨ tt − = 0 ,  ∈ [0, 2], t ∈ R a] usando la  de los apuntes, (, 0) = t (, 0) = 0 Hallar (1, 3) : b] con una  que cumpla la ecuación, c] por separación de variables. (0, t) = (2, t) = t 2



[Ayuda: una buena (, t) sale de

a] Hallar (2, 3) . separar variables y tomar λ = −1 ]. b] Hallar (, t) , , t ≥ 0 . c] Dibujar aproximadamente (, 3) .

tt −4 = F(, t) , , t ∈ R Calcular (−1, 1) y (1, 1) . 1,  ∈ [1, 2], t ≥ 0 , F(, t) = 0, en el resto . (, 0) = t (, 0) = 0 Calcular y dibujar (, 1) . 

¨ tt − = 0 ,  ≥ 0, t ∈ R (, 0) = ƒ (), t (, 0) = g()  (0, t) = 0

¿Se invierten las ondas al reflejarse en  = 0 ? ¿Cómo son los dominios de influencia? ¿Cuándo la solución es clásica?

8. Hallar la solución general de tt −e2t  −t = 0 , y la que cumple (, 0) = ƒ (), t (, 0) = 0 . n 1−2|| , si ||≤1/ 2 Si ƒ () = , dibujar la solución para t = 1 y t = 2 . 0 , en el resto

¿Cuál es el dominio de influencia sobre la solución del valor inicial de ƒ en  = 0 ? ¿Cuál es el dominio de dependencia de (0, 1) de los valores de ƒ ? ¨ a] +y+z − c2 [ +yy +zz ] = 0 (, y, z, 0) = ƒ (, y, z) , si ƒ (, y, z) = b] +y . c]  t (, y, z, 0) = 0

¨

9. Resolver

tt

10. Vistos como problemas en 1, 2 y 3 dimensiones, hallar (0, t) , t ≥ 0 y (r, t) si se puede:   tt − Δ = 0 1−r 2 , r ≤ 1 con a) ƒ (r) = g(r) = r 2 , b) ƒ (r) = 0, g(r) = . 0 , r ≥1 (r, 0) = ƒ (r) , t (r, 0) = g(r) ¨

11. Sea

tt − rr +

 2  r r

= 0, r ≥ 0

. Hallar (2, 3) .

(r, 0) = 6 , t (r, 0) = 5r 3 ¨

12. Sean

tt − = 0 ,  ≥ 0, t ∈ R

( 2

6 (, 0) = 0 , t (, 0) = 1+ 3 , (0, t) = 0

y

r = 0 , r ≥ 0, t ∈ R tt −rr − 2 r

6r (r, 0) = 0 , t (r, 0) = 1+r 3

.

a] Hallar (1, 4) y (1, 4) . b] Más en general, hallar (1, t) para t ≥ 0 . (

13. Sea

tt − rr +

 2  r r

= 0 , r ≥0

2 (r, 0) = 4+r 2 ,  t (r, 0) = 0

.

a] Hallar (1, 5) y (7, 5) . Hallar (0, t) . b] Dibujar aproximadamente y simplificar (r, 5) .

VII

tt −rr = 0 , r ≥ 0, t ∈ R §  2r −r 2 , r ∈ [0, 2] (r, 0) = 0 en el resto ≡ F(r) 14. Sean  t (r, 0) = (0, t) = 0





y

2

tt −rr − r r = 0 , r ≥ 0, t ∈ R  §  2−r , r ∈ [0, 2] (r, 0) = ≡ ƒ (r) .  0 en el resto  t (r, 0) = 0

a] Hallar (6, 3) , (2, 3) y (4, 3) . b] Dibujar y hallar la expresión de (r, 3) . p  15 ≈ 3.873 . c] Hallar el valor máximo de (r, 3) 

15. Resolver (en términos de funciones elementales)

t − −2 = 0 ,  ∈ R , t > 0 (, 0) = e−

2

/2

,  acotada

:

a] con la F directamente, b] con un cambio  = ept eq  que lleve a la ecuación del calor. 16. Sea (E) t − −2 + = 0 . Simplificarla con un cambio de variable adecuado. Hallar la 2 solución de (E) que cumple (, 0) = e− y analizar su comportamiento cuando t → ∞ . 

17. Resolver: a]

t +2t = 4t , b] (, 1) = ƒ ()

 2 t t − = g() por las características y mediante la F . (, 1) = 0

 t − = δ(),  ∈ R, t > 0 t −2t = 0 ,  ∈ R, t > 0 . y b] (, 0) = 0,  acotada (, 0) = δ(),  acotada Hallar, sin que aparezcan integrales en el resultado, (, t) para a] y (0, t) para b]. 

18. Sean a]



19. Resolver: 

20. Sea (P)

t −  = 0 , , t > 0 (, 0) = ƒ (),  (0, t) = g(t),  acotada

tt −  = 0 ,  ≥ 0, t ≥ 0 . (, 0) = t (, 0) = 0, (0, t) = sen t

[Ayuda:  = sen t cos  satisface la condición de contorno y la ecuación].

i) Hallar y describir (, t) para cada t > 0 fijo. ˆ s de la solución  hallada en i). ii) Hallar la transformada seno  ˆ s resolviendo directamente (P) por transformadas seno. Hallar  21. Hallar la función de Green para la ecuación de Laplace en el semiplano {(, y) :  ∈ R, y > 0}  Δ = F(, y),  ∈ R, y > 0 y utilizarla para la hallar la solución de . (, 0) = ƒ () ,  acotada Resolver el mismo problema para F ≡ 0 con transformadas de Fourier. Resolverlo con la F y haciendo  =  e−t . tt − +2t + = 0 , , t ∈ R  22. a] Sea . sen π ,  ∈ [0, 1] (, 0) = ƒ (), t (, 0) = 0 Si ƒ () = 0 , en el resto dibujar (, 3) .  tt − +2t + = 0 , 0 <  < 1, t ∈ R b] Resolver . (, 0) = sen π, t (, 0) = (0, t) = (1, t) = 0 

VIII

Get in touch

Social

© Copyright 2013 - 2024 MYDOKUMENT.COM - All rights reserved.