2 ds x 5

Tema 4. Integraci´ on. Los m´etodos m´ as simples, en un ejemplo: Punto Medio y Trapecio. Idea general de las Reglas de Cuadratura: en lugar de f , in

10 downloads 387 Views 278KB Size

Recommend Stories


Evolution X - Performer V Mod. 3 DS 1910M - DS 2340T - DS 2660T 5 DS 2960T - DS 2980T - DS 3670T
Evolution X - Performer V Mod. 3 DS 1910M 5 DS 2960T - DS 2340T - DS 2980T - DS 2660T - DS 3670T IDROPULITRICE ACQUA FREDDA/COLD WATER CLEANER/

LIMITE. Si f(x)= x 2 -x 6 = (x 3) (x + 2) = x + 3 x + 2 x + 2
LIMITE ¿Qué se entiende por límite? De ordinario hablamos del precio límite, de la velocidad límite, del límite de nuestra propia resistencia, los lím

5.x
Impresora láser Phaser™ 4400 Redes con Novell NetWare 3.x/4.x/5.x Esta sección ofrece información sobre la instalación y solución de problemas con No

Mod DS B LBT 10 2 DS B
Mod. 1130 DS 1130-002B LBT 10 COLLEGAMENTO DEI CITOFONI UNIFICATI CONNECTION OF THE STANDARD HOUSE PHONE RACCORDEMENT DES POSTES STANDARD CONEXION

1. f(x) = x3 1 x f(x) = x2 9 x f(x) = x 3 x + 2. x 3 (x 1) f(x) = 5. f(x) = x + 5 x f(x) = x2 3 x 2. x 2 3 x 2. 7
1. f (x) = x3 1 x2 2. f (x) = x2 x2 3. f (x) = x 3 x+2 4. f (x) = x3 (x 1)2 5. f (x) = x+5 x2 9 6. f (x) = x2 x 7. f (x) = 9 4 3 2 x2 x

Story Transcript

Tema 4. Integraci´ on. Los m´etodos m´ as simples, en un ejemplo: Punto Medio y Trapecio. Idea general de las Reglas de Cuadratura: en lugar de f , integrar sus polinomios interpoladores. C´omo depende el error del grado del m´etodo y del paso utilizado. Maximizar el grado: reglas gaussianas. Ejemplo inicial. Nos encargan una tabla que d´e, con 4 d´ıgitos correctos, los valores de la distribuci´ on Normal ! x 2 1 1 Φ(x) = + √ e−s /2 ds 2 2π 0 2

para cada x = entero/10 ∈ (0, 4] . Llamando f (s) = e−s /2 , todo se reduce a calcular para esos x , con error1 absoluto < 10−4 , los valores de "x F (x) = 0 f (s) ds . Posibles m´etodos: A) Del desarrollo de Taylor de F " (x) = f (x) = 1 − x2 /2 + (x2 /2)2 /2! − . . . , se deduce el de F (x) = x −

x3 x5 + 2 − ... 2·3 2 · 2! · 5

Sumando hasta que el tama˜ no de los sumandos decrezca, los signos alternos aseguran un error de menor tama˜ no que el primer sumando omitido; parar cuando sea < 10−4 . B) Tomar una sucesi´ on xk = kh que incluya los valores deseados x = 0.1, 0.2, . . . , 4 , y aproximar #k la integral F (xk ) con una suma de Riemann 1 hfi , donde los fi sean valores de f juiciosamente escogidos en cada intervalo entre los xi . Dos opciones naturales son: B1) la media de los valores extremos: 2fi = f (xi−1 ) + f (xi ) B2) el valor en el centro: fi = f (mi ) , con 2mi = xi−1 + xi El gr´afico que sigue muestra lo que hacen esas dos opciones con la integral de f sobre cada intervalo, y permite ver: 1) por qu´e se llaman respectivamente “del trapecio” y “del punto medio” ; 2) por qu´e en general el valor exacto estar´a entre esas dos aproximaciones. Llamemos m al punto medio de uno de"esos intervalos, h a su longitud: J = [m − h/2, m + h/2] , Itr , Ipm a las dos aproximaciones de I = J f (s)ds que resultan, y veamos el error esperable en cada una; usando el desarrollo de Taylor f (m + s) ≈ f (m) + f " (m) s + f "" (m) s2 /2 , resulta ! h/2 h3 I= f (m + s) ds ≈ f (m) h + f "" (m) (h/2)3 /3 = Ipm + f "" (m) 24 −h/2 pero tambi´en f (m − h/2) + f (m + h/2) ≈ 2 f (m) + f "" (m) (h/2)2 , luego Itr − Ipm ≈

h "" f (m)(h/2)2 = 3 (I − Ipm ) 2

Como Ipm parece mejor opci´ on, veamos qu´e error tendr´a F (xk ) si lo aproximamos con ella: F (xk ) − F˜ (xk ) ≈

k

h3 $ "" h2 f (mi ) ≈ 24 i=1 24

!

0

xk

f "" (s) ds =

h2 " f (xk ) 24

Teniendo en cuenta que |f " | ≤ |f " (1)| = e−1/2 = 0.61 , resulta un |error| < h2 · 0.61/24 = 0.63/104 para h = 0.05 . Coste en operaciones2 con ese valor de h : 80 evaluaciones de f (x) · h + 79 sumas. 1 Como

√ F (x) se dividir´ a por 2π = 2.5 , eso basta para tener “4 d´ıgitos correctos”. con el que tendr´ıa la versi´ on Itr si usamos el mismo h , que dar´ıa un error de tama˜ no doble.

2 Comparar

1

EJEMPLO PARA TRABAJAR HASTA LA CLASE SIGUIENTE

E 4.1

Queremos calcular el valor de arctg(x) para cada x = entero/100 ∈ (0, 1)

• Si queremos tener errores < 10−6 , estudiar c´ omo usar la Regla del Punto Medio para conseguirlo: qu´e longitud h de intervalos escoger. ¿Por qu´e no usar simplemente el desarrollo de Taylor de arctg(x) , que converge en ese intervalo? Comparar el coste en operaciones. • Si bastase con tener error < 10−4 , el valor h = 1/100 ya ser´ıa peque˜ no de sobra; una posible alternativa es: calcular aproximadamente la "x ds/(1 + s2 ) 0

para menos puntos que los pedidos, y luego interpolar linealmente para hallar los restantes valores de arctg(x) . Estudiar esa posibilidad3 , y comparar el coste en operaciones con el de usar h = 1/100.

Reglas de cuadratura4 . " Se trata ahora de entender y generalizar lo hecho en el ejemplo para aproximar cada J f . Es obvio en el gr´afico que las dos Reglas de cuadratura propuestas integran exactamente cada funci´on f (x) = c0 + c1 x ; ambas son funciones de un cierto umero de valores fi = f (xi ) del integrando, y se " n´ comportan (como debe ser) igual que la integral I f en estos dos sentidos: 1) son lineales en f , es decir en los valores fi , y 2) responden igual que la integral al cambio de variable x = m + hs/2 , que aplica el intervalo I = [−1, 1] sobre el J = [m − h/2, m + h/2] .

En vista de esto, podemos definir cada posible Regla de cuadratura por los puntos si ∈ I que utiliza, definir su grado por el de los polinomios que es capaz de integrar exactamente, y estudiar qu´e deber´ıa hacer con los valores fi = f (xi ) para maximizar el grado y minimizar el error. # PROPOSICION: Dados n + 1 puntos si ∈ I , la u ´nica Regla I(f " ) = i wi fi que usa los valores fi = f (xi ) en los puntos xi = m + hsi /2 , y calcula exactamente la J f para cada f ∈ P oln , es " " I(f ) = J P[x0 ,...,xn ] (x) dx , y su error es J (f − Pn ) = O(hn+2 ) " Observaci´ on: Est´ a impl´ıcito en la afirmaci´on que cada peso wi es J Li (x) dx para el correspondiente polinomio de Lagrange asociado a esos nodos. Prueba: La primera afirmaci´on es consecuencia de que hay un s´olo Pn ∈ P oln que coincide con f en los puntos xi = m + hsi /2 . En vista de la f´ormula f (x) − Pn (x) =

y como W (x) =

%

f n+1) (ξ) W (x) (n + 1)! |

i (x

!

J

|

y de la desigualdad

(f − Pn ) | ≤ max J

|f n+1) | (n + 1)!

!

J

!

J

g(x) dx| ≤

!

J

|g(x)| dx

ser´a

|W (x)| dx

− xi ) tiene n + 1 factores, es inmediato que !

J

|W (x)| dx = (h/2)

n+2

!

1

−1

& i

|s − si | ds = O(hn+2 )

" Si se piensa un momento en la "forma que tiene W (x) , se ve que el usar la J |W (x)|dx desprecia la cancelaci´ on que cabe esperar en la J W (x)dx ; en consecuencia, cabe esperar un error mucho menor que la cota a la que hemos llegado. En el apartado siguiente veremos a d´onde nos lleva eso. . .

3 Se puede usar una calculadora programable (o Matlab ), para poner a prueba el plan, y comparar los resultados con los valores de arctg(x) que d´ e la calculadora directamente. 4 Ver en Sanz-Serna, Cap.5, un comentario sobre esa terminolog´ ıa.

2

EJEMPLO PARA TRABAJAR HASTA LA CLASE SIGUIENTE

E 4.2

• Hallar los pesos de las Reglas de cuadratura que resultan de interpolar f con 3 ´o 4 puntos igualmente espaciados, que incluyan los extremos del intervalo de integraci´on; se las llama respectivamente Regla de Simpson y Regla de los 3/8 (se descubrir´a el por qu´e de este nombre). Estos son los casos n = 2, 3 de las Reglas de Newton-Cotes; para estas Reglas hay la tradici´ on notacional siguiente: los nodos se llaman xi = x0 + ih , y el intervalo en el que se integra es J = [x0 , xn ] de modo que su longitud, que venimos llamando h , ser´ a ahora5 |J| = nh .

• Usar el desarrollo de Taylor de f en el punto medio m del intervalo para deducir sus f´ ormulas de error. • Comprobar (en J = [−1, 1] , pero la afirmaci´on vale en general) que ambas Reglas integran exactamente la funci´ on x3 pero no la funci´on x4 . Observar c´omo esto permite verificar la constante de las f´ ormulas de error halladas, pero tambi´en deducirla del modo m´ as sencillo. Por qu´ e unos nodos son mejores que otros. Ya vimos en el Ejemplo Inicial que la Ipm funciona mejor de lo que le corresponde: usa s´olo un nodo, pero integra exactamente las f ∈ P ol1 , y su error es O(h3 ). • La raz´ "on es ´esta: en vista de que W (x) = x − m , donde m es el punto medio del intervalo J , se tiene J W (x) dx = 0 , y por lo tanto las siguientes igualdades en las que P0 , P1 son los polinomios interpoladores de f en x0 = m , y cualquier x1 : ! ! P1 (x) − P0 (x) = f[m,∗] W (x) = cte · (x − m) , P1 (x) dx − Ipm (f ) = cte (x − m)dx = 0 J

J

"

• Esto es general: si el W que se anula en los n + 1 nodos de la Regla I(f ) = J Pn , cumple " W (x) dx = 0 , J " " el Pn+1 que tambi´en interpola f en cualquier otro nodo adicional cumple J Pn = J Pn+1 , luego " la Regla I(f ) = J Pn integra exactamente cada f ∈ P oln+1 , y su error es O(hn+3 ) .

Eso ocurre por ejemplo con los nodos s = −1, 0, 1 (Regla de Simpson, ver E 4.2). Adem´ as, el argumento es “reversible”: por ejemplo, no es posible que la Regla de Simpson integre " exactamente la funci´ on f (x) = x4 , porque J W (x)x dx &= 0 , y el polinomio interpolador P2 de f = x4 en esos nodos cumplir´a x4 − P2 (x) = (c0 + c1 x)W (x) . El mismo argumento se aplica a la del Punto Medio con la funci´ on x2 , y permite concluir que estas dos Reglas son " de orden 3 y 1 respectivamente. En resumen: " la igualdad J W (x) = 0 hace ganar un grado, la desigualdad J W (x)x &= 0 impide ganar otro m´ as.

• Pero la idea es a´ un m´as general: La igualdad

Pn+1 (x) = Pn (x) + c W (x) es un caso particular de

Pn+1+d (x) = Pn (x) + W (x)q(x)

donde q(x) ∈ P old : basta observar la forma de Newton de Pn+1+d (x) para ver que tiene esa forma. En consecuencia,

" " W (x)q(x) dx = 0 para cada q ∈ P old , se tendr´a J Pn = J Pn+1+d " I(f ) = J Pn es exacta para cada f ∈ P oln+1+d , y su error es O(hn+d+3 ) .

si W cumple luego la Regla

"

J

¿Cu´ an grande puede ser d ? " Obviamente d < n + 1 , porque J W 2 (x) > 0 y W " ∈ P oln+1 , pero probaremos de inmediato que hay un W (x) = (x − x0 ) · · · (x − xn ) que cumple J W (x)q(x) dx = 0 para cada q ∈ P oln . La Regla In∗ que resulta al usar esos nodos se llama gaussiana, y es por lo tanto de grado 2n + 1 ; por ejemplo, I0∗ = Ipm . Como los “nodos extra” yj son arbitrarios, podemos tomar de nuevo los mismos xj , de modo que In∗ (f ) equivale a usar los valores de f y de f " en esos n + 1 nodos, y su error estar´a controlado por ! |f 2n+2) | 2 max Wn+1 (x) dx J (2n + 2)! J 5 Pronto se entender´ a la conveniencia de hacerlo as´ı en este caso; hay que tenerlo en cuenta, para que las constantes de las f´ ormulas de error coincidan con las que se encuentran en los libros; el otro convenio es mejor al hablar de Reglas de Cuadratura en general.

3

PROPOSICION: Fijado un intervalo J , la expresi´on " < p, q >J = J p(x)q(x) dx

define un producto escalar en el espacio vectorial P ol de los polinomios6 . Si se aplica el proceso de ortogonalizaci´ on respecto de ese producto a la sucesi´ on de monomios 1, x, x2 , . . . , los Wk (x) que resultan tienen ra´ıces reales y contenidas en el intervalo J . Prueba: La de la primera afirmaci´on se reduce a verificar las propiedades que definen un p.e. Para la segunda, observemos que para hallar Wn+1 restamos a xn+1 su proyecci´on sobre P oln , luego resulta el polinomio " W (x) = xn+1 − p(x) , con p ∈ P oln , que hace m´ınimo el producto < W, W >J = J W 2 (x) dx . Pero si W tuviese un cero c ∈ IR \ J , o un par de ceros complejos z = α ± iβ , el acercarlos a J reducir´ıa en cada punto de J el factor (x − c)2 ´o |x − z|4 de W 2 , y con ello su integral sobre J . De este modo hemos conseguido un

Wn+1 (x) = (x − x0 ) · · · (x − xn ) que cumple

"

J

Wn+1 (x)q(x) dx = 0 , ∀q ∈ P oln ,

y sus son por lo tanto los nodos de la Regla Gaussiana In∗ . Adem´as, la propiedad de minimizar " ceros 2 la J W entre los polinomios del subespacio af´ın "

H = {xn+1 − p(x) , con p ∈ P oln }

implica que el factor J W 2 en el error de la Regla In∗ es menor que el de cualquier otra que use interpolaci´ on osculatoria en n + 1 puntos. Si J = [−1, 1] , estos Wn+1 (x) = (x − x0 ) · · · (x − xn ) se llaman7 polinomios de Legendre.

• Pero resulta que esta idea es a´ un m´ as general: si fijamos, adem´as del J , alguna funci´ on ω(x) > 0 " sobre ´el, la expresi´ on < p, q >ω = J p(x)q(x) ω(x)dx

define tambi´en un producto escalar en el espacio vectorial P ol , todo lo anterior se extiende sin m´ as, e implica lo siguiente: la funci´on W = Wn+1 obtenida como en la PROPOSICION, cumple " 0 =< W, q >ω = J W (x)q(x) ω(x)dx , ∀q ∈ P oln , con la consecuencia de que, si llamamos Pn al polinomio que usa como nodos los ceros de W , se " " tiene para cada f : P (x) ω(x)dx = J P2n+1 (x) ω(x)dx , J n " " y la integral J f (x) ω(x)dx se aproxima con la J Pn (x) ω(x)dx con error = 0 si f ∈ P ol2n+1 . Por ejemplo, tomando ω(x) = (1 − x2 )−1/2 en J = [−1, 1] , resultan por este procedimiento una vez m´ as los polinomios de Chebychev Tn (x) , que como vimos en el Tema 3 cumplen Tn (cos θ) = cos(nθ) es decir,"los nodos que se obtienen son xk = cos((k + 12 )π/n) . Por otro lado, si reescribimos la integral J f ω con el cambio de variable x = cos(θ) , y tenemos en cuenta que "1 "π ω(x) = (1 − x2 )−1/2 = 1/sen(θ) , resulta: −1 f (x) ω(x)dx = 0 f (cos θ) dθ y lo que tenemos es una Regla de Cuadratura en [0, π] , con los n nodos θk = (k + 12 )π/n , y exacta para las funciones g(θ) = f (cos θ) , donde f ∈ P ol2n−1 : se los llama polinomios trigonom´etricos.

EJEMPLO PARA TRABAJAR HASTA LA CLASE SIGUIENTE

E 4.3 Hallar los nodos de las Reglas Gaussianas con 2 y con 3 nodos (n = 1, 2), de dos maneras: "1 • Imponiendo que cumplan W (x)xk = 0 hasta k = n . −1

Varias de las ecuaciones implicar´an algo que era de esperar: que los nodos son sim´etricos respecto del 0; las restantes ecuaciones permitir´an determinar d´onde est´ an. • Buscando los sucesivos polinomios de Legendre Wk con el algoritmo de Gram-Schmidt " aplicado a los monomios 1, x, x2 , . . . y el producto escalar < p, q >J = J p(x)q(x) dx . Observar que no hay que calcular de nuevo, es el mismo c´alculo de antes.

• Por u ´ltimo, hallar los pesos wi de esas dos Reglas, sus grados y f´ormulas de error. 6 Con

coeficientes reales, pero una teor´ıa an´ aloga puede hacerse en el caso complejo con

7 Nuestros

< p, q >J =

R

J

p(x)¯ q (x) dx

.

Wn tienen primer coeficiente =1; los que se suelen llamar polinomios de Legendre son m´ ultiplos de ´ estos, con valor 1 en x = 1 .

4

Algunas ideas valiosas: entre el punto de vista te´ orico y el computacional. • Las Reglas que se obtienen con n nodos equi-espaciados se llaman de Newton-Cotes. Tras ver en el Tema 3 el mal aspecto de su correspondiente W (x) , no sorprender´ a saber que esas Reglas son muy malas desde el punto de vista de la estabilidad num´erica cuando n crece. Eso se manifiesta en la forma siguiente: ya a partir de n = 8 , los pesos wi de esas Reglas pierden la propiedad esencial de ser positivos; es decir, la Regla Newton-Cotes con"n + 1 = 9 nodos calcula "1 # por ejemplo 0 dx = 1 como i wi = 1 , pero algunos de esos wi = J Li son < 0 , y crecen exponencialmente para n grande. Como consecuencia, algo tan razonable como la convergencia a " la integral J f cuando n → ∞ , no se cumple ni siquiera “te´oricamente”, es decir en ausencia de errores de redondeo, salvo que f sea una funci´on muy regular 8 . Por el contrario, " los pesos de las Reglas Gaussianas se comportan tan bien que dan convergencia a la integral J f si f es continua. El siguiente gr´afico permite ver esos comportamientos en el caso de 13 nodos: los pesos Gauss conservan ese aspecto # cuando n → ∞ , con escala vertical que va disminuyendo como O(1/n), para mantener la wi = 2 , mientras que el tama˜ no de los Newton-Cotes crece como O(2n ) , y supera por ejemplo 105 en los nodos centrales cuando n = 32 . 13 nodos Newton!Cotes 3 2 1 0 !1 !2 !3 !1.5

!1

!0.5

0

0.5

1

1.5

1

1.5

13 nodos Gauss 0.3 0.25 0.2 0.15 0.1 0.05 0 !0.05 !1.5

!1

!0.5

0

0.5

• La consecuencia pr´actica de lo anterior es que la frase “cuando n → ∞” es indispensable para los Teoremas, pero en la pr´actica las Reglas Newton-Cotes son u ´tiles s´ olo con n muy peque˜ no: n ≤ 4 , y la m´ as popular es Simpson, n = 2 ; mientras que las Gaussianas convergen tan r´apido si f es derivable9 , que alg´ un n < 10 suele agotar la precisi´on. Pero la tarea de usar esas Reglas exige calcular sus nodos y pesos, lo que implica hallar los ceros de los polinomios Wn , una tarea dif´ıcil y muy mal condicionada, como ya hemos mencionado. Ya vimos en el Tema 2 que, sorprendentemente, la mejor forma de hacerlo es hallar los autovalores de una matriz adecuada con los m´etodos iterativos que hay para ello, y en los a˜ nos 60 se descubri´o una prodigiosa manera de calcular los nodos y pesos Gauss resolviendo un problema de autovalores10 . • Revisemos la situaci´on del Ejemplo Inicial, a la luz de todo lo visto. Podemos ahora escoger no s´ olo el paso sino la Regla a usar, y una pregunta natural, en vista del error O(hn+2 ) , es la de qu´e interesa m´ as “por el mismo precio”: disminuir h o aumentar n . 8 Por

ejemplo, anal´ıtica en todo el plano complejo. chiste es que un inocente salto de la f ! arruina completamente esa velocidad de convergencia... 10 Las lineas de c´ odigo Matlab que hacen falta para eso, se usaron para producir este gr´ afico y se ver´ an en el Laboratorio. 9 El

5

Es importante no olvidar lo siguiente: al dividir un intervalo de integraci´on dado en intervalos de longitud h y sumar los errores, hay cte/h sumandos, lo que hace que el error total sea O(hn+1 ) en lugar de O(hn+2 ), como vimos en ese Ejemplo. Ver E 4.4. Los t´erminos de error que sumamos a lo largo de una partici´on en intervalos J se pueden a menudo “resumir”, como en aquel ejemplo, en una f´ormula aproximada f´ acil de evaluar: ! k h3 $ "" h2 xk "" h2 " f (mi ) ≈ f (s) ds = ( f (xk ) − f " (x0 ) ) 24 i=1 24 x0 24 lo que tambi´en podr´ıa expresarse diciendo que el segundo sumando en ! h/2 f " (m + h) − f " (m − h) f (m + s) ds ≈ Ipm (f ) + h2 24 −h/2

es una correcci´ on de la Regla de Cuadratura, que es conveniente si, como en este caso, se simplifica al sumar muchas de ellas. A este modo de operar se le suele llamar una Regla corregida. • Este c´ alculo de f´ormulas de error por el m´etodo de despreciar t´erminos de mayor orden en el desarrollo de Taylor, es muy conveniente por su simplicidad, e indica lo que cabe esperar cuando h → 0 ; pero hay versiones “exactas” de esas f´ormulas, que utilizan valores de las derivadas en “puntos no determinados”, como hacen las de los restos de Taylor. La f´ormula de error para el Punto Medio ser´ıa en ese estilo: para alg´ un ξ ∈ J = [m − h/2, m + h/2] , " h/2 f (m + s) ds − Ipm (f ) = h3 f "" (ξ)/24 −h/2 Se llega a f´ ormulas similares para el error de las Reglas corregidas si se las expresa como el resultado de utilizar interpolaci´ on osculatoria de grado creciente sobre los nodos originales.

• Lo anterior es u ´til cuando podemos evaluar las derivadas, acotarlas, etc. Si ocurre todo lo contrario, ni siquiera una estimaci´on a priori del h conveniente es posible; se recurre entonces a lo que es una idea general del C´alculo Num´erico: ir disminuyendo el paso h , y observar las diferencias de los valores obtenidos. As´ı el m´etodo se convierte en iterativo, y reaparece una idea del Tema 1: si en cada iteraci´ on se divide h por 2, el error decrecer´ a geom´etricamente; por lo tanto podemos extrapolar: saltar al l´ımite estimado de la sucesi´ on de valores hallados11 . • Ser´ıa est´ upido subdividir largos intervalos de integraci´on con derivadas evanescentes (como las de exp(−x2 /2) para x >> 1) usando el h calculado para los m´ aximos valores de esas derivadas. O arruinar completamente nuestras cotas de error, y con ellas la velocidad de convergencia, debido √ a una singularidad de las mismas: si por ejemplo tratamos de integrar f (x) = 1/ 1 − x2 .

Una soluci´ on de sentido com´ un es elegir distintos h para distintas zonas del problema, es decir particiones adaptadas al comportamiento de la funci´ on. En ciertos casos puede haber ideas mejores, como un cambio de variable que equilibre los valores de esas derivadas, o que cancele la singularidad con la derivada del cambio. Esta idea puede tambi´en servir para traer a un intervalo finito el caso frecuente de una integral impropia en (a, ∞).

EJEMPLO PARA TRABAJAR HASTA LA CLASE SIGUIENTE

E 4.4

• Suponer que debemos aproximar la

"1 0

f (x) dx ,

y que disponemos ya de los 2 + 1 valores f (i/2k ) , que en principio pensamos utilizar con la Regla de Simpson, aplicada a intervalos J de longitud 2/2k . ¿Bajo qu´e condiciones sobre k ser´ a mejor usar esos valores con la Regla Newton-Cotes de 5 nodos, aplicada a intervalos J de longitud 4/2k ? k

Observar c´omo entran en la respuesta las cotas disponibles para las derivadas de f , y lo c´omodo que es llamar h = 2−k en todo el c´alculo; comparar tambi´en el coste computacional. • Estudiar la idea de las particiones adaptadas en la integral ! x ds 2 log(s) Si queremos usar la Regla de Simpson para un x grande, ¿c´omo organizar esas particiones? 11 Esta

vez sabemos adem´ as con qu´ e factor decrece: r = 1/2m , donde m es el exponente de h en la f´ ormula de error. Variantes m´ as generales y sofisticadas de la idea aparecen en los textos como extrapolaci´ on de Richardson, o de Romberg.

6

Ap´ endice III: La idea de las Reglas Interpolatorias desborda su esquema. • Partimos de la f´ ormula de error para la Regla del Punto Medio, en dos versiones: ! (2h)3 "" h2 f − 2hf (m) = f (ξ) ≈ ∆I f " 24 6 I donde m, 2h son el punto medio y la longitud del intervalo I , la primera versi´ on es exacta 12 , y la " " " "" otra, en la que ∆I f := f (x + h) − f (x − h) ≈ 2hf (ξ) , es una aproximaci´on. ¿Cu´ an buena?

• Para responder a esta pregunta partimos del desarrollo de Taylor en m de f y del de f "" :

s2 s4 + . . . + f IV (ξ) 2 4! 2 s f "" (m + s) = f "" (m) + . . . + f IV (ξ) 2 y al integrar, usando el que una media ponderada de valores f IV (ξ) , ξ ∈ I, es otro de ellos, ! f = 2f (m)h + 2f "" (m)h3 /3! + 2f IV (ξ1 )h5 /5! f (m + s) = f (m) + f " (m)s + f "" (m)

I

2

h h2 ∆I f " = 6 6 y restando:

!

I

!

I

f "" =

( h2 ' "" 2f (m)h + 2f IV (ξ2 )h3 /3! 6

' ( f − 2f (m)h + (h2 /6)∆I f " = C1 f IV (ξ1 ) − C2 f IV (ξ2 ) h5

donde C1 = 2/5! = 1/60 , C2 = 1/18 . Por lo tanto el factor que multiplica a h5 es: < (C1 + C2 )M4 en valor absoluto, si M4 es una cota de |f IV | en I ; ≈ (C1 − C2 )f IV (ξ) si f IV “var´ıa poco en I”, y

si f ∈ P ol4 , exactamente esa constante (que es 0 si f ∈ P ol3 ).

• Conclusiones:

" 1. La f´ormula que se ha restado a I f , y que llamaremos Regla del Punto Medio corregida, funciona igual que Simpson: es exacta hasta grado 3; su error para f = x4 resulta ser 7/2 del de Simpson: C1 − C2 = (7/2)/90 , pero con un coste computacional que es s´olo la mitad de aquel cuando ambas se usan como Reglas Compuestas: una sola evaluaci´ on de f por cada 2h de longitud de integraci´on, y s´ olo 2 evaluaciones de f " en total, puesto que los sumandos ∆I f " de los subintervalos se convierten al sumarlos en uno solo. Esto ya da un balance positivo frente a Simpson, puesto que un factor 2 en h introduce un factor 24 > 7/2 en el error.

2. Pero ´esta no es una Regla Interpolatoria: no equivale a integrar un polinomio interpolador, porque usa los valores de f " , pero no los de f , en los extremos de I . Es un ejemplo de c´omo pueden extenderse los polinomios interpoladores y estas Reglas de cuadratura al caso de ) Φ : P oln → IRn+1 que sea inyectiva, o " cualquier funci´ on lineal Φ : P oln → IRm que se anule s´olo si es I f = 0

Por ejemplo, el vector Φ(f ) = [f " (a), f " (b), f (c)] , con a &= b , s´ olo puede ser = 0 para un f ∈ P ol2 si f = 0 , luego determina de modo u ´nico un polinomio de ese grado.

3. Por la relaci´on que hay entre su error y el de Simpson, la combinaci´on lineal

7 ∗ Simpson − 2 ∗ P M corregida 7 f (m − h) + 16 f (m) + 7 f (m + h) − h∆I f =h 5 15 integra exactamente f = x4 , y tambi´en (x − m)5 , porque ambas Reglas lo hacen; es por lo tanto una Regla exacta hasta grado 5, con error O(h7 ); es de hecho (ahora s´ı) la Regla Interpolatoria que usa esos 3 nodos dobles. Pero su coste computacional como Regla Compuesta es id´entico al de Simpson, salvo por los dos valores de f " en los extremos; y tiene, igual que Simpson, la ventaja de poder ir “reciclando” los valores ya calculados (y sus sumas) al duplicar el n´ umero de subintervalos. 12 A

cambio de no determinar el punto ξ ; en lo que sigue, los puntos ξ ∈ I ser´ an distintos cada vez.

7

Get in touch

Social

© Copyright 2013 - 2024 MYDOKUMENT.COM - All rights reserved.