(desarrollo de Taylor) (fracción continua, ver! b1.5) π = (desarrollo decimal,... = o binario)! b2

B2. Errores y precisi´ on. Aproximaciones, desarrollos truncados y otras fuentes de error. Error absoluto y relativo. El c´ alculo diferencial como c´

1 downloads 15 Views 241KB Size

Recommend Stories


Conversión decimal->binario
Manual de conversión de sistemas numéricos www.sagraramirez.es Conversión decimal->binario 1- Se divide el número decimal entre 2 sin sacar decimale

PRÁCTICA 2 CONVERSIÓN DE UN NÚMERO DECIMAL A BINARIO Y HEXADECIMAL Y VICEVERSA 1. INTRODUCCIÓN 2. OBJETIVOS 3. DESARROLLO
LENGUAJE ENSAMBLADOR 80386 PRÁCTICA 2 PRÁCTICA 2 CONVERSIÓN DE UN NÚMERO DECIMAL A BINARIO Y HEXADECIMAL Y VICEVERSA 1. INTRODUCCIÓN En esta práct

Desarrollo de simuladores para procesos industriales. Parte I. (Colada continua)*
REVISTA DE METALURGIA, 42 (3) MAYO-JUNIO, 203-208, 2006 ISSN: 0034-8570 Desarrollo de simuladores para procesos industriales. Parte I. (Colada cont

DESARROLLO SUSTENTABLE Realidad o retórica?
DESARROLLO SUSTENTABLE ¿Realidad o retórica? DESARROLLO SUSTENTABLE ¿Realidad o retórica? DESARROLLO SUSTENTABLE ¿Realidad o retórica? DESARROLLO

Restador binario
Circuitos. Restadores y sumadores. Semirrestador

Cálculo: Polinomio de Taylor
C´alculo: Polinomio de Taylor Antonio Garv´ın Curso 04/05 1 El polinomio de Taylor Nos detendremos especialmente en el teorema de Taylor, justifica

Decodificador BCD (Binary-Coded Decimal) Decimal
Circuitos. Tablas verdad. Circuito integrado 7742. Diodos {LED}. Display

ACTIVIDAD: 1.- Convierte de Sistema Decimal a Sistema Binario los siguientes números:
CARTILLA DE TRABAJO NRO: 2 TEMA: NUMEROS BINARIOS AÑO/CURSO/: ALUMNA/O: FECHA: MÁQUINA Nº: ACTIVIDAD: 1.- Convierte de Sistema Decimal a Sistema Bina

Story Transcript

B2. Errores y precisi´ on. Aproximaciones, desarrollos truncados y otras fuentes de error. Error absoluto y relativo. El c´ alculo diferencial como c´ alculo de errores. El caso peligroso: restar n´ umeros cercanos. Problemas “bien-condicionados” y algoritmos estables. Referencias: [San98], Cap. 1; C´ alculo de errores, en www.uam.es/bernardo.lopez/cnI/A1.pdf. 1. Muchas de nuestras aproximaciones son desarrollos, en general exactos pero infinitos. Ejemplos que estamos viendo o usando: • sen(x) = x − x3 /3! + x5 /5! − x7 /7! + . . . √ • 2 = 1 + 1/( 2 + 1/( 2 + 1/( 2 + . . .

(desarrollo de Taylor) (fracci´ on continua, ver ! b1.5)

• π = 3.14159 . . . •

(desarrollo decimal, . . .

= 11.0010010000111111...

. . . o binario)

! b2.1

Al cortarlos aceptamos un error, del que sabemos el posible tama˜ no (a veces el signo): • para el desarrollo de Taylor1 hasta grado n de una funci´on f (x) , el error que aceptamos al tomar pn (x) como aproximaci´on, es el resto de Taylor: f (x) − pn (x) = f n+1) (ξ)

xn+1 , para alg´ un ξ ∈ (0, x) (n + 1)!

• el desarrollo decimal de un n´ umero x , con n d´ıgitos tras la coma, da una aproximaci´on x ˜ de ese n´ umero, cuyo error ε[x] = x ˜ − x estar´a en el intervalo !

[0, 1]/10n , si cortamos el desarrollo (es decir, olvidamos lo que sigue) [−1/2, +1/2]/10n , si redondeamos al d´ıgito m´as cercano

Es preferible lo segundo, y eso suelen hacer las m´ aquinas cuando calculan; a cambio del menor tama˜ no del error, este convenio “olvida” su signo2 . El sistema que casi universalmente siguen los ordenadores para guardar un n´ umero x se llama de coma flotante3 : usa un n´ umero fijado de bits para anotar el comienzo del desarrollo binario de x (al que llamamos su mantisa), y otros para anotar “la posici´ on de la coma”, es decir el factor 2m por el que se debe multiplicar la mantisa. ! b2.2 Otras cosas –medidas, observaciones– tienen una imprecisi´on intr´ınseca o fortuita, y hay que tener igualmente estimaciones del posible error. 2. Errores. La idea de error relativo (que se suele expresar como un %) est´a en el lenguaje cotidiano. El intento de cuantificarlo con precisi´on –junto con el n´ umero de d´ıgitos correctos– se tropieza con la evidencia de que ni necesitamos esa precisi´on ni tiene sentido pedirla, y esto hace indispensable el sentido com´ un para hablar con cierto rigor en este tema. Podemos ver cada proceso de c´alculo como una funci´on que transforma “datos” x en “soluci´on” y = F (x) ; esa F transmite a y los errores de x ; la forma en que lo hace, si esos errores son peque˜ nos, ya la hemos estudiado: es el C´ alculo Diferencial. Para estas ideas, ver las Secciones 1 y 2 de: www.uam.es/bernardo.lopez/CNI 06/A1.pdf 4 , y sus ejercicios. 1 Usamos

aqu´ı la notaci´ on que corresponde al desarrollo en torno a x0 = 0 , como en el ejemplo de arriba. detalle nimio con el que no hay que liarse: pese a que en general decimos “ x ˜ = x + ε[x] = valor exacto + error ”, el signo del error en los desarrollos se pone tradicionalmente al rev´ es: “valor exacto = aproximaci´ on + resto”. 3 Usaremos la denominaci´ on ‘float’ que usan los lenguajes de programaci´ on para estos n´ umeros. 4 A˜ nadido tambi´ en al final de ´ este B2. Esas 3 p´ aginas fueron escritas para el 1er Curso de Biolog´ıa, as´ı que su contexto es distinto, pero las ideas que desarrollan son igualmente u ´tiles aqu´ı. 2 Un

1

3. El caso peligroso. Si los errores son peque˜ nos en x , seguir´an en general siendo peque˜ nos en y . Pero no siempre !! El desastre es restar n´ umeros cercanos; lo que ocurre entonces es: En cada x = cv con v = (1, −1) , la funci´ on F (x1 , x2 ) = x1 − x2 vale 0, pero tiene derivada ±1 en las direcciones e1 , e2 . Si el dato es x ≈ cv , y tiene error absoluto εu de direcci´ on no muy cercana a v , el error relativo explota. Ejemplos de por qu´e no es tan raro ese peligro y c´omo a veces es posible eludirlo: √ √ 2 2 • las ra´ıces de x2 − 2bx + c (datos b, c), son umeros b, b2 − c √ x = b ± b − c ; si es |c| 1 que nuestro sistema de coma flotante puede guardar. Un valor t´ıpico (el del est´andar IEEE 754, doble precisi´ on) es εm ≈ 10−16 , que es un error irrelevante para casi cualquier prop´osito.

(b) Un problema est´a mal-condicionado si la funci´on F puede agigantar el error de los datos, como sucede en el ejemplo x = a1 − a2 . La manera de cuantificar eso para F, a dados, es buscar, suponiendo errores δa peque˜ nos, el peor valor posible para el cociente de los errores relativos |δx| |δa| : |x| |a| donde x + δx = F (a + δa) , y cada |v| es la longitud del vector v . Llamaremos κ(F, a) a ese peor cociente posible, que usando la derivada J = DF (a) , resulta ser sup u

|J(u)| |x| : |u| |a|

(el supremo es sobre todas las direcciones u del espacio de datos a ; si a ∈ IR , s´ olo hay una, y se tiene simplemente “|J(u)|/|u|” = |F ! (a)| ).

! b2.3 Se suele decir que la funci´ on F est´a mal-condicionada si hay alg´ un a para el que ese n´ umero es muy grande. ¿Cu´ anto es eso? La respuesta depende de εm y de la necesidad de precisi´on: κ(F, a) = 1000 no suele ser grave, κ(F, a) = 106 casi seguro que s´ı.

(c) A un algoritmo de c´ alculo se le llama inestable6 si se comporta mucho peor que la funci´on x = F (a) que deber´ıa aproximadamente calcular; en general eso sucede, como en el caso de las ra´ıces de x2 −2bx+c) porque alguna(s) de sus etapas est´a peor condicionada que la composici´ on de las mismas, que da F (a) ; en esos casos suele ser posible “seguir otro camino” que sea m´as estable. Para dejar clara la diferencia entre (b) y (c), observar estos dos ejemplos: • si x2 − 2x + c tiene ra´ıces xi de muy distinto tama˜ no, |x1 | 0 ; en este caso la tarea se parece mucho a la de7 desarrollar un polinomio dado p(x) en potencias de (x − x0 ) , es decir escribir su desarrollo de Taylor en x0 . ! b2.2. • Pese a que el desarrollo de sen(x) converge ∀x, s´olo es preciso usarlo para 0 < x < π/2 (¿por qu´e?); suponiendo eso, estimar de dos maneras el error de la aproximaci´ on sen(x) ≈ x − x3 /3! + x5 /5! − x7 /7!

a) observando que el resto de la serie casi coincide con su primer sumando x9 /9! ; b) usando el resto de Taylor : cos(ξ) x9 /9! . • A la vista de los dos desarrollos (decimal y binario)

π ≈ 3.14159 , π ≈ 11.0010010000111111 , ¿cu´ al es como m´ aximo el error de cada uno, dando por supuesto que est´ an redondeados? ¿Qu´e expresi´on resulta si redondeamos a s´olo 8 bits en total? ¿Y a s´olo 16?

• ¿Cu´ al es el menor entero n > 0 que no podemos escribir usando k bits? ¿Y cu´ al es el menor n´ umero 1 + δ > 1 que s´ı podemos escribir con esos k bits, si la posici´ on de la coma se especifica aparte? En los sistemas de coma flotante se aprovecha el hecho de que por definici´on el primer bit de la mantisa debe ser un 1, de modo que basta guardar los k bits que siguen a ese. Teniendo eso en cuenta, ¿cu´ anto vale δ para el est´ andar IEEE 754, doble precisi´ on, que usa 52 bits para la mantisa? ! b2.3. Dar expresiones para κ(F, a) = sup u

|J(u)| |x| : , donde J es la derivada de x = F (a) en a |u| |a|

en los cuatro casos siguientes,√y estudiar cu´ ando pueden salir valores muy grandes: i) x = a1 − a2 ; ii) x = a , con a > 0 ; recordar que en ese caso es εr [x] ≈ ε[log x] = ε[log a]/2 ; iii) x = sen(a) ; observar lo que ocurre si a ≈ 10M ; iv) las dos ra´ıces de x2 − 2x + c , vistas como funciones de c .

7 Se

ver´ a en ! 3.1

.

4

APENDICE 1. C´ alculo de errores. 1. Aproximaciones y errores. “. . . estos datos tienen aproximadamente distribuci´on Normal . . . ” , “ log(1 + h) ≈ h ” , “ e ≈ 2.7 ” . . . Estos tres son ejemplos de tres clases de aproximaciones con las que convivimos: 1) Modelos aproximados de situaciones reales y/o medidas aproximadas. Otros ejemplos: el crecimiento o extinci´on aproximadamente geom´etricos de un cultivo o una muestra radiactiva, cualquier medida de peso, longitud, tiempo, etc., que tienen una precisi´on limitada. 2) M´etodos de aproximaci´on del C´ alculo. Otro ejemplo es el de un paso Euler en una ED: x(t + h) ≈ x(t) + h · p(t, x(t)) .

3) Los desarrollos decimales redondeados. Casi todos los n´ umeros de los que hablamos tienen desarrollos infinitos, y hay que cortarlos en alg´ un sitio; muchas calculadoras nos dan e ≈ 2.718281828 , pero casi siempre interesa usar menos precisi´on. Conviene entender cu´ anta interesa en cada caso, y empezar por hacerse conscientes de la pregunta; la mitad de la respuesta no la dan las Matem´aticas, sino el uso que se vaya a hacer de ellas y de los datos, pero la otra mitad requiere entender un poco de la din´amica de los errores: la forma como nuestros c´alculos responden a los errores de los datos, y generan errores en los resultados. “Error” tiene el significado vago de discrepancia entre la realidad o valor exacto de algo y nuestras aproximaciones; ´estas tienen m´ as o menos precisi´on seg´ un sea el tama˜ no de los errores. Para hablar un poco m´ as de todo esto, nos vemos obligados a dar una definici´ on de error, pero sin tomarla demasiado en serio: como se ver´ a, la idea vaga de error es m´as sensata y m´as importante que las problem´ aticas definiciones en las que nos vemos obligados a encerrarla por el momento. DEFINICION: Si el valor exacto es x y la aproximaci´on que tenemos es x ˜ , llamamos error absoluto, a la diferencia error relativo, al cociente

ε[x] = x ˜−x εr [x] = | ε[x]/x |

Por ejemplo, en la aproximaci´ on x = e ≈ 2.7 , es ε[x] = 2.7 − e ≈ −0.018 , εr [x] ≈ 0.0067 = 0.67% Necesitaremos estas definiciones en el siguiente p´ arrafo, pero mucho m´as importantes para hablar de errores son las siguientes reglas de sensatez: • Regla 1) Si hablamos de ellos, queremos percibir qu´e tama˜ no tienen.

Una expresi´on como εr [x] = |2.7−e|/e , no nos dice mucho. En cambio “un 0.67% de error” expresa claramente el orden de imprecisi´on que tenemos. Dar el εr [x] como un porcentaje contribuye a eso.

• Regla 2) Es un contrasentido dar los errores con precisi´on.

Porque si usamos aproximaciones es, o bien porque no tenemos el valor exacto, o porque no nos hace falta esa precisi´ on. Dar exactamente el error es, o imposible, o insensato porque equivale a dar exactamente la cantidad x . Por eso redondeamos: “un 0.67% de error” , y podr´ıamos redondear m´ as y quedarnos con “un 0.7% de error” , que expresa escuetamente el tama˜ no del error.

• Regla 3) Los errores relativos DEBEN mantenerse peque˜ nos.

Porque si tenemos por ejemplo x ˜ = 20 como aproximaci´on de x = 40 , con un εr [x] = 50% , lo que tenemos no es una aproximaci´on, sino un desastre8 . En todo lo que sigue supondremos que no hay tales desastres, y los errores relativos se mantienen, digamos, bajo el 5% .

El ejemplo x = e ≈ 2.7 es at´ıpico, porque tenemos a mano un valor mucho m´ as exacto. La situaci´ on t´ıpica es tener un valor aproximado, y una idea sobre el tama˜ no m´ aximo del error. Por ejemplo, alguien midi´ o una temperatura y nos dice que es “ 4.7o C ± 0.2o C ” . O bien alguien nos dice que x = 3.1416 , y eso lleva inclu´ıda la afirmaci´on de que 3.14155 < x < 3.14165 , de acuerdo con el CONVENIO DE REDONDEO: Al escribir la u ´ltima cifra decimal sin dar otra informaci´ on sobre el error, damos a entender que ese es el d´ıgito que da la aproximaci´on m´ as cercana al valor real. En general, como en alguno de estos ejemplos, ignoramos el valor exacto; en muchos casos hay incluso un error intr´ınseco, que impide hablar de un valor exacto: si queremos hacerlo, hay que adoptar convenios como “altura sobre el nivel medio del Mediterr´aneo en Alicante”. 8 Sin embargo nuestros c´ alculos pueden crear por sorpresa un desastre as´ı; para prevenirlo, hay que tener una idea de cu´ ando y por qu´ e.

5

¿Qu´e poner por lo tanto en el denominador de εr [x] ? La respuesta la dan las Reglas 2 y 3: si la aproximaci´ on x = 3.14 merece ese nombre, nos da igual “x” que “3.14” , y en realidad basta con “3” . Muchas veces, como en el caso del redondeo, no conocemos el signo del error, o no nos importa, y queremos hablar s´ olo de su tama˜ no. Por eso hemos definido el εr [x] como un valor absoluto. Hagamos por u ´ltimo una reflexi´on: ¿Qui´en expresa mejor la precisi´ on, ε[x] ´o εr [x] ? ¿Es “±2cm” mucho error o poco? En una lista de alturas de plantas con error ±2cm , en la que hay peque˜ nas hierbas y ´arboles corpulentos, ¿son todas las medidas igual de precisas? Visto as´ı, la respuesta parece clara, pero v´ease este otro ejemplo: Temperatura a las 12:00 , 4.7 ± 0.2o C . A las 18:00 , 0.3 ± 0.2o C . ¿Es la segunda medida menos precisa? Hay situaciones como ´esta, en las que sencillamente no tiene sentido dividir el error por el valor de x . Eso ocurre t´ıpicamente cuando el nivel x = 0 es “arbitrario”, fruto de un convenio. EJERCICIOS. 1.i) Hallar (con la calculadora) los errores absolutos y relativos de las aproximaciones: √ a) 2 ≈ 1.41 ; b) log(1.1) ≈ 0.1 ; c) log(1.01) ≈ 0.01 ; d) exp(0.1) ≈ 1.1 ε[x] = εr [x] = Los casos b), c), d) son muy especiales, porque detr´as de esas aproximaciones hay desarrollos de Taylor que nos dicen cu´ al es aproximadamente el error: cuando h es peque˜ no se tiene h − log(1 + h) ≈ h2 /2 , (1 + h) − exp(h) ≈ −h2 /2 Las aproximaciones b) y d) dicen esencialmente lo mismo. ¿Por qu´e son distintos sus errores absolutos? ¿Y por qu´e es el error relativo 10 veces mayor en el primer caso? 1.ii) Pensemos ahora en los errores de redondeo. A las cifras que hay desde la primera que √ no sea 0 hasta el final, las llamaremos cifras significativas. Por ejemplo hay 3 CS en la aproximaci´ o n 2 ≈ 1.41 . Su error es -0.0042 , si lo damos con 2 CS. Si no √ disponemos de un valor m´ as exacto de 2 , sabemos s´olamente que el error es < 0.005 en valor absoluto. Atenci´ on, ahora 0.005 quiere decir exactamente 5/1000. Es uno de los muchos casos en los que manejamos constantes exactas. Ciertos programas de ordenador siguen esta rutina expresiva: tratan como exactas las cantidades que est´en dadas en forma de fracci´ on, y en cambio asumen que todo desarrollo decimal es una aproximaci´on por redondeo. Suponer ahora que nos dan los n´ umeros 1.0, 9.9 , ambos con 2 CS. ¿Cu´al es en cada caso el m´ aximo error de redondeo, absoluto y relativo? Razonar ahora por qu´e un n´ umero dado con m CS contiene un error relativo de redondeo que es, como m´aximo, 5/10m , pero que ese m´ aximo puede ser casi 10 veces menor dependiendo de cu´ ales sean las cifras. ¿Cu´ antas CS es sensato usar en general? Veamos de nuevo este ejemplo: La calculadora nos dice que el error de la aproximaci´on log(1.01) ≈ 0.01 , dado con 1, 2 ´o 3 CS, es: 0.00005, 0.000050, 0.0000497 Una posible regla pr´ actica: para cantidades como ´esta, en las que no hay ninguna exigencia de precisi´ on, usar 2 CS, lo que supone asegurar un error relativo menor que el 5%. Sin embargo, podemos tener motivos especiales para usar m´ as. Por ejemplo sabemos (gracias al desarrollo de Taylor) que este error es aproximadamente 0.012 /2 , y hay que usar 3 CS para descubrir cu´ an exacta es esta nueva aproximaci´ on: su error relativo es aproximadamente 3/500=0.6% . 1.iii) M´ as ejemplos para pensar en el asunto del error absoluto o relativo. Alturas: cierto aparato de orientaci´ on nos da la altura sobre el nivel del mar con error < 2m , tanto si estamos en Sevilla (< 100m) como en Avila (> 1000m) . ¿Es 10 veces m´ as precisa la segunda medida? Temperaturas: hemos medido, con precisi´on de 0.1o C , la temperatura en la boca de un enfermo (38.7o C) y en la boca de un horno (1321.4o C) . ¿Son las dos medidas igual de precisas? ¿Qu´e es lo que resulta chocante o gracioso en el siguiente di´ alogo, y por qu´e? — Yo he ido a Venecia nueve o diez veces. . . — Pues yo he ido una vez. . . o ninguna. . . 1.iv) La cantidad de 14C en la atm´ osfera, seg´ un se ha podido averiguar ya hace d´ecadas, ha variado a lo largo de la historia de la Tierra, y eso introduce desviaciones en las dataciones hechas por ese m´etodo (hay otras fuentes de error, pero suelen tener menos impacto si el m´etodo se ha usado bien). Por suerte se han podido estimar por otros m´etodos esas desviaciones (que llegan a superar el 10%, seg´ un sea la edad de la muestra), y hacer tablas para convertir “a˜ nos de radiocarbono” en a˜ nos de verdad. En vista de eso, ¿cu´ antos d´ıgitos parece sensato usar al calcular la edad de una muestra?

6

2. C´ alculo de errores y reglas de derivaci´ on. En esta secci´ on y la siguiente, suponemos en general que el error relativo se ha definido con signo: εr [x] = ε[x]/x ; el motivo ser´a a posteriori evidente. Hacemos un c´alculo usando valores aproximados de nuestros datos. ¿Qu´e errores tendremos en los resultados? Un primer hecho, casi evidente, es: (CE1)

ε[x + y] = ε[x] + ε[y]

Al sumar, se suman los errores absolutos.

Suponer ahora que tomamos el producto x ˜y˜ como aproximaci´ on de xy . Se comprueba f´acilmente que x ˜y˜ − xy = y(˜ x − x) + x(˜ y − y) + (˜ x − x)(˜ y − y) Dividiendo por xy resulta εr [xy] = εr [x] + εr [y] + εr [x]εr [y] Como el producto de esos dos (peque˜ nos) errores es mucho m´ as peque˜ no que su suma, llegamos a (CE2)

εr [xy] ≈ εr [x] + εr [y]

Al multiplicar, se suman los errores relativos.

Suponer finalmente que hemos calculado f (x) usando el valor aproximado x ˜ = x + h . La igualdad aproximada f (x + h) − f (x) ≈ h · f ! (x) significa ahora que: (CE3)

ε[f (x)] ≈ ε[x] · f ! (x) Al hallar f (x) , el (peque˜ no) error absoluto se multiplica aproximadamente por f ! (x) .

Esto puede leerse al rev´es, como una nueva interpretaci´ on de lo que significa la derivada: es el factor de amplificaci´on de los errores cuando pasamos de x a f (x) . As´ı resulta transparente la Regla de la Cadena: en el proceso x → f (x) → g(f (x)) , los errores se multiplican sucesivamente por f ! (x) y por g ! (f (x)) , luego por el producto f ! (x)g ! (f (x)) , que es por lo tanto la derivada de la composici´on. Tambi´en la regla de derivaci´on de un producto toma ahora un significado claro: suponer que calculamos el producto f (t) = x(t)y(t) con un cierto error h en la t . De acuerdo CE3, el error absoluto del resultado ser´ a hf ! (t) , pero usando adem´as CE2 ser´ a ε[xy] = xy εr [xy] ≈ xy (εr [x] + εr [y]) = yε[x] + xε[y] = h (yx! (t) + xy ! (t)) Si aplicamos CE3 al caso f (x) = log(x) tenemos:

(CE4)

ε[log(x)] ≈ ε[x]/x

El error relativo de x coincide (casi) con el error absoluto de log(x) .

Por ejemplo, sumar 0.01 al log(x) equivale a multiplicar x por e0.01 ≈ 1.01 que es lo mismo que introducirle un error relativo del 1% . EJERCICIOS. 2.i) De acuerdo con CE2, se tiene εr [x2 ] = 2εr [x] . Confirmarlo aplicando CE3 a la funci´on f (x) = x2 . 2.ii) Volver a mirar el ejercicio 1.i). Si aplicamos la funci´on f (x) = exp(x) a x = log(1.1) ≈ 0.1 , el error debe multiplicarse por f ! (x) = 1.1 , de acuerdo con CE3. Comprobar que eso es exactamente lo que hemos encontrado en el caso d) de aquel ejercicio (salvo el cambio de papeles entre aproximaci´on y valor exacto, que hace aparecer un signo −). Comprobar c´ omo el error relativo de d) y el absoluto de b) responden a la igualdad CE4. 2.iii) Suponiendo que εr [x] < 1% y que adem´as es 10 < x < 20 , ¿qu´e podemos decir del εr [x2 + x] ? ¿Y de ambos tipos de error en 1/x ? 2.iv) Al multiplicar por una constante exacta a se tiene: ε[ax] = a ε[x] y por lo tanto εr [ax] = εr [x] . Comprobar que esto es consistente con la f´ ormula CE2. 2.v) La igualdad

x ˜y˜ − xy = y(˜ x − x) + x(˜ y − y) + (˜ x − x)(˜ y − y) puede parecer misteriosa; para descubrir lo que significa, dibujar el producto x ˜y˜ = (x + ε[x]) + (y + ε[y]) como el ´ area de un rect´ angulo; el producto xy se ver´a en el dibujo como un rect´ angulo m´as peque˜ no.

7

3. Consecuencias pr´ acticas y el caso peligroso. Al sumar dos cantidades, es in´ util tener en una de ellas mucho menos error absoluto que en la otra, puesto que ambos errores se van a sumar tambi´en; esto es de sentido com´ un, pero otras consecuencias de nuestras reglas de derivaci´on son menos obvias. EJEMPLOS: 1) Si sabemos que εr [x] est´a cerca del 2% , ¿cu´antas cifras tiene sentido conservar al calcular x2 ? Guardando s´ olo 3 CS de x ˜ , se introduce un error relativo que es en el peor caso < 0.5% ; eso deja las cosas esencialmente como estaban; al x ˜2 se le transmitir´a un error relativo cercano al 4 o quiz´a 5% , luego s´olo sus dos primeras CS son fiables. 2) Si sabemos que f ! (x)/f (x) ≈ 5 , vamos a calcular x f (x) , y queremos tener un error relativo 0 y suman 1 , de forma que εr [x + y] = aεr [x] + bεr [y] es una media ponderada de εr [x], εr [y] . En cambio: 4) EL CASO PELIGROSO: Si x, y son muy parecidos, el εr [x − y] puede ser catastr´oficamente mayor que ambos εr [x], εr [y] . Por ejemplo, 10.6-10.4=0.2 , pero 11-10=1 : errores de 4% en los datos crean un 400% de error en el resultado. " Un ejemplo aut´entico lo da el c´ alculo de la desviaci´ on t´ıpica con la f´ormula σ 2 = N1 i x2i − x ¯2 , si x ¯2 2 es mucho mayor que σ ; estamos restando entonces dos cantidades muy parecidas y se pueden producir errores asombrosos en el resultado (ver un ejemplo en los Ejercicios). Recordar que esa es normalmente la f´ormula empleada por las calculadoras. Remedio: empezar restando a los datos xi alguna cantidad a de su mismo tama˜ no, para que la media pase a ser menor que la desviaci´on. 5) Si sumamos muchos datos cuyos errores tienen signos aleatorios, podemos esperar bastante cancelaci´on de los errores. Si los datos eran todos > 0 , la suma tendr´ a menos error relativo que los sumandos. El C´ alculo de Probabilidades nos dice: si los errores de los N datos tienen valor esperado = 0 y √ d.t.= d, podemos esperar que la suma de los errores tenga tama˜ no no mucho mayor que N d . EJERCICIOS.

√ 3.i) Lo que ocurre al redondear un n´ umero a la segunda cifra decimal, como en 2 ≈ 1.41 , puede verse del siguiente modo, usando las ideas y el lenguaje del C´ alculo de Probabilidades: Sumamos al valor exacto x un error ε que se escoge √ al azar en el intervalo [-0.005,0.005] . Esto es como una urna con media = 0 y desviaci´on d = 0.005/ 3 . Por lo tanto, en una suma de umeros √ N n´ √ redondeados de ese modo, la suma de sus errores tiene valor esperado = 0 , error est´ andar N · 0.005/ 3 , y distribuci´ on aproximadamente Normal. Hallar la probabilidad de que al sumar 75 n´ umeros redondeados al segundo decimal, se pierda un d´ıgito por los errores acumulados, es decir de que la suma de errores sea en valor absoluto > 0.05 . " ¯2 usando una calculadora: 3.ii) Calcular la d.t. de los siguientes datos xj con la f´ormula σ 2 = N1 i x2i − x 65708.2 , 65711.7 , 65707.8 , 65708.8 , 65710.5 , 65709.3 A continuaci´ on repetir el c´ alculo con los datos trasladados yi = xi − 65700 ; ¿qu´e ha ocurrido? (El desastre de la primera versi´ on depender´ a de cu´antos d´ıgitos utilice internamente la calculadora). 3.iii) En el Ejemplo 2) se ha observado lo que ocurre con el error relativo al hallar f (x) : εr [f (x)] = ε[x]

f ! (x) x f ! (x) = εr [x] f (x) f (x)

√ Aplicarlo al caso f (x) = x . Confirmar el resultado usando (CE4) y la definici´ on de f (x) = xa cuando a es una constante (exacta) y x > 0 .

8

Get in touch

Social

© Copyright 2013 - 2025 MYDOKUMENT.COM - All rights reserved.