S U M A R I O SPIN CERO

S U MAR I O SPIN CERO Cuadernos de Ciencia Número 10. Año 2006. I.E.S. PABLO PICASSO Camino Castillejos, 8 29010. MÁLAGA Teléfono: 952613400 spincer

1 downloads 231 Views 3MB Size

Recommend Stories


m a n u a l d e u s u a r i o
BeSafer Mobile manual de usuario Designed & powered by AGQ Labs Mobile Designed & powered by AGQ Labs I N D I C E 01 Instalación. Pag. 3 1.1 Ins

M A N U A L D E U S U A R I O
M A N U A L D E U S U A R I O Muchas gracias por la compra de este nuevo producto NZI. Para un mejor aprovechamiento de este casco, le recomendamos

Story Transcript

S U MAR I O

SPIN CERO Cuadernos de Ciencia Número 10. Año 2006.

I.E.S. PABLO PICASSO Camino Castillejos, 8 29010. MÁLAGA Teléfono: 952613400 [email protected] www.juntadeandalucia.es/averroes/~29009272/ revista.htm

Revista anual de divulgación científica y distribución gratuita, fundada por el Departamento de Física y Química del I.E.S. Pablo Picasso de Málaga y realizada por el G.T. SPIN CERO del CEP de Málaga.

EDITORIAL ........................................................................................... EL QUIJOTE Y LA CIENCIA EN EL AULA

2

J.M. Rodríguez Rodríguez, J. González Santana y J. Navarro de Tuero ... 3

DIETA Y SALUD BUCODENTAL Mª Isabel López Molina .......................................................................... 8

EL FLUOR: APLICACIONES PREVENTIVAS Y TERAPÉUTICAS Mª Isabel López Molina y Miguel Hernández López .............................. 16 EL BUENO Y EL MALO Juan Carlos Codina Escobar ..................................................................... 24

RECICLAJE DE PILAS SALINAS POR VÍA HÚMEDA José Francisco Tejón Blanco ..................................................................

27

OZONO ATMOSFÉRICO Lorenzo Chicón Reina ....................................................................................

31

ENERGÍAS RENOVABLES I Director: Rafael López Valverde Editor: José María Bocanegra Garcés

José Aldo Piano Palomo .............................................................................

36

LA ALQUIMIA DEL SALITRE Miguel Ángel López Moreno .......................................................... 40

Redacción: Anastasio Álvarez Martín Francisco Javier López Agudo José Francisco Martín Caparrós

AVANCES EN LA CIENCIA FORENSE Mónica Díaz López .............................................................................. 45 FLORA LITORAL José Carlos Báez Barrionuevo ............................................................ 50 CIRCOS GLACIARES

Diseño de portada: Álvaro Damián López Ruiz

Anchel Belmonte Ribas .......................................................................... 54

MOVIMIENTOS DE PARTÍCULAS EN CAMPOS MAGNÉTICOS Rafael Quintana Manrique .....................................................................

Consejo Editorial: José Luis Rodríguez Palomo, Joaquín Martínez Rojas, Juan Ángel de la Calle Martín, Francisca Sánchez Pino, Juan Manuel Hernández Álvarez de Cienfuegos Aquilino Melgar Sánchez Rafael Bueno Morales

José Antonio Martínez Pons ................................................................

NANOQUÍMICA Y NANOTECNOLOGÍA Rafaela Pozas Tormo y Laureano Moreno Real .................................... INTRODUCCIÓN AL GPS J. L. Bermúdez García y Mª D. Peinado Cifuentes ............................. RAZÓN, EMOCIÓN Y CONOCIMIENTO CIENTÍFICO Antonio J. Lechuga Navarro .................................................................

Remisión de artículos:

Los autores que deseen colaborar en SPIN CERO pueden enviarnos sus artículos por correo o internet. La extensión máxima será de 2500 palabras en Word, tamaño 12 con interlineado sencillo. Diseño y composición:

Francisco Javier Yáñez Lillo Rafael López Valverde

D.L.: MÁLAGA 92-95 ISSN 1135-2302

58

EL MONOPOLO MAGNÉTICO 60

63 66 70

POBLACIÓN Y DESARROLLO MEDIO AMBIENTE José Aldo Piano Palomo ......................................................................

78

COMPROMISOS DEL PROTOCOLO DE KYOTO Elisa Manzanares Rodríguez ...............................................................

83

JUAN MANUEL DE ARÉJULA

José María Bocanegra Garcés ..............................................................

87

CIENCIA Y FRAUDE Salvador Cordero Rodríguez ........................................................... 92 DIVULGACIÓN CIENTÍFICA EN LA ÉPOCA DE FARADAY Rafael López Valverde ....................................................................... 104 LEONARDO TORRES QUEVEDO Mª Luisa Aguilar Muñoz y José E. Peláez Delgado ............................... 109

ENTIDADES PATROCINADORAS: CENTRO DEL PROFESORADO DE MÁLAGA I. E. S. PABLO PICASSO A.P.A. PABLO PICASSO

1

EDITORIAL El pasado 11 de marzo, en el bulevar Gran Capitán de Córdoba, se desarrolló la actividad lúdicodocente Las Ciencias en la Calle, organizado por el colectivo Profesorado de Córdoba por la Cultura Científica, con el objetivo de potenciar la cultura científica en el ámbito social y educativo. Aparte del entusiasmo natural que siempre han tenido los colectivos de profesores por llevar su trabajo a la sociedad bajo representaciones diversas, en el caso que nos ocupa está la honda preocupación por el escaso protagonismo que las materias científicas poseen en el sistema educativo actual. Por eso, la actividad Las Ciencias en la Calle pretende demostrar a la ciudadanía, a partir de sencillas experiencias, que las ciencias están al alcance de todos y que forma parte de nuestra cultura, algo similar a lo que recoge la conocida Declaración de Granada del 27 de marzo de 1999: La ciencia es parte de la gran aventura intelectual de los seres humanos, uno de los muchos frutos de su curiosidad y del intento de representar el mundo en el que vivimos... Es urgente incrementar la cultura científica de la población. La información científica es una fecunda semilla para el desarrollo social, económico y político de los pueblos. Son numerosos los intentos que cada curso se realizan para potenciar la cultura científica de la población, y son loables los esfuerzos humanos de los que están detrás de estas actividades año tras año. Así, una de las muchas actividades que el PRINCIPIA está llevando a cabo durante este curso es el ciclo de conferencias juveniles Los sábados en PRINCIPIA ... disfruta con la Ciencia, en el que es fácil encontrar una y otra vez familias completas disfrutando de las charlas y de las demostraciones experimentales en un ambiente ameno y distendido.

Estas actividades científico-recreativas no son nuevas como podría parecernos; por el contrario, se pierden en el tiempo y son el resultado de la adquisición de un ambiente cultural adecuado en la sociedad. Incluso han llegado a tener un peso insólito en determinados momentos. Por ejemplo, hacia 1830, en plena revolución industrial, la calle Albemarle street de Londres se convertió en la primera calle de dirección única de la ciudad debido al tropel de carruajes que acudían a la sede de la Royal Institution para asistir al ciclo de conferencias con el que los viernes por la tarde Faraday deleitaba a sus contemporáneos. Eran los conocidos Friday Evening Discourses que aún continúan hoy día 180 años después.

2

EL QUIJOTE Y LA CIENCIA EN EL AULA José Manuel Rodríguez Rodríguez Javier González Santana Juan Navarro de Tuero

Introducción

de Herrera, Juan Bautista de Toledo, Juanelo Turriano, autor de Los veintiún libros de los ingenios y de las máquinas y el clérigo Jerónimo Carruga, experto en hidráulica. En el año 1552 se crea la cátedra de Cosmología a cargo de Jerónimo de Chaves, Juan Pérez de Moya escribe Arte de marear, un extenso manual de navegación y Diego de Zúñiga, Didactica Stunica Salmantinencis al tiempo que enseña la teoría copernicana en la Universidad de Salamanca. En el campo de las matemáticas destacan obras como Aritmética Práctica y Especulativa del Bachiller Juan Pérez de Moya. Bartolomé de Medina con su método de extracción inunda Europa de plata americana. Francisco Hernández llevó a cabo la primera recopilación de los recursos naturales de México y la medicina avanza con nombres como Andrés Laguna, anatomista y epidemiólogo, Luis de Mercado, Bernardino Montaña de Monserrate con su obra Libro de anathomia del hombre. Pedro Jimeno edita Dialogus de re medica y Dionisio Daza Chacón es uno de los mejores médicos en el tratamiento de heridas de guerra.

La novela de Miguel de Cervantes (1547-1616), El Ingenioso caballero Don Quijote de la Mancha, cumplió en el año 2005 el cuarto centenario de su publicación. Es lógico pensar que el acontecer político y social del siglo XVI impregna la novela pero también lo hace el renovado interés por diversas disciplinas científicas tan presente en España durante el reinado de Felipe II. Conocemos de la existencia del matemático John Napier (1550-1617), de Galileo Galilei (1564-1642), de Johannes Kepler (1571-1630) y de William Harvey (1578-1657), que descubrió en 1628 la circulación de la sangre, todos ellos contemporáneos de Cervantes; sin embargo es mucho menos conocida la comunidad científica que en esos años desarrollaba una ingente labor en la corte del imperio donde no se ponía el sol. Al tiempo que Don Quijote cabalgaba por la Mancha, alquimistas, cartógrafos, matemáticos, boticarios, astrónomos, ingenieros y médicos, españoles o foráneos, desarrollaban su labor en la Corte al servicio del Rey. La construcción y mantenimiento del Imperio hacía imprescindible la participación de la Ciencia y la generación de avances tecnológicos. Así, surgen iniciativas para hacer navegables los ríos españoles; la primera expedición científica a México a cargo de Francisco Hernández; el proyecto del Atlas de España y los de las Relaciones Topográficas españolas y americanas; en Aranjuez se modernizan las técnicas agrícolas y adaptan nuevas especies de plantas ornamentales, frutas y verduras traídas de Asia y América; se construye una «casa de las destilaciones» para el estudio de las plantas medicinales y elaboración de remedios al frente de la cual está Francisco Holbeque (química paracelsista); nace la Academia de Matemáticas y Cosmografía en Madrid; y como máximo exponente de este interés por la Ciencia se crea la Biblioteca del Escorial donde descansan todos los saberes y prácticas experimentales de la época. En 1598 la biblioteca tenía un fondo de 14.000 volúmenes.

Lo anterior nos sitúa, de manera concisa, en el contexto histórico-científico en el que Cervantes creó su obra maestra. Y lo que nosotros nos preguntamos es: ¿Será posible hacer una lectura de El Quijote y encontrar señales e influencias de los conocimientos científicos de su época? Presentación de nuestro trabajo a partir de la novela. Como profesores de Ciencias, dos inquietudes nos estimulan en nuestro quehacer diario. Por un lado, constantemente intentamos acercar los contenidos impartidos en el aula a todos los ámbitos del saber, por muy lejanos que parezcan de nuestras disciplinas científicas, que son Física, Química, Biología y Geología. Por otro, tratamos de conectarlos con la actualidad informativa. El fin último que perseguimos es el de GENERAR EL DESEO Y LA NECESIDAD POR APRENDER. Es por ello, que no íbamos a dejar pasar la oportunidad de sumarnos a la celebración del IV Centenario de la publicación de El ingenioso hidalgo

Entre los «hombres de ciencia» del siglo XVI podemos destacar en el campo de la ingeniería a Juan 3

Don Quijote de la Mancha fomentando su lectura en nuestro centro educativo; y por ello decidimos invitar a Don Quijote y a Sancho Panza a nuestra «venta»: los laboratorios y aulas de nuestro instituto.

intención desmenuzar hasta niveles atómicos las aventuras del Quijote, sino encontrar una forma diferente y divertida, ¿por qué no?, de aplicar algunos contenidos impartidos en el área de Física y Química y Biología y Geología, a la vez que realizar una lectura, diferente a las tradicionales, de la novela de Cervantes.

Nos planteamos los siguientes objetivos: • Seleccionar y analizar pasajes de la obra de Cervantes que narraran acontecimientos de naturaleza científica, o susceptibles de ser analizados y puestos a prueba de modo experimental.

No nos es posible reproducir en este artículo, por su limitada extensión, todo lo acontecido en estos meses, ni los procedimientos experimentales completamente detallados, ni los diversos comentarios de los alumnos ante los capítulos leídos, ni las sorpresas frente a los resultados obtenidos en cada experiencia, ni los fracasos al no poder calcular y reproducir todo fielmente, ni las risas que provocaban las aventuras del Quijote, ni las numerosas preguntas a las que fuimos sometidos por los alumnos de otros niveles ante lo que se estaba haciendo con corazones de cerdo o el porqué del olor a romero en el Centro, etc. Sin embargo, sí queremos destacar un fragmento de un capítulo de nuestra particular historia «El del buen suceso que los profes tuvieron en la agradable y jamás imaginada aventura de los molinos de viento, con otros sucesos dignos de felice recordación», donde un grupo de alumnos nos cuentan un día que han visto anunciado en televisión la emisión de una serie sobre don Quijote. Nosotros, incrédulos, como ellos al principio de nuestra historia, dudamos de que frente a otra oferta televisiva la eligieran. Al día siguiente nos buscaron y protestaron amargamente porque lo visto no coincidía con lo leído. Era la primera vez que, en tantos años de docencia, oíamos que un libro vencía a la caja tonta en el pensamiento de unos alumnos. Una vez más, todo tiene relación con todo.

• Diseñar actividades a partir de los textos seleccionados. • Incluir las actividades en las unidades didácticas de las áreas de Ciencias Naturales de 3º de ESO, Biología y Geología de 4º de ESO y Física y Química de 4º de ESO. Fases del trabajo realizado: Los profesores seleccionamos los capítulos que los alumnos iban a leer en cada unidad didáctica del área, a lo largo del curso, y se los entregamos para que los leyeran en casa y buscaran los pasajes relacionados con el tema que se estaba trabajando. La segunda parte consistía en realizar en el aula las actividades que habíamos diseñado en relación con los textos. Arrancar con el proyecto no fue sencillo: decidimos sondear los ánimos y predisposición de los alumnos. Les informamos de que, desde nuestras asignaturas, también íbamos a celebrar el 400 aniversario del Quijote a lo largo del curso, y, he aquí que nos sacudió la primera aspa de molino en forma de pregunta/ protesta, ¿qué tiene que ver el Quijote con los profes de Química y de Biología? Y después vino otra, ¡eso es un «maske» profe! Además, ningún alumno era capaz de relatarnos algún acontecer del caballero andante e incluso muchos no sabían ni quién era. La respuesta casi diaria en el aula de «todo tiene relación con todo, sólo hace falta conocimientos e imaginación para encontrar esa relación», frente a la casi diaria pregunta de los alumnos de: «¿a mí para qué me sirve esto profe?» se convirtió en nuestro Rocinante para poder avanzar entre la reticencia e incredulidad inicial. Realizamos prácticas y ejercicios de cálculo basados en capítulos diferentes de la novela, sumergiéndonos en cuestiones de Cinemática, Dinámica, Análisis químico, Método Científico, etc. El nivel académico en 3º y 4º de la E.S.O. limita y obliga a realizar una serie de consideraciones restrictivas a la hora de abordar las actividades, no podemos ser demasiado exigentes. No era nuestra 4

Algunas de las actividades realizadas: §

y su buen escudero Sancho Panza pasaron en la venta, que por su mal pensó que era castillo. Durante la lectura los alumnos señalan los fragmentos que informen sobre la composición química, la cantidad fabricada y el procedimiento experimental necesarios para la posterior elaboración del bálsamo.

En Ciencias Naturales de 3º ESO.

U.D.: Alimentación y Nutrición en las personas. 1. ¿Qué es lo que pasa cuando se consumen demasiados huevos?

Pero la información que suministra el Quijote es insuficiente, por tanto se le facilita a los alumnos datos obtenidos de la obra de Agustín Redondo: Otra manera de leer el Quijote: ...Sancho estima que la onza de bálsamo se podría vender a mas de dos reales y don quijote piensa que «con menos de tres reales se pueden hacer tres azumbres». El azumbre es una medida de vino que equivale aproximadamente a 2 litros de vino. La onza al contrario es una medida de peso utilizada exclusivamente para la venta de especias y se corresponde a unos 28 g. Es decir que de 3 azumbres de bálsamo -no sería éste mas ligero que el agua- se sacarían por lo menos 215 onzas o sea más de 430 reales.

A partir del capítulo De lo que pasó don Quijote con su escudero, con otros sucesos famosísimos, los alumnos localizaron el fragmento en el que aparece la cantidad de huevos que el ama usa para intentar volver en sí a don Quijote: seiscientos. No se indica el intervalo de tiempo en el que los consume don Quijote. Sin embargo, los alumnos, basándose en la lectura, dedujeron que se extiende desde su llegada de la segunda salida hasta la salida de la tercera. Se obtuvo la información en El calendario del Quijote de la obra de don Vicente de los Ríos de 1780. En él se indica que la estancia en la aldea abarca desde el 3 de Septiembre hasta el 2 de Octubre, es decir, 29 días para consumir los 600 huevos. Si consideramos una cierta regularidad en su consumo, don Quijote ingirió 20,68 huevos al día. El objetivo de la práctica fue ambicioso:

Con esta información se hacen cambios de unidades y se calcula la densidad del bálsamo. Se divide la clase en grupos para que cada uno realice la misma mezcla con diferente concentración. En el transcurso del procedimiento experimental los alumnos refuerzan conocimientos al observar las propiedades de una mezcla, los tipos de mezcla, la formación de una emulsión, la aparición de fase orgánica y acuosa, la decantación, los métodos de separación de componentes como la filtración. El olor y el aspecto del producto obtenido hicieron dudar a los alumnos de los conocimientos médicos de Don Quijote y entendieron el malestar que le produjo a Sancho su ingestión.

- Realizar un análisis químico del huevo, la detección de la presencia de lípidos, glúcidos y proteínas en la clara y en la yema. - calcular las cantidades de distintas sustancias -proteínas, minerales, vitaminas, etc.- ingeridas con los 600 huevos a partir de la tabla que se les suministra. - calcular las calorías que suministran 600 huevos. - elaborar una tabla con las comidas que realizaba don Quijote y sus aportes calóricos, proteínicos y vitamínicos, analizando los déficit alimentarios que detecten.

§

En Biología y Geología de 4º ESO.

U.D.: Genética Humana.

- Buscar en la bibliografía o en Internet las consecuencias biológicas del consumo excesivo de huevos.

4. ¿Qué enfermedad padecía Don Quijote? Es evidente que las aventuras y desventuras de nuestro caballero andante no caben en el de una persona cuerda, lo que evidencia un desajuste mental.

2. Análisis de la dieta predominante en la época de Don Quijote.

Los alumnos se vieron ante todo un proyecto de investigación en el que, con ayuda de libros e Internet, debían averiguar de qué enfermedad en concreto estaba aquejado el hidalgo caballero.

A través de las múltiples referencias a la comida que aparecen en el libro, los alumnos estudian su composición cualitativa en nutrientes y el grado de beneficio y perjuicio que pudiera representar para la salud.

La empresa resultó bastante compleja. Hubo que trabajar las diferentes causas (problemas genéticos, trastornos orgánicos, funcionales o fisiológicos, problema cerebral durante el parto, problemas ambientales, problemas seniles, drogas, accidentes y lesiones cerebrales). También se indagó en tres grandes grupos: el retraso mental, las enfermedades

U.D.: Sustancias y Mezclas. 3. Elaboración del Bálsamo de Fierabrás. Lectura del capítulo Donde se prosiguen los innumerables trabajos que el bravo Don Quijote 5

psicóticas (esquizofrenia, paranoia, psicosis maníacodepresiva) y las neuróticas (cambios bruscos de carácter, fobias, miedos y pánico, angustia, histeria, estrés, depresión, hipocondría,…). Para completar el estudio, no quisimos dejar atrás enfermedades como el Alzheimer o el mal de Parkinson. Finalmente concluimos que, probablemente, Don Quijote padeció una esquizofrenia paranoide y, dada su etiología, dudamos de que fuera posible que el hidalgo caballero recuperara el juicio poco antes de morir. Por último, queremos resaltar que este estudio sirvió para concienciar al alumnado del elevado número de pacientes aquejados de alguna enfermedad mental, así como de la importancia de rechazar las drogas y llevar una correcta salud mental.

tenía que estar Sancho de la Tierra para que la observase del tamaño del grano de especia. El resultado fue de 3.185.000 km. Además de este cálculo, determinaron la fuerza de atracción que ejercía la Tierra sobre Sancho a esta distancia. 7. ¿Molinos? ¡No mi señor Don Quijote, asteroides! Se analiza, estudia y se hacen cálculos sobre la «Misión Don Quijote», misión espacial que en al año 2002 científicos españoles diseñan para la ESA. Se lanzaron dos sondas espaciales llamadas Hidalgo y Sancho a un asteroide lejano. Una de las sondas impactaría con el asteroide a una altísima velocidad, provocando un cambio de su órbita, y la otra sonda suministraría los datos del impacto y las consecuencias del mismo.

U.D.: Los Seres Vivos y el Medio. 5. Estudio de la flora por donde transitó el hidalgo caballero.

Con esta actividad se da a conocer la tecnología de las misiones espaciales y se actualiza la figura del hidalgo.

Los alumnos identifican las diferencias entre los conceptos de especie endémica, especie autóctona y especie introducida y comparan la biodiversidad presente en la zona oriental de la Península Ibérica con la presente en las Islas Canarias. §

U.D.: Reacciones Químicas. 8. Cervantes en Nápoles. Nuestra última experiencia es un recuerdo al autor de la novela, don Miguel de Cervantes. A los alumnos se les leyó una síntesis de su biografía, introduciendo el siguiente suceso apócrifo: «contó alguien de cuyo nombre no quiero acordarme, que estando don Miguel en Nápoles a las órdenes de Álvaro de Sande, para sentar plaza después en la compañía de Diego de Urbina, del tercio de don Miguel de Moncada, bajo cuyas órdenes se embarcaría en la galera Marquesa, junto con su hermano Rodrigo, para combatir, el 7 de octubre de 1571, en la batalla naval de Lepanto, que le faltó tiempo para acercarse a la iglesia tal día como un 19 de Septiembre, para ver si era verdad aquello que contaban de la sangre del santo Genaro. Narra que después de una hora de rezo, el Arzobispo sujetaba en lo alto el frasco de cristal y plata que la contiene seca y muchos se estiraban para ver si, efectivamente, se había producido el milagro.

En Física y Química de 4º ESO.

U.D.: La Gravitación. 6. ¡Sancho, el primer astronauta español! Antes de Julio Verne, ya Cervantes había predicho la salida al espacio de los seres humanos. El primer astronauta español no es Pedro Duque sino Sancho. Pero, ¿hasta dónde llegó el fiel escudero de don Quijote? De la lectura del capítulo en el que se narra la aventura a lomos del caballo Clavileño, seleccionamos el siguiente fragmento: «–Yo, señora, sentí que íbamos, según mi señor me dijo, volando por la región del fuego, y quise descubrirme un poco los ojos, pero mi amo, a quien pedí licencia para descubrirme, no la consintió; mas yo, que tengo no sé qué briznas de curioso y de desear saber lo que se me estorba y impide, bonitamente y sin que nadie lo viese, por junto a las narices aparté tanto cuanto el pañizuelo que me tapaba los ojos, y por allí miré hacia la tierra, y parecióme que toda ella no era mayor que un grano de mostaza, y los hombres que andaban sobre ella, poco mayores que avellanas; porque se vea cuán altos debíamos de ir entonces.»

El milagro consiste en la fusión de la sangre seca, dos veces al año -el 19 de septiembre, el día de la fiesta del santo, y el primer sábado de mayo-. En el pasado, algún desastre sucedía cuando la sangre permanecía sólida. Esta última experiencia se basa en la recreación del prodigio que no pudo presenciar Cervantes. Se fabricó una disolución de 25 gramos de cloruro férrico, en 100 mililitros de agua. Se añadieron gradualmente 10 gramos de carbonato cálcico, depositando esta mezcla en una bolsa cerrada. Esta bolsa se dejó en agua destilada durante cuatro días y posteriormente

Después de medir el diámetro de un grano de mostaza, 0.004 m, los alumnos, haciendo uso del Teorema de Tales, calcularon la distancia a la que 6

se colocó sobre un plato para que se fuera evaporando hasta un volumen de 100 mililitros. Una vez obtenida esta sustancia se le añadieron 1,7 gramos de cloruro sódico, sal común, y el resultado fue un líquido de color marrón oscuro. Este líquido se convirtió en gel en el plazo de una hora y tiene propiedades tixotrópicas, es decir, se volverá líquido si se le agita y permanecerá sólido si está en reposo. Se introdujo en una cápsula y ha quedado como recuerdo de las experiencias realizadas en el 400 aniversario del Quijote.

MARTÍNEZ RUIZ, E. (dir.), Felipe II, la Ciencia y la Técnica, Madrid. LAFUENTE, A. y MOSCOSO, J. (1999), Madrid. Ciencia y Corte, Madrid. REDONDO, A. (1988). Otra manera de leer El Quijote: Historia, tradiciones culturales y literatura. Madrid: Ed. Castalia. www.elmundo.es/elmundo/2004/07/14/ciencia/ 1089835826.html w w w. e l p a i s . e s / a r t i c u l o / e l p p o r t e c / 20050929elpepunet_1/Tes

Referencias bibliográficas

www.homovebensis.com/genaro.html

CERVANTES SAAVEDRA, M. de. (2004). Don Quijote de la Mancha. Madrid: Ed. Planeta.

www.rutadonquijote.com

GOODMAN, D. (1990), Poder y penuria. Gobierno, tecnología y ciencia en la España de Felipe II, Madrid.

José Manuel Rodríguez Rodríguez Javier González Santana

GOODMAN, D. (1999), Las inquietudes científicas de Felipe II: tres interpretaciones.

Juan Navarro de Tuero

GUÍA PARA LOS AUTORES DE SPIN CERO SPIN CERO es una revista de divulgación científica en el ámbito educativo y de periodicidad anual, siendo especialmente interesante aquellos temas relacionados con la historia y la filosofía de la ciencia, los temas de salud y de medio ambiente, nuevas tecnologías y, en general, cualquier tema de comunicación social de la ciencia de candente actualidad. Con objeto de facilitar el tratamiento informático de la revista y de publicar el máximo número posible de artículos, se ruega a los autores observen las siguientes normas: 1.- Los artículos pueden remitirse por correo electrónico a [email protected] o por correo ordinario a SPIN CERO, IES PABLO PICASSO, C/ Camino Castillejos, 8. 29010. Málaga. 2.- La extensión de los artículos debe estar comprendida entre 2500 y 3000 palabras y se recomienda el uso de figuras, tablas e ilustraciones relacionadas con el contenido del mismo. Dichas figuras pueden situarse dentro del texto, pero también es conveniente que se adjunten en fichero aparte para facilitar el tratamiento informático de las mismas y evitar problemas de incompatibilidad de programas. 3.- Se recomienda que los artículos consten de una introducción, de un desarrollo que acabe en unas conclusiones y una bibliografía. En todo caso, en la exposición debe observarse el uso del Sistema Internacional de Unidades, especialmente en lo referente a las abreviaturas de las unidades utilizadas. 4.- Las referencias bibliográficas se pueden hacer utilizando corchetes con números, que se corresponderán con los de la Bibliografía, o bien indicando entre paréntesis el autor y el año de publicación, de acuerdo con las normas al uso. 5.- La Bibliografía debe escribirse por orden alfabético de autores en mayúscula, seguido del título del texto en minúscula y en cursiva, editorial y año de publicación. 6.- Las citas de textos originales deben hacerse entrecomillando o bien usando cursivas, pero nunca ambas a la vez.

7

DIETA Y SALUD BUCODENTAL Mª Isabel López Molina El individuo es responsable de su conducta de vida, pero la sociedad es responsable de las condiciones de vida. Burt.

1. INTRODUCCIÓN.

La enfermedades bucodentales más frecuentes como la caries, las enfermedades periodontales, el cáncer oral, las alteraciones del flujo salival y los problemas de la articulación temporomandibular tienen una relación directa con el consumo de azúcar, una higiene oral deficiente, el tabaco, el alcohol o el estrés. Para controlar estos problemas es necesario un enfoque de prevención de las enfermedades bucodentales y de promoción de la salud oral en el sentido de mejora de las condiciones y de los estilos de vida de las poblaciones.

En 1946, la Organización Mundial de la Salud (OMS) en su Carta Constitucional definió la salud como «el estado de completo bienestar físico, mental y social y no solamente la ausencia de afecciones y enfermedades». Actualmente la OMS asume el concepto dinámico de salud según el cual existen diferentes grados de salud positiva y de enfermedad « la salud y la enfermedad forman un continuo cuyos extremos son el óptimo de salud, por un lado, y la muerte, por el otro, y en ese continuo existe además una zona central neutra, no bien definida, en la que es difícil separar lo normal de lo patológico, la salud de la enfermedad». El definir los determinantes de la salud ha sido una preocupación a partir de la década de los setenta en la que el Ministro de Sanidad de Canadá (Lalonde,1974) construyó un modelo que es aplicable a la Salud Bucodental. Según Lalonde, el nivel de salud en una comunidad depende de cuatro determinantes:

2. CARIES: CONCEPTO Y ETIOPATOGENIA. La caries es una patología tan antigua como el hombre aunque su frecuencia y distribución era inferior a la actual y su localización era preferentemente en la raíz del diente, tal como muestran los cráneos del Neolítico. En los siglos XVII y XVIII se produjo un aumento de la prevalencia de caries debido a que la Revolución Industrial permitió el consumo de azúcares refinados, inicialmente en las clases sociales adineradas, y posteriormente al bajar los precios en todas las clases sociales. La caries es una enfermedad infecciosa de carácter oportunista, siendo los principales patógenos responsables Streptococcus mutans y Lactobacillus. Se produce durante el periodo posteruptivo del diente y presenta un carácter dinámico de progresión fásica, que lleva a la destrucción del diente (Cuenca, 1999). La etiopatogenia de la caries es multifactorial y se explica por la teoría ácidodescalcificación. Es el resultado de la interacción de 4 factores: 1. Existencia de microorganismos en la placa dental. 2. Presencia de hidratos de carbono fermentables que son utilizados por las bacterias para producir ácidos, disminuyendo el pH de la placa (cuando el pH es menor de 5,5 el esmalte empieza a disolverse y se inicia la caries). 3. Tiempo de contacto de los hidratos de carbono fermentables con los dientes condicionado

1. La biología humana (genética, envejecimiento). 2. El medio ambiente (contaminación biológica, física, química, psicosocial y sociocultural). 3. El estilo de vida (conductas de salud, hábitos, etc). 4. El sistema de asistencia sanitaria (calidad, accesibilidad y gratuidad). De estos determinantes, unos apenas se pueden modificar (la biología humana), mientras que los demás sí. Si estudiamos el efecto relativo de cada uno de ellos en la salud, al medio ambiente y al estilo de vida (presencia de fuentes de flúor, dieta rica en azúcar, hábitos de higiene oral, etc.) les corresponde una mayor proporción que al sistema de asistencia sanitaria y a la biología humana (susceptibilidad del sujeto). El carácter dinámico de la salud permite poder influir positivamente sobre los determinantes de la salud e incrementar los niveles de salud de los individuos y de la población. (Piédrola, 2002). 8

por la higiene oral y por la alimentación (frecuencia de consumo, consistencia y textura de los alimentos). 4. Susceptibilidad del individuo (estructura y localización de los dientes, composición y flujo de la saliva) determinada por la herencia, estado nutricional, etc. Los factores ambientales y el estilo de vida como la dieta y el aporte adecuado de flúor, son los principales determinantes tanto de la prevención de la aparición de la caries como de su reversibilidad una vez iniciada. Los azúcares (mono y disacáridos) son la mayor amenaza para la salud dental tanto a nivel poblacional como individual. El flúor disminuye la susceptibilidad individual a la caries.

El flúor disminuye la susceptibilidad individual a la caries y produce un desplazamiento de la curva hacía la derecha por lo que, en los países en los que se usa flúor, el nivel de azúcar per capita aceptado es de 50 g/día en vez de 40 g/día. Los estudios epidemiológicos realizados en tribus africanas, esquimales, etc, demuestran la relación entre el aumento de las tasas de prevalencia y gravedad de las caries y las modificaciones de los estilos de vida, en especial el incremento del consumo de azúcar. Así mismo, se ha visto el descenso de caries en épocas de guerra por el racionamiento del azúcar. También se han realizado estudios de correlación para comparar la relación entre el consumo per capita de azúcar y los índices de caries en distintos países. Estos estudios presentan limitaciones por medir el consumo a nivel poblacional mediante datos de abastecimiento o disponibilidad nacional de azúcar, que no siempre coinciden con el consumo real a nivel individual, ya que la cantidad de azúcar dedicada a otros fines varía de unos países a otros. Además, los métodos diagnósticos de caries no siempre están estandarizados. Los estudios de casos y controles en grupos de población con un elevado consumo de azúcar (mascadores de caña de azúcar, consumidores de medicamentos ricos en sacarosa, pasteleros) o con un consumo restrictivo de azúcar (diabéticos juveniles, vegetarianos, hijos de dentistas) también apoyan la relación de caries y consumo de azúcar.

3. EFECTO DE LA DIETA EN LA CARIES. La dieta debe evaluarse desde dos puntos de vista: el nutricional y el dietético. Respecto a la nutrición, la boca forma parte de un ser vivo cuya salud general depende de una nutrición adecuada. La malnutrición proteicocalórica provoca retraso de la erupción y alteraciones del desarrollo dental. La deficiencias de vitaminas A, C y D, proteínas, calorías, calcio, iodo, fósforo y fluoruro se asocian con un aumento de la susceptibilidad de la dentición temporal y de los primeros molares a la caries, ya que afectan al tamaño, forma, composición, estructura y alineamiento de los dientes, tamaño de la mandíbula, función salival e inmunocompetencia (Requejo, 2003).

Los estudios experimentales sobre dieta y caries, aunque desde el punto de vista científico son la fuente más plausible de causalidad, no están exentos de dificultades. Así, los estudios en seres humanos son escasos debido a que la administración de suplementos de azúcar o dulces es éticamente inaceptable. A pesar de ello, estos estudios han realizado una importante aportación a la etiología de la caries, como que es más importante la ingesta entre horas, sobre todo de azúcares adherentes, y la frecuencia de consumo de azúcares que la cantidad de azúcar consumida. También se ha demostrado la falta de cariogenicidad del xilitol, alcohol de azúcar no fermentable. Los estudios realizados en animales demuestran que los roedores alimentados con dietas cariogénicas mediante intubación, evitando el contacto con los dientes, no desarrollaban caries. Todos los estudios realizados en poblaciones humanas como en laboratorios confirman el papel de los azúcares en la etipoatogenia de la caries dental y ponen las bases científicas para la prevención de la caries (Cuenca, 1999).

La importancia de la dieta en la caries ya fue mencionada por Aristóteles en el siglo IV a.C., cuando la relacionaba con el consumo de higos secos. Los hidratos de carbono de absorción rápida de la dieta tienen un efecto cariogénico local. Debido a la fermentación anaerobia bacteriana de los alimentos azucarados se producen ácidos (fundamentalmente ácido láctico) que provoca la desmineralización de la estructura inorgánica del diente y como resultado la caries dental. La saliva mediante las sustancias tampón que contiene neutraliza el pH en 20-30 minutos pero su efecto es limitado si la ingesta es frecuente o repetida. La relación entre la cantidad de azúcar en la dieta y la caries no es lineal sino sigmoidea, de tal forma que a partir de un umbral la curva alcanza una meseta. La diferencia de caries entre los distintos dientes se explica por las variaciones anatómicas sobre todo en su cara oclusal (masticatoria) que hace que los molares sean más retentivos de los alimentos. 9

4. MEDICIÓN DEL CONSUMO ALIMENTOS EN LA POBLACIÓN.

DE

registrar las características de la familia, se pueden presentar los resultados de consumo de azúcares en relación con el nivel socioeconómico, zona de residencia, tamaño familiar, etc. 3. Nivel individual. Encuestas alimentarias o nutricionales que evalúan el consumo individual de alimentos. La información se puede recoger mediante entrevistas con encuestadores por correo, teléfono, etc. Entre las encuestas alimentarias destacamos: a) Recordatorio de 24 horas. Con ayuda de un entrevistador se cuantifica mediante modelos alimentarios o medidas caseras las cantidades de alimentos y bebidas consumidos (ejemplo: cucharadas de azúcar). b) Diario dietético. Es un método prospectivo y consiste en que el entrevistado anote diariamente lo consumido durante un periodo de tiempo (3-7 días). c) Cuestionario de frecuencia. Mediante una lista de alimentos se controla la frecuencia de su consumo (diaria, semanal o mensual). La información que aporta es de tipo cualitativa aunque, si anotamos para cada alimento la ración habitual, podemos cuantificar la cantidad de alimentos y de nutrientes. d) Historia dietética. Incluye una entrevista sobre los hábitos alimentarios actuales y pasados, recordatorios de 24 horas y un cuestionario de frecuencia de consumo.

El conocimiento de la ingesta de alimentos en una población es fundamental para conocer su estado nutricional y planificar programas de salud según sus necesidades (Mataix, 2002). Hay que diferenciar entre la disponibilidad de los alimentos (alimentos que se producen e importan en un país) y el consumo (proporción de alimentos disponibles que son ingeridos restándole los alimentos que perecen, que se tiran o que se dan a los animales). La medición de la ingesta de alimentos en individuos y en poblaciones se realiza mediante diferentes métodos o encuestas cuya información se obtiene a diferentes niveles: 1. Nivel nacional: Hojas de balance alimentario con las que se obtiene la disponibilidad de alimentos de un país (kg per capita/año o per capita/día). Con estos datos obtenemos información del consumo medio nacional pero no diferencia entre las distintas edades, sexos y zonas geográficas. Es muy útil para comparar el consumo aparente de alimentos de distintos países o de un país a lo largo del tiempo. La FAO y la OCDE publican estimaciones de consumo bruto de alimentos y de macronutrientes en distintos países. En España, el consumo global de azúcar se mantiene desde los años setenta en torno a los 80 g/persona/día aunque el consumo de azúcar directo o voluntario ha disminuido aumentando el consumo indirecto o involuntario por añadírsele a los alimentos.

Mediante las tablas de composición de los alimentos podemos convertir el consumo de alimentos en nutrientes. Según estas encuestas en España ha

2. Nivel familiar. Encuestas de presupuestos familiares (realizadas por el INE) miden la disponibilidad o el consumo familiar a partir de la cesta de la compra. No tiene en cuenta los alimentos producidos en el hogar, los consumidos fuera del hogar ( 20%) o los regalados. El consumo de alimentos en el hogar se estudia mediante el registro diario o el recordatorio de los alimentos consumidos durante 7 días. Al

aumentado el consumo de azúcares fundamentalmente a expensas del aumento del consumo de frutas. En relación a la caries dental y según datos de un estudio realizado en Cataluña, destaca la ingesta indirecta de azúcares a través de pastelería-bollería y de bebidas refrescantes sobre todo en niños y adolescentes (Serra, 2002). En relación a otros países el consumo de azúcares en España no es muy importante (Tabla 1) pero es necesario 10

identificar a las personas con un consumo excesivo de azúcar y/o productos azucarados y poner en marcha protocolos para corregirlo. Actualmente se considera como límite máximo aceptable el consumo de 70 g /día de azúcar, sobre una dieta de 3.000 kcal, es decir, un 10 % del aporte calórico. Además, es importante identificar los azúcares escondidos en los alimentos, añadidos a ellos en su proceso de elaboración o fabricación, ya que son difíciles de detectar y están aumentando. Pero más que identificar la cantidad total de azúcar consumida, es importante evaluar la frecuencia de consumo de alimentos, por lo que los cuestionarios de frecuencia de alimentos son las encuestas de elección en los estudios sobre caries y dieta. 5. PODER CARIOGÉNICO ALIMENTOS.

DE

y degradar a los almidones haciéndolos más vulnerables a las bacterias. En los países industrializados existe una tendencia a sustituir las tomas principales por un patrón de toma de tentempiés, sobre todo en niños y adolescentes. Se ha incrementado el consumo no sólo de golosinas y dulces, sino también de patatas fritas y otros aperitivos salados obtenidos a partir de almidones de distintos orígenes (trigo, maíz, etc.) mediante procesos industriales que pueden producir la acidificación de la cavidad oral. El poder cariogénico de la dieta se relaciona con: 1. Cantidad de azúcar en la dieta. Se puede medir mediante el recordatorio de lo consumido en las 24 horas previas insistiendo especialmente en el número de cucharadas de azúcar que se añaden a la comida. Además, hay que tener en cuenta que el azúcar está presente en diversos alimentos elaborados como caramelos, dulces, salsas, frutos secos, etc. Actualmente, se acepta que otros factores relacionados con los alimentos tienen tanta o más importancia en la cariogenicidad que la cantidad de azúcar. 2. Consistencia de los alimentos. Se consideran más cariogénicos los azúcares más adherentes. Así, ante una misma cantidad de azúcar es más perjudicial para la salud bucodental si se ingiere en forma de toffees, miel, turrón, etc. que en alimentos líquidos. También influyen el tamaño de las partículas, la solubilidad, la textura, el gusto, etc. 3. Frecuencia de consumo. Se mide mediante un cuestionario de frecuencia de consumo de azúcar y alimentos azucarados. A los pocos minutos de ingerir azúcar se produce una disminución del pH de la placa que provoca la desmineralización del esmalte. A la media hora tras la ingesta el pH se normaliza. Si se consumen alimentos azucarados con frecuencia, esta normalización del pH no se produce y aumenta el peligro de caries. 4. Ingesta en o entre comidas. Si los alimentos cariogénicos se ingieren durante las comidas, la saliva y los mecanismos de autolimpieza (flujo salival, movimientos de la lengua y los carrillos, movimientos masticatorios) tienden a eliminar los alimentos de la boca y los mecanismos tampón de la saliva tienden a neutralizar los ácidos que se forman, normalizando el pH. Por lo tanto, el consumo de alimentos cariogénicos durante las comidas es menos peligroso que si lo hacemos entre comidas. El peor momento para ingerir alimentos cariogénicos es antes de ir a dormir, ya que durante el sueño los mecanismos de autolimpieza están disminuidos. Algunas prácticas, como chupetes

LOS

Las propiedades de los alimentos que influyen en su potencial cariogénico (capacidad para producir caries) son la capacidad de retención en la boca, forma física, propiedades acidogénicas, efecto sobre la colonización bacteriana, cantidad y composición glucídica y el efecto protector de ciertos componentes. No todos los hidratos de carbono tienen el mismo potencial cariogénico. En general, la sacarosa presente en el azúcar común, frutas, dulces, golosinas, etc. es el más cariogénico. Los monosacáridos (glucosa, fructosa, lactosa) presentes en frutas, miel, leche, etc. tienen menos poder cariogénico. Los grandes polisacáridos, como el almidón, tienen capacidad cariogénica relativamente baja. Pero, es importante relacionar el consumo de hidratos de carbono y caries dental teniendo en cuenta además el tipo de alimento del que forman parte y el procesamiento industrial de los hidratos de carbono complejos. Este proceso produce la hidrólisis parcial de las largas cadenas hidrocarbonadas, que favorece la acción sobre ellas de la flora oral, que las utiliza como sustrato para producir ácidos. Los alimentos que contienen almidón hidrolizable en combinación con sacarosa u otros azúcares incrementan su potencial cariogénico, debido a que el almidón prolonga el tiempo de retención del alimento en la boca e incrementa la producción de ácido. La forma física del alimento también influye en su cariogenicidad (el almidón cocido es más cariogénico que el almidón crudo). Por lo tanto, la diferenciación entre glúcidos simples cariogénicos y glúcidos complejos no cariogénicos no es tan clara ya que los procesos industriales pueden desnaturalizar 11

impregnados en azúcar o miel, son poco recomendables. 5. Factores protectores. El queso consumido al finalizar la comida reduce la acidez de la placa por lo que tiene propiedades anticariogénicas (acción tampón sobre el pH de la placa, estímulo de la saliva, inhibición bacteriana). Parece ser que los fosfatos y algunos componentes del cacao, ingrediente principal del chocolate, también tienen un efecto protector. El chicle masticado después de las comidas tiene una acción anticariogénica ya que ayuda a neutralizar ácidos por el mayor flujo de saliva que provoca. Si el chicle contiene xilitol se suman las acciones anticariogénicas de ambos.

Así mismo, se observa un menor número de casos de cáncer oral entre los grandes consumidores de verduras y frutas frescas, todos ellos alimentos con gran contenido de vitaminas y de minerales antioxidantes. En otro estudio de casos y controles se ha relacionado el consumo de suplementos de vitamina E con el efecto protector frente al cáncer orofaríngeo. Este efecto de la vitamina E y de otras vitaminas y minerales, es debido a su acción antioxidante al neutralizar radicales libres y proteger las membranas celulares y su acción sobre el sistema inmune, inhibiendo la iniciación del proceso tumoral. Para la prevención del cáncer orofaríngeo, se aconseja identificar a los grandes bebedores de alcohol mediante cuestionarios sencillos, que evitan los errores de los interrogatorios directos en los que el sujeto puede subestimar, de forma consciente o inconsciente, su consumo. En relación al tabaco es necesaria la información sobre sus efectos, concienciar a la población y a los profesionales de que el tabaquismo es un hábito que crea adicción, tratar de que no surjan nuevos fumadores y tratar a los ya existentes (preguntar, informar, aconsejar y ayudar). Además es necesaria una Legislación y recursos tanto económicos como humanos. Respecto a la dieta, actualmente carecemos de pruebas suficientes para aconsejar la suplementación con vitaminas y minerales antioxidantes, como el selenio, en la prevención del cáncer oral en la población general, pero sí aconsejamos una dieta variada con consumo de frutas y verduras frescas.

La escala de peligrosidad (Baca, 1997) de los alimentos que contienen azúcar según su nivel de cariogenicidad es: 1. Alimentos sólidos, retentivos que se consumen sobre todo entre comidas, con bastante frecuencia y, aún peor, antes de ir a dormir. 2. Los mismos alimentos consumidos durante las comidas. 3. Alimentos que contengan azúcar, pero que sean líquidos, no retentivos, que se consuman entre las comidas, con frecuencia y, aún peor, antes de ir a dormir. 4. Los mismos alimentos consumidos durante las comidas. 6. CÁNCER ORAL Y DIETA. Debido a la elevada letalidad del cáncer orofaríngeo y al aumento de casos experimentado en España en las últimas décadas, es importante realizar una revisión sobre esta patología en la que su detección precoz aumenta las tasas de supervivencia. Diversos estudios sugieren que en su etiología influyen más los factores ambientales que los endógenos. Los factores ambientales que han mostrado una mayor asociación con el riesgo de cáncer oral son el consumo de tabaco y alcohol (riesgo atribuible a estos dos factores 75-95%), los factores dietéticos y los agentes infecciosos. Otros factores relacionados son los factores locales, como la higiene bucal y las prótesis dentales o las piezas rotas o en mal estado, que suponen una agresión crónica de la cavidad oral y determinadas ocupaciones relacionadas con actividades al aire libre por exposición del labio al sol. En relación con la dieta, numerosos estudios han puesto de manifiesto la relación entre determinados déficit nutricionales y el cáncer oral. Se asocia al déficit de hierro y de vitaminas A y C.

7. RECOMENDACIONES ALIMENTARIAS PARA LA SALUD ORAL. El fomento de la salud oral se debe realizar desde distintos ámbitos y en relación con sus determinantes entre los que la dieta es primordial. La educación nutricional se debe llevar a cabo en las escuelas, dirigida tanto a padres como a escolares, con actividades interdisciplinares y con un compromiso de toda la comunidad escolar (KWAN, 2005). Así mismo, los servicios sanitarios en general y odontológicos en particular, tanto públicos como privados, son contextos en los que se debe desarrollar la educación nutricional. Las autoridades sanitarias deben realizar campañas informativas y los medios de comunicación deben apoyar los mensajes de los agentes de salud. Entre las recomendaciones para la prevención de la caries dental incluimos: 12

1. Reducir la cantidad de sacarosa consumida por debajo de 50 g/día. 2. Reducir la frecuencia de consumo de azúcares. 3. No hacer más de 6 comidas/día y no picar entre comidas. 4. Evitar el consumo de alimentos pegajosos o viscosos . 5. Usar chicles y golosinas con xilitol. 6. Sustituir la sacarosa por edulcorantes no cariogénicos ya que, al no ser metabolizados por las bacterias de la placa bacteriana, no producen ácidos, dan lugar a una menor proporción de éstos o incluso son antimicrobianos como el xilitol. Entre ellos se encuentran el xilitol, el sorbitol, el manitol, la sacarina, aspartamo, ciclamato, etc. 7. Identificar los alimentos potencialmente cariógenos (capaces de disminuir el pH por debjo de 4,5 durante más de 20 minutos) y los alimentos seguros para los dientes (alimentos que no son capaces de disminuir el pH de la placa dental por debajo de 5,7 a los 30 minutos después de ser ingeridos) mediante logotipos de «diente saludable» (Tabla 2), (Requejo, 2003). Como método de trabajo de control de la dieta en relación a la caries se recomienda (Baca, 1997) recoger información sobre la dieta del paciente

principios, se debe ir paso a paso, es decir, un cambio dietético cada vez, empezando por el alimento más peligroso según la escala de peligrosidad. Una vez seleccionado el primer objetivo, es necesario plantear una estrategia en el sentido de: 1. Es más fácil conseguir un cambio que la supresión radical de un alimento. 2. El sustituto del alimento original debe estar un grado más abajo en la escala de peligrosidad. 3. Para conseguir una lista de sustitutos debe preguntarse al paciente: ¿Qué aceptaría comer en lugar de...?. Además, se le propondrá una lista de sustitutos de baja peligrosidad por su escasa retención como quesos, frutas, aceitunas, nueces, almendras, etc. 4. Deben existir suministros de sustitutos en la casa y en comedores y bares, sobre todo en los centros públicos. 5. Actuar en positivo, no prohibir, proponer y sustituir los alimentos en colaboración con el propio sujeto, la familia, educadores y profesionales sanitarios, con afecto. 6. Se deben recoger todos los acuerdos y recomendaciones por escrito con objeto de darle más rigor y servir de recordatorio para llevar el programa a la práctica.

mediante un dietario durante una semana, especificando si se han ingerido alimentos entre comidas. Posteriormente se analiza la dieta desde el punto de vista nutritivo, evaluando el número de porciones por día que el sujeto consume de cada uno de los cuatro grupos de alimentos básicos (carnes, pescados y huevos; frutas y vegetales; pan y cereales; productos lácteos). De forma específica y en relación con la caries dental, se señalizarán todos aquellos alimentos que contienen azúcar. Una vez identificados los alimentos cariogénicos se sugerirán posibles modificaciones o alternativas. Como

Entre las indicaciones para la prevención del cáncer oral, además de la adecuada higiene oral y el autoexamen, destacamos: 1. Eliminar el tabaco (dejar de fumar o no iniciar su hábito). 2. Evitar el consumo excesivo de alcohol. 3. Dieta variada con consumo de frutas y verduras frescas (fuentes naturales de vitaminas y minerales antioxidantes). Todas estas recomendaciones en relación con la salud oral las incluimos dentro de un programa más 13

amplio en el que la dieta mediterránea es el prototipo para la promoción de la salud en general y para la prevención de enfermedades. 8. EXPERIENCIA DE CONTROL DEL CONSUMO DE GOLOSINAS EN EL I.E.S. CASTILLO DE MATRERA DE VILLAMARTÍN. En el curso escolar 1995/96 realizamos una experiencia piloto en el I.E.S. de Villamartín (Cádiz). Para ello y en relación a las Finalidades educativas y Objetivos generales del Centro, en lo referente a la promoción de la salud de los escolares en particular y de la comunidad educativa en general, recogimos en nuestra programación la realización de actividades interdisciplinares de fomento de una dieta sana. Dichas actividades fueron aprobadas por el Consejo Escolar a propuesta de los Departamentos de Sanitaria y con la colaboración del Departamento de Ciencias Naturales y de Actividades Extraescolares. Además, la A.P.A fue informada de esta experiencia. Con ello pretendimos una implicación de toda la comunidad escolar.

·

·

·

Estas actividades tenían como objetivos: Fomentar una dieta sana «dieta mediterránea». · Sustituir el consumo de golosinas por otros alimentos no cariogénicos. · Responsabilizar al alumnado de su propia salud, convirtiéndolo en un sujeto activo. · Potenciar el trabajo en equipo y dinamizar el Centro. ·

· · ·

Temporalización: Curso escolar 1995/96. Agentes de salud: Profesorado del I.E.S. entre los que nos encontrábamos profesionales sanitarios y alumnado del Ciclo Formativo «Técnico en Cuidados Auxiliares de Enfermería». Población objeto de la campaña de educación para la salud «dieta saludable» : · Alumnado del Centro Educativo (E.S.O., Bachillerato, Ciclos Formativos).

·

· ·

Actividades: ·

Control del consumo de golosinas en el Centro: - Recogida de información por parte de los delegados/as de curso y elaboración de un listado del consumo de frutas semanal (manzanas, naranjas, mandarinas y plátanos) de todo el alumnado y profesorado del Centro por parte del alumnado del Ciclo Formativo

de Auxiliar de Enfermería (tipo de fruta y cantidad medida por piezas). - Encargo al responsable del bar del Centro de la fruta, previo cálculo del número de kilogramos de cada fruta. - Comprobación del consumo real de fruta y compra de la no consumida. - Cálculo de la cantidad de golosinas consumida en esa semana. - Elaboración de una estadística sobre evolución del consumo de fruta y golosinas en relación con las actividades de educación para la salud realizadas, preferencias de frutas, consumo de frutas por edad y sexo, etc. Elaboración de carteles informativos en relación con la dieta saludable (pirámide de alimentos, alimentos cariogénicos, etc). Concurso de elaboración de materiales por parte del alumnado de sanitaria en relación a «educación para la salud respecto a una dieta sana en general y una dieta no cariogénica en particular» (juegos, folletos, etc). Concurso de «recetas sobre bebidas no alcohólicas» con posterior elaboración de las seleccionadas y dispensación en las «Jornadas de prevención de la drogadicción», organizadas por el Ayuntamiento de la localidad. Taller de cocina con elaboración de recetas empleando frutas y verduras. Desayuno mediterráneo y taller de cepillado de dientes. Realización de cuestionarios sobre consumo de alimentos en relación a la caries. Charlas sobre temas en relación a la dieta saludable por parte de expertos del Centro de Salud « Anorexia y bulimia», «Obesidad», «Caries y dieta», etc. Coloquio sobre dieta y salud oral. Tratamiento interdisciplinar del tema en Biología, Química, Lengua, Sanitaria, etc. (características químicas de los azúcares, microorganismos, fuentes energéticas, ecología de la cavidad oral, lectura de bibliografía, recogida de datos, elaboración de tablas y gráficos, cálculo de índices matemáticos, realización de informes, etc).

Valoración de las actividades: La valoración de los resultados fue muy positiva en cuanto a implicación de la comunidad escolar, incluido el responsable del bar que hizo un 14

esfuerzo al ofrecer unos productos perecederos que además tenía que comprar personalmente. Respecto al alumnado, su grado de participación fue elevado y el tener responsabilidades en los distintos niveles (recogida de listados, organización y ejecución de actividades, etc.) hizo que su colaboración fuese mayor. La directiva del Centro en todo momento tuvo una actitud positiva y apoyó y puso a nuestra disposición cuantos medios necesitamos y facilitó los contactos con los padres, autoridades locales, etc. Los equipos educativos que participaron, directa o indirectamente, también expresaron su satisfacción respecto a los resultados y grado de participación del alumnado. En cuanto a la valoración del consumo de golosinas, se experimentó un descenso acentuándose en los periodos en los que se realizaban conjuntamente otras actividades de educación para la salud.

MATAIX, J.; «Nutrición y alimentación humana», Ed. Ergon, 2002. MOYNIHAN, P. The role of diet and nutrition in the etiology and prevention of oral diseases. Bulletin of World Health Organization, 83, 694-699, 2005. PIÉDROLA, G. «Medicina Preventiva y Salud Pública», 10ª Ed., Masson, 2002. REQUEJO, A.; ORTEGA,R. «Nutriguía. Manual de nutrición clínica en Atención Primaria». Editorial Complutense, 2003. SERRA, L. Departamento de Sanidad, Alimentación y Nutrición. «Encuesta nutricional de la población catalana 2002».

Mª Isabel López Molina

Conclusiones: Los programas de salud realizados desde varios ámbitos tienen mejores resultados. El medio escolar es un lugar adecuado para el desarrollo de programas de educación para la salud por el gran número de personas a las que podemos acceder, las posibilidades de cambio en pro de la salud en edades tempranas, la existencia de personal cualificado para actuar como agentes de salud, la disponibilidad de recursos, etc. Como miembro de la comunidad escolar, el profesorado es responsables no sólo de transmitir contenidos conceptuales en relación a la salud sino también contenidos procedimentales y actitudinales. Además, somos agentes de salud que en cierto modo actuamos como modelos en pro de la salud.

BIBLIOGRAFÍA BACA, P.; LLODRA, J.; BRAVO, M. «Cuaderno de Prácticas. Odontología Preventiva y Communitaria». Universidad de Granada, 1997. CUENCA, E.; MANAU, C.; SERRA, L. «Odontología preventiva y comunitaria. Principios, métodos y aplicaciones». 2ª Ed., Masson, 1999. GIBNEY, M. Consumption of Sugars , Am. J. Clin. Nutr., 62, 178-194, 1995. KWAN, S.; ERIK, P.; PINE, C. Health-promoting schools: an opportunity for oral health promotion. Bulletin of World Health Organization, 83, 677-685, 2005. LALONDE, M. «A new perspective on the health of canadians», Office of the Canadian Minister of National Health and Welfare, 1974. 15

EL FLÚOR: APLICACIONES PREVENTIVAS Y TERAPÉUTICAS Mª Isabel López Molina y Miguel Hernández López Los venenos que en grandes dosis son mortales, en dosis más pequeñas tienden a inhibir y en dosis más pequeñas aún a estimular a esas mismas células. Arndt-Schultz.

1. INTRODUCCIÓN.

personal o profesional, etc. con una finalidad preventiva y terapéutica, tanto a nivel individual como comunitario. Se considera que el uso de los fluoruros a gran escala es el principal factor que ha influido en la reducción de la prevalencia y gravedad de la caries.

El flúor es un elemento químico ampliamente distribuido por la naturaleza. Sus efectos sobre la salud oral fueron descritos a principios del siglo XX al relacionarse las altas concentraciones de flúor en el agua de bebida y las manchas en el esmalte (fluorosis dental). En 1901 F. Mckay (Cuenca, 1999), dentista del Estado de Colorado, observó que gran número de sus pacientes presentaban manchas opacas en sus dientes, conocidas en el lugar como «manchas marrón de Colorado». Su espíritu investigador le llevó a estudiar otras zonas donde también se producían casos del «esmalte moteado» y llegó a la conclusión de que estaba en relación con el agua de bebida y que éstos sujetos presentaban menos caries. H.T. Dean, dentista de los Servicios de Salud Pública en Estados Unidos, en 1933 realizó una serie de estudios epidemiológicos y estableció una relación dosis-respuesta, aún vigente, clasificando la fluorosis según su gravedad (Dean, 1934). La investigación epidemiológica posterior demostró que a bajas dosis en el agua de bebida (1 ppm o 1 mg/l) el flúor tenía una acción beneficiosa sobre la salud oral, en concreto disminuye la prevalencia de caries. En los niños estos efectos se observan en, aproximadamente, 2 años, mientras que en los adultos son menos evidentes y más retardados, pero también útiles.

2. PROPIEDADES Y DISTRIBUCIÓN DEL FLÚOR. El flúor (F) es un elemento químico del grupo de los halógenos. Fue aislado por Moisson en 1886. Se caracteriza por tener el aspecto de un gas amarillo en estado puro, con un punto de fusión de -223 º C y un punto de ebullición de -187 ºC; su electroafinidad es de -90 kcal/mol y su energía de enlace de 38 kcal/ mol. Estas propiedades determinan su alta afinidad para combinarse con otros elementos. Además, presenta una alta solubilidad en agua. Se presenta en forma de fluoruro cálcico (CaF2), fluorita, aunque también se encuentra con frecuencia en forma de fluoropatita [Ca10(PO4)6 F2] o criolita (Na3AlF6). Es un oxidante muy potente reaccionando fuertemente con los metales. Su fuerte electronegatividad hace que las uniones covalentes con el flúor tengan altas energías de enlace combinándose también con los no metales. En la naturaleza el flúor es un elemento abundante aunque su distribución en la corteza terrestre no es homogénea. Se encuentra en minerales, sobre todo de origen volcánico. En el agua del mar se encuentra en concentraciones constantes (0,8-1,4 ppm) mientras que en el agua de manantiales su concentración es variable. En el agua de bebida su concentración también es variable, las aguas potables de suministro presentan con frecuencia una concentración inferior a 0,5 ppm y existen aguas minerales envasadas con concentraciones de flúor de 10 ppm . En la atmósfera, el aire normal no contiene fluoruros, pero puede aparecer por erupciones volcánicas o por contaminación industrial. El flúor contenido en los alimentos (OMS, 1972) varía según las características del suelo, agua y aire. Algunos vegetales contienen una cantidad significativa de flúor como el té (175 ppm sobre su peso neto en materia seca), tomate (41 ppm), judias (21 ppm), lentejas (18

El flúor frena la desmineralización de la superficie del esmalte y acelera la remineralización de las pequeñas lesiones incipientes de caries. Además actúa sobre las bacterias de la placa dental interfiriendo su metabolismo y a altas dosis es bactericida. La acción frente a la caries depende más de la exposición diaria al flúor en la cavidad oral, de origen tópico o sistemático, que de la presencia de flúor unido de forma permanente al esmalte. Los posibles efectos tóxicos e indeseables del flúor no deben enmascarar sus efectos beneficiosos sobre la salud oral. La dosis tóxica es muy superior a la dosis terapéutica por lo que se puede utilizar con un amplio margen de seguridad. El uso correcto del flúor está ampliamente desarrollado en cuanto a dosis, presentación, vía sistémica o tópica, aplicación 16

ppm), cerezas (6 ppm), espinacas (3,8 ppm), etc. En los alimentos de origen animal su concentración depende del tipo de dieta y del contenido en flúor del agua de bebida. Destacamos el hígado de vaca (5,5 ppm), riñón de vaca (2,5 ppm), carne de pollo, ternera y cordero (1 ppm). En relación a los pescados, la mayor cantidad de flúor se localiza en el cartílago y en la piel que no se suelen consumir; destacan la sardina y la caballa (15-25 ppm), salmón y bacalao (5-7 ppm). En nuestro organismo el oligoelemento flúor ocupa el decimotercer lugar en orden de abundancia y su consumo procede de los alimentos (25%), del agua y de otras bebidas.

actuación en caso de intoxicación accidental es fundamental. Los fluoruros contenidos en los alimentos se absorben dependiendo de la solubilidad de los fluoruros inorgánicos, de la presencia de elementos con capacidad para combinarse con el flúor (calcio), o bien de la presencia de sustancias con capacidad de neutralizar la acidez gástrica. La absorción de los fluoruros del agua de bebida es casi total (86-97 %) y la cantidad de iones flúor unidos al calcio o al magnesio resulta prácticamente despreciable en aguas cuando la concentración es óptima (1 ppm de F-). No existen diferencias entre el agua corriente, las aguas minerales o los vinos. La leche fluorada artificialmente permite la absorción del flúor pero más lentamente que el agua debido a la gran cantidad de calcio que contiene y el aumento de pH gástrico que produce. En la leche materna la concentración de flúor es pequeña (0,0060,012 ppm), aunque la madre ingiera compuestos fluorados. La cantidad de flúor ingerida cuando los niños son alimentados con leche en polvo diluida con agua fluorada es 150 veces superior a la de los niños con lactancia materna. El té contiene una cantidad importante de fluoruros que varía según el tipo de té y que está en torno a los 150 ppm en peso seco del producto y alrededor de 1 ppm al preparar la infusión. La absorción del fluoruro del té se realiza con mayor dificultad que en el agua. La sal fluorada presenta una absorción de fluoruro más reducida que el agua, sobre todo en relación con la ingesta simultánea de alimentos ricos en calcio. Los comprimidos fluorados utilizados en la prevención de la caries contienen 0,5-1 mg de ion flúor en forma de fluoruro sódico y su absorción es casi completa dependiendo de la composición de la dieta. Si se toma entre horas la absorción es tan completa como el fluoruro ingerido en el agua. El flúor contenido en los dentífricos se absorbe bien por lo que hay que vigilar su posible ingestión en niños menores de 6 años. También para evitar accidentes hay que asegurar que el paciente controla bien la deglución cuando se aplican geles de fluorofosfato (12.300 ppm). Los barnices también contienen una alta concentración de flúor pero, al aplicarse menos cantidad, la parte tragada con la saliva sólo aumenta la concentración en plasma levemente.

3. METABOLISMO. La incorporación del flúor en nuestro organismo se realiza fundamentalmente por la ingestión de alimentos, dando lugar a acumulación en el plasma sanguíneo, a partir del cual se distribuye por los tejidos orgánicos y se elimina (Fig. 1). La absorción del flúor se realiza fundamentalmente por vía digestiva aunque también se puede absorber por vía pulmonar en situaciones poco frecuentes como erupciones volcánicas, vertidos industriales, gases anestésicos, etc. El flúor llega a nuestro organismo fundamentalmente en forma de fluoruros inorgánicos cuya solubilidad no es uniforme. Algunos son solubles como fluoruro sódico, el ácido fluorhídrico, el ácido fluorosilícico o el monofluorofosfato, que se absorben en un 90% (Ekstrand, 1996), y otros son insolubles o tienen menos solubilidad como el fluoruro cálcico, el fluoruro magnésico o el fluoruro de aluminio. En función de su solubilidad, éstos compuestos liberan iones de flúor. En relación con la salud, sólo la absorción de flúor en forma iónica tiene efectos biológicos importantes por lo que, desde el punto de vista de la salud pública, nos interesan los fluoruros inorgánicos solubles. La absorción se realiza por un mecanismo pasivo tanto en el estómago como en el intestino delgado. La acidez gástrica (presencia de iones H+) facilita dicha absorción ya que el flúor en forma iónica (F-) en el estómago se une con los iones hidrógeno (H+) y se convierte en ácido fluorhídrico (HF), una molécula sin carga que atraviesa fácilmente las membranas biológicas como la mucosa gástrica. La absorción de flúor a partir de formas solubles se produce de forma regular y rápida a los pocos minutos, y su concentración máxima en plasma se produce a los 30 minutos, por ello la rapidez de

En la distribución del flúor en el organismo el plasma sanguíneo es el elemento fundamental. En el plasma el flúor se presenta bajo dos formas, el fluoruro iónico (fluoruro inorgánico o libre), que es el 17

que tiene importancia en odontología, y el fluoruro no iónico (ligado a la albúmina). El flúor se distribuye por el organismo en función de la perfusión sanguínea. En general, la concentración de flúor es baja en los tejidos blandos, tejido adiposo y cerebro y es alta en el riñón. Los tejidos calcificados (huesos y dientes) poseen el 99% del contenido total de flúor en el organismo. El flúor en forma de fluorapatita o fluorhidroxiapatita, se incorpora al tejido óseo en formación o remodelación. Los tejidos dentales también muestran en su desarrollo una alta afinidad en la captación de fluoruros aunque no existe remodelación y los cambios metabólicos que se producen en su estructura después de la erupción son escasos. La concentración de flúor en el esmalte es más importante en la superficie del diente y está más relacionada con el aporte del flúor a lo largo de la vida y de factores externos como la abrasión o la desmineralización que con el flúor incorporado en el periodo preeruptivo de formación y mineralización dental. El fluoruro se excreta fundamentalmente por la orina y además por la piel descamada, el sudor y las heces. También en pequeñas cantidades por la leche, la saliva, el cabello y las lágrimas. 4. ACCIÓN ORGANISMO.

DEL

FLÚOR

EN

El flúor actúa en estos procesos mediante una acción pre o posteruptiva (Echeverría, 1995). La acción preeruptiva, que incorpora el flúor a la estructura del esmalte, se debe al flúor procedente de los alimentos y al administrado por vía sistémica (agua fluorada, tabletas) mientras se produce la calcificación de los dientes (antes de los 13 años), aunque también pueden actuar algunas formas tópicas de flúor, como los dentífricos o los colutorios. El flúor absorbido se difunde por el líquido extracelular y baña el esmalte en desarrollo facilitando la formación de fluorhidroxiapatita (FHAP) y fluorapatita (FAP) por la sustitución de uno o dos iones OH- de la molécula de hidroxiapatita (HAP). La fluoropatita es más resistente a la disolución por los ácidos. El flúor, durante el periodo de formación y maduración del esmalte, mejora su cristalinidad y resistencia a la disolución, disminuyendo la proporción de cristales con impurezas, las formas inmaduras de apatita y el contenido en carbonato, elementos que aumentan la porosidad y la solubilidad del esmalte a los ácidos. Pero, la acción preeruptiva no es suficiente para explicar el beneficio clínico del flúor. La acción posteruptiva del flúor ha adquirido una gran importancia en los últimos años por reducir la caries. Este efecto se relaciona principalmente con la aplicación tópica del flúor (dentífricos, geles, barnices y colutorios), aunque también con el uso sistémico (agua fluorada). Cuando el diente es expuesto a altas concentraciones de flúor (1.000 ppm o más) se produce una precipitación de los iones de calcio que se encuentran en la superficie dando lugar a la formación de un compuesto insoluble, el fluoruro cálcico, que se acumula sobre la placa bacteriana, en concentraciones de 5-50 ppm, quedando disponible para actuar sobre la superficie del diente. El mecanismo cariostático posteruptivo se produce por la inhibición de los sistemas enzimáticos bacterianos de la placa, por la inhibición del almacenamiento de polisacáridos intracelulares, por la toxicidad directa sobre las bacterias y la reducción de la absorción de proteínas por el esmalte. El flúor actúa sobre los procesos de desmineralización y remineralización producidos en la superficie del esmalte. El flúor inhibe el proceso de desmineralización, frena la velocidad de progresión de las lesiones experimentales de caries y modifica su aspecto histológico aumentando el espesor de la lámina superficial y además, acelera el proceso de remineralización catalizando las reacciones de precipitación de los iones calcio y fosfato. En relación a la remineralización, diferenciamos entre su efecto a altas dosis (más de 1.000 ppm) y en cortos periodos de tiempo, que provoca la precipitación brusca de FAP

EL

La caries destruye la estructura del diente e inicialmente afecta a la superficie o esmalte del diente, aunque posteriormente se puede afectar también la dentina o el cemento. El esmalte está compuesto por una serie de cristales prismáticos constituidos principalmente de hidroxiapatita [Ca10 (PO4)6(OH)2] y componentes menores como sodio, carbonato, flúor, zinc, plomo, cloro, magnesio, estroncio y cobre. Aunque el esmalte tiene una alta densidad y un aspecto compacto es microporoso, tanto entre los prismas como en los propios prismas y cuando es atacado por los ácidos se produce la desmineralización y aumenta la porosidad. En la superficie del esmalte se produce de forma cotidiana reacciones de desmineralización y remineralización, iniciándose la caries con sus primeras manifestaciones (mancha blanca) sólo cuando la fase de desmineralización se prolonga y de forma reiterada debido a la concurrencia de factores de riesgo (acumulo de placa, ingesta frecuente de hidratos de carbono) o por fallo en los mecanismos de defensa (disminución del flujo de saliva o de su capacidad tampón ). 18

y FHAP en la superficie de las lesiones iniciales del esmalte (mancha blanca), dificultándose la difusión del flúor y remineralización de las zonas más internas, y el efecto a bajas dosis (1 ppm) y de forma continua, en el que no se produce precipitación en superficie y los iones flúor difunden para precipitar como FAP o FHAP, aumentando el contenido mineral en la lesión y reparando desde la profundidad a la superficie lentamente. Todos estos datos nos permiten afirmar que los mejores beneficios del flúor en la prevención de la caries oral se obtienen mediante su utilización diaria y a concentraciones no elevadas (dentífricos, colutorios, efecto tópico del agua fluorada) que permiten crear y mantener niveles moderados de flúor libre en el fluido de la placa. El flúor también actúa sobre la placa bacteriana: disminuye la producción de ácido por los microorganismos, reduce la fermentación, el crecimiento y la multiplicación bacteriana e incluso produce la muerte bacteriana. Estos efectos requieren diferentes niveles de flúor. Parece ser que con el tiempo se desarrolla una resistencia a la acción del flúor por parte de las bacterias.

La dosis letal para adultos está establecida en 32-36 mg F-/kg y para niños en 15 mg F-/kg de peso. La dosis tóxica probable (DTP) es la dosis a partir de la cual hay que realizar un tratamiento de urgencia. En niños menores de 6 años la DTP es de 0,5 mg F-/ kg de peso corporal. La DTP para los productos utilizados en Odontología es variable. Para los dentífricos con una concentración de F- de 1.000 ppm la DTP es de 50 g de dentífrico para un niño de 1 año y de 100 g para un niño de 6 años. Los preparados con (dentífricos, colutorios, geles, tabletas) deben guardarse fuera del alcance de los niños y no utilizarlos en niños pequeños sin la supervisión de un adulto; los geles de fluorofosfato acidulado (FAP) están contraindicados en menores de 6 años ya que la DTP es tan sólo de 8 ml. El tratamiento de la intoxicación depende de la cantidad y la forma de preparación ingerida. Se debe provocar el vómito, administrar leche o antiácidos para retardar la absorción y enviar a un centro hospitalario (lavado de estómago, gluconato cálcico,etc.). Toxicidad crónica. La intoxicación crónica se produce por la ingestión de flúor en cantidades excesivas y durante un tiempo prolongado y se manifiesta fundamentalmente por fluorosis dental y por fluorosis esquelética cuando las dosis son mayores (Dean, 1934). La fluorosis dental se asocia al consumo excesivo y prolongado de flúor en el agua de bebida (más de 2 ppm), coincidiendo con el periodo de formación de los dientes. Clínicamente se caracteriza por una hipoplasia, con hipocalcificación de los dientes, cuya intensidad depende de la concentración de flúor ingerida y del tiempo de exposición, manifestándose por manchas opacas blancas, manchas marrones, estrías, fisuras, y corrosión del esmalte. (Tabla 1).

5. EFECTOS TÓXICOS DEL FLÚOR. Diferenciamos entre toxicidad aguda y toxicidad crónica en relación a la dosis y al tiempo de exposición (Ekstrand, 1996). Toxicidad aguda. Los primeros datos sobre la toxicidad del flúor se obtuvieron en relación a su uso como insecticida. También hay casos de toxicidad aguda por intentos de suicidio o por intoxicación accidental en niños. Los preparados de uso odontológico a las dosis recomendadas para cada edad carecen de efectos tóxicos pero la ingestión de altas cantidades puede ocasionar efectos de gravedad variable. A dosis bajas (dentro de los límites tolerables) provoca náuseas, vómitos, hipersalivación, dolor abdominal y diarrea (por formación en el estómago de ácido fluorhídrico con efecto irritante local). A dosis altas provoca convulsiones, arritmia cardíaca, estado comatoso, parálisis respiratoria y muerte (debido a la acidosis sistémica, hipocalcemia e hiperpotasemia). Los estudios de los casos en los que se ha producido la muerte han demostrado la existencia de múltiples factores como la capacidad de vomitar, la ingestión previa de alimentos neutralizantes, el tipo de compuesto fluorado, la respuesta metabólica individual, etc., que justifican las diferencias en cuanto a la dosis letal.

La fluorosis dental grave actualmente es rara, aunque pueden aparecer pequeñas manchas blanquecinas con sólo leves repercusiones estéticas incluso con dosis óptimas de floración del agua (0,81,2 ppm). Como la calcificación de los incisivos permanentes se produce desde el nacimiento hasta los 5 años y estos dientes son los que más repercusión estética pueden tener, se recomienda extremar las medidas en este periodo. La utilización de flúor tópico no produce fluorosis cuando actúa sobre dientes erupcionados. La fluorosis esquelética u osteofluorosis actualmente es muy rara, está limitada a zonas con altas concentraciones de flúor en el agua de bebida y 19

En España, las primeras experiencias de fluoración artificial se realizaron en 1980 en Benalmádena (Málaga) y en El Pedroso (Sevilla). Actualmente hay 4.245.000 personas (10,6% de la población) que se benefician de ella, con 6 Comunidades autónomas que tienen legislación específica en materia de fluoración (Andalucía, Extremadura, Cantabria, Galicia, Murcia y País Vasco) aunque las comunidades que la llevan a la práctica son Andalucía, Cataluña, Extremadura y País Vasco. En esta última es en la que se ha desarrollado más (el 80% de la población dispone de agua fluorada). En Andalucia dos millones de personas disponen de este servicio en las provincias de Sevilla, Córdoba y Jaén. Los municipios con agua fluorada natural son escasos y las aguas de bebida envasadas tienen una concentración de flúor muy diferente entre ellas (0,38 ppm). La fluoración del agua de abastecimiento público es segura, efectiva y equitativa, ya que beneficia a personas de distinta edad, nivel social, etc. La relación coste-efectividad también es muy buena. Es la medida de elección en poblaciones con alta prevalencia e incidencia de caries, incluso asumiendo el riesgo de cierta fluorosis.

se caracteriza por una hipermineralización de los huesos, exostosis y calcificación de los ligamentos y del cartílago que pueden llegar a la deformidad ósea en los casos más graves. 6. MÉTODOS DE APLICACIÓN DEL FLÚOR. Los métodos de aplicación del flúor (Jones, 2005) se deben adaptar a las necesidades individuales o colectivas en cuanto a las dosis y los vehículos en función del riesgo y la actividad de la caries, de su nivel socioeconómico, posibilidad de acceso a los servicios dentales, etc. En general, los podemos clasificar en (Ellwood, 2003): FLÚOR EN PROGRAMAS COMUNITARIOS Fluoración del agua de bebida. Fluoración de la sal. Fluoración de la leche. MÉTODOS DE AUTOAPLICACIÓN DE FLÚOR. Suplementos de flúor. Dentífricos fluorados. Geles de autoaplicación. Colutorios fluorados. FLÚOR DE APLICACIÓN PROFESIONAL. Geles de flúor. Barnices de flúor. Dispositivos de liberación lenta de flúor. Soluciones fluoradas. Pastas de profilaxis fluoradas.

Fluoración de la sal. La fluoración de la sal se inició en Suiza en 1950 y actualmente está disponible en diversos países como Francia, Alemania, países de América Latina, etc. En España, la sal fluorada con yodo está comercializada desde 1988 a una concentración de 150 mg/kg, aunque su consumo no está muy extendido. La dosis recomendada es 250 mg/kg. La efectividad frente a la caries es semejante a la obtenida por el agua fluorada. Como ventajas citamos el que se libera en pequeñas cantidades con las comidas, no requiere modificación de las costumbres personales, no requiere una red de abastecimiento, permite elegir, etc. Entre los inconvenientes destacamos el riesgo que supone el exceso de sal para las enfermedades cardiovasculares.

Métodos de aplicación del flúor según Ellwood y Fejerskov

6.1. FLÚOR EN PROGRAMAS COMUNITARIOS. Fluoración del agua de bebida. La concentración óptima de flúor en el agua de bebida es de 0,7-1,5 ppm (R.D. 140/2003). Los compuestos más utilizados para la fluoración son las sales de fluoruros inorgánicos solubles como el fluoruro de sodio o el ácido hidrofluorosilícico. Como ventajas no necesita de la participación activa de las personas y como desventajas el que no es posible su elección y que puede dar lugar a fluorosis. Actualmente 317 millones de personas de 39 países (Estados Unidos, Canadá, Australia, etc.) utilizan la fluoración artificial de su agua de bebida y 40 millones tienen fluorada el agua de forma natural.

Fluoración de la leche. La fluoración de la leche consiste en añadir 5 mg de flúor por litro de leche en forma de sal de monofluorofosfato para hacerla biocompatible con el calcio de la leche y biodisponible intestinalmente. Se utiliza en el Este de Europa, Reino Unido, China y Sudamérica en programas en escolares. En España se encuentra leche con un contenido en flúor de 1 mg/l. Algunos estudios realizados a corto plazo han demostrado su efectividad. Como ventajas, se puede 20

elegir el consumir leche con o sin flúor. Como inconvenientes, la dificultad de distribución y su consumo variable.

compatibles (sílice o carbonato cálcico) y detergentes (laurilsulfato de sodio). Actualmente algunos también contienen extractos de hierbas, enzimas y agentes antimicrobianos como el triclosan, agentes anticálculo y aditivos blanqueadores. Hay pocas diferencias clínicas en la efectividad de los distintos compuestos. Los dentífricos fluorados son los responsables de la disminución de la caries en los países desarrollados en las últimas décadas. Se recomiendan utilizar las pastas al menos dos veces al día, con una concentración de 1.000 ppm de flúor, aunque también se pueden utilizar las que contienen 1.500 ppm, y enjuagarse con poca cantidad de agua y brevemente para retener más tiempo el flúor, o no enjuagarse. En niños menores de 6 años se recomienda usar pastas con baja concentración de flúor (500-1.000 ppm), en pequeña cantidad (0,25 g, es decir del tamaño de un guisante), con un sabor no atractivo, enjuagarse con agua vigorosamente y escupirlo, siempre bajo la supervisión de los padres. Además, los profesionales deben conocer la concentración de flúor en el agua de bebida y otras posibles fuentes de flúor. En adultos con alto riesgo de caries, con flujo salival disminuido o con recesión gingival, o con caries radicular, se recomiendan dentífricos con alta concentración de flúor (5.000 ppm). En adultos con recesión gingival, hipersensibilidad y alto riesgo de caries se recomienda fluoruro de estaño al 0,4% (970 ppm) que actúa además como antibacteriano y reduce la sensibilidad al bloquear los túbulos dentinarios. Como incoveniente, puede producir tinción de los dientes. Geles de autoaplicación. Son geles de fluorofosfato acidulado (FPA) o de NaF al 0,5% (5.000 ppm) que se aplican en cubetas preformadas o con el cepillo de dientes. Se utilizan en pacientes con alto riesgo de caries. Presenta como inconveniente la falta de cumplimiento por parte del paciente. Colutorios fluorados. Utilizan NaF en concentraciones de 0,05% (230 ppm de flúor) para uso individual diario en personas con alto riesgo de caries y de 0,2% (920 ppm de flúor) para uso en programas de escolares o individual en personas con moderado riesgo de caries. Consiste en realizar enjuagues durante 1 minuto, escupirlo y no comer ni beber durante 30 minutos. En los programas escolares el maestro es el encargado de dispensarlo y no está indicado en niños menores de 6 años por el peligro de ingesta. Su uso se inicio en 1960 en los países escandinavos en escuelas de zonas con bajas concentraciones de flúor en el agua de bebida y posteriormente en Estados Unidos. Es un método

6.2. MÉTODOS DE AUTOAPLICACIÓN DE FLÚOR. Los métodos de autoaplicación son prescritos por el profesional (vehículo, concentración, forma de aplicación) aunque son realizados por el propio individuo que es responsable de utilizarlos adecuadamente. Los dentífricos fluorados son los únicos que pueden utilizarse sin la indicación de los profesionales. Suplementos de flúor. Los suplementos fluorados se prescriben en niños y jóvenes entre 6 meses y 16 años teniendo en cuenta la concentración de flúor en el agua, las características dietéticas individuales en relación a alimentos ricos en flúor y el riesgo individual. Las formas de administración son gotas o comprimidos masticables con objeto de que permanezcan en la boca el mayor tiempo. Aunque los suplementos fluorados se idearon para aquellas personas que no tenían acceso al agua fluorada, hay diferencias entre ambos métodos como que los suplementos fluorados requieren una alta motivación para ingerirlos durante un largo periodo de tiempo (6 meses-16 años), su efecto es menor al tomarse sólo una vez al día y únicamente se recomienda en personas con alto riesgo de caries. Dentífricos fluorados. Los dentífricos fluorados son el medio más utilizado para prevenir la caries dental en el mundo y combina la higiene oral con el uso de flúor. La incorporación de flúor a los dentífricos se inició en 1945 pero no tuvo éxito hasta 1965 cuando se fabricó con fluoruro sódico al 0,2% y con un abrasivo inerte a base de bicarbonato sódico. Con posterioridad se han desarrollado sistemas abrasivos compatibles con los compuestos de flúor, ya que del abrasivo depende la cantidad de flúor soluble o activo disponible para reaccionar con el esmalte dental. Los dentífricos fluorados contienen concentraciones de flúor entre 250-5.000 ppm (se clasifican en dentífricos de baja concentración, con menos de 1.000 ppm, y de alta concentración por encima de esos valores) y aumentan la concentración de flúor en la saliva entre 100 y 1.000 veces y vuelven a los niveles basales en 1-2 horas. La fórmula de un dentífrico fluorado consta de fluoruro sódico (NaF), monofluorofosfato sódico (MFP), o la combinación de ambos, así como fluoruro de aminas. Además contienen edulcorantes, abrasivos 21

efectivo, seguro, barato, fácil de realizar y bien aceptado.

7. USO EFICAZ DE FLUORUROS EN LA SALUD PÚBLICA. La caries es un problemas de salud pública en los países en desarrollo y en las poblaciones desfavorecidas de los países desarrolladas. A lo largo de la historia se han utilizado diferentes estrategias de control de la caries en las que el flúor ha sido el protagonista. Las primeras actividades de investigación y desarrollo, a principios del siglo XX, se basaron en el uso de fluoruros en el agua de bebida natural o añadidos artificialmente y su relación con la prevención de la caries y con la aparición de fluorosis dental. En la segunda mitad del siglo XX las investigaciones se centraron en los dentífricos y los colutorios fluorados. Actualmente se siguen realizando revisiones sistemáticas con la ventaja de la informatización y el acceso a amplias bases de datos, reafirmándose la fluoración del agua y los dentifricos fluorados como elementos básicos para la reducción de la caries dental. Numerosos estudios se están realizando actualmente en el mundo que ilustran el uso moderno de los fluoruros en salud pública. Un ejemplo de ellos son los siguientes estudios: «Sistemas recientes de fluoración del agua en Califormia», «Fluoración de la sal en Jamaica», «Fluoración de la leche en Chile», «Desarrollo de dentífricos fluorados asequibles en Indonesia». Además, las líneas de investigación están abiertas, así si en el siglo XX se han desarrollado estudios para demostrar la eficacia de los dentífricos fluorados, actualmente existen investigaciones que pretenden comparar las eficacia de las distintas presentaciones del flúor, la concentración óptima de flúor, los compuestos agregados con otros fines o potenciadores de los efectos anticaries (triclosan, xilitol, etc.). En salud pública existe una preocupación por disminuir las exigencias en el uso de los fluoruros y de disminuir los costos con objeto de hacerlos extensivos al mayor número de individuos y familias. En el Boletín de la Organización Mundial de la Salud (Jones, 2005) se recomienda que en cada comunidad se utilice sólo un tipo de fluoración sistémica (es decir, del agua, la sal o la leche), combinándola con el uso de dentífricos fluorados, y que se vigile la prevalencia de fluorosis dental.

6.3. FLÚOR DE APLICACIÓN PROFESIONAL. Están indicados en pacientes con alto y moderado riesgo de caries, se usan con baja frecuencia y a altas concentraciones. Geles de flúor. Se utilizan desde 1970 y se aplican mediante una cubeta durante 4 minutos, posteriormente se escupe. El paciente no debe ingerir líquidos ni alimentos durante 30 minutos. Los geles no son auténticos geles sino soles viscosos que, bajo presión, se fluidifican, mientras que en la cubeta están viscosos. Están indicados tanto en adultos como en niños (mayores de 6 años) con riesgo moderado o alto de caries. Barnices de flúor. Son una forma de aplicar flúor a alta concentración en una resina o base sintética. Al aplicarse en la superficie del diente mediante un pincel o torunda prolongan el contacto con el esmalte reduciendo la pérdida de fluoruro soluble. Es la forma de aplicación profesional de fluoruros más efectiva frente a la caries. Están indicados en pacientes con moderado o alto riesgo de caries y a cualquier edad. Como inconveniente su precio. Soluciones fluoradas. Actualmente apenas se utilizan. Pastas de profilaxis fluoradas. Se utilizan para pulir las superficies dentarias y radiculares de los dientes y no se deben utilizar como prevención por el desgaste del esmalte que producen. Dispositivos de liberación lenta de flúor. No están disponibles en España, permiten mantener niveles cariostáticos durante un largo periodo de tiempo, son baratos, seguros y fáciles de aplicar. Destacamos las membranas de copolímeros y los dispositivos de vidrio que liberan flúor. 22

BIBLIOGRAFÍA

JONES, S.; BURT, B. The effective use of fluorides in public health. World Health Organization. Bulletin. 83, 670-676, 2005. OMS; «Fluoruros y salud». Monografía 59, OMS, 1972. PIÉDROLA GIL, G., «Medicina Preventiva y Salud Pública», 10ª Ed., Masson, 2002. REAL DECRETO 140/2003, Criterios sanitarios de la calidad del agua de consumo humano, Ministerio de la Presidencia, BOE, 7228-7245, 2003.

CUENCA, E.; MANAU, C.; SERRA, L., I. «Odontología preventiva y comunitaria. Principios, métodos y aplicaciones», 2ª Ed., Masson, 1999. DEAN, H. Classification of mottled enamel diagnosis, JADA, 21, 1421-6, 1934. ECHEVERRIA, J. ; CUENCA, E. «El manual de Odontología», Masson, 1995. ELLWOOD, R.; FEJERSKOV, O. «Dental caries. The disease and its clinical management», Blackwell, 2003. EKSTRAND, J.; WHITFORD, G. «Fluoride in Dentistry», Munksgaard, 1996.

Mª Isabel López Molina. Profesora del I.E.S. «Santa Bárbara». Málaga. Miguel Hernández López. Profesor Universidad de Málaga.

23

EL BUENO Y EL MALO Juan Carlos Codina Escobar

Uno de los parámetros que más nos preocupa cuando nos hacen un análisis de sangre, aparte del nivel de glucosa, es el contenido de colesterol. El colesterol es un lípido, en concreto un esteroide, presente en el torrente sanguíneo y en las membranas celulares de todas las células del organismo. Esta es quizás su principal función, una función estructural en la formación de membranas celulares; pero también lleva a cabo funciones reguladoras ya que, por ejemplo, muchas hormonas son sintetizadas a partir de él. No obstante, una hipercolesterolemia, o sea, un elevado nivel de colesterol en sangre es uno de los mayores factores de riesgo de sufrir una enfermedad cardiovascular. Un factor de riesgo es una condición que incrementa las posibilidades de padecer una enfermedad. El colesterol, al igual que otros lípidos, no puede disolverse en la sangre. Por este motivo ha de ser transportado hacia y desde las células por transportadores especiales denominados lipoproteínas. Existen varias clases de lipoproteínas pero las que presentan interés en este caso particular son las lipoproteínas de baja densidad (LDL) y las lipoproteínas de alta densidad (HDL), las que, cuando se unen y transportan al colesterol, se denominan en términos coloquiales como colesterol malo y bueno, respectivamente. Las lipoproteínas de baja densidad constituyen el principal transportador de colesterol en sangre. Si su nivel en la sangre circulante es demasiado alto puede, junto con otras sustancias, formar un depósito duro y espeso en forma de placas en las paredes de las arterias, principalmente de aquéllas que suministran nutrientes y oxígeno al cerebro y al corazón. Esta situación recibe el nombre de ateroesclerosis y caso de que se formase un trombo cerca de estas placas, podría bloquear el flujo sanguíneo al músculo cardiaco y por tanto dar lugar a un ataque al corazón; o si se tratase del cerebro una trombosis cerebral. Este es el motivo por el que el LDL-colesterol recibe la denominación de colesterol malo. De otro lado, de un tercio a un cuarto del colesterol sanguíneo es transportado por las lipoproteínas de alta densidad. Muchos expertos en medicina creen que estas lipoproteínas tienden a

transportar el exceso de colesterol desde las arterias al hígado, desde donde es eliminado. Incluso se cree que son capaces de eliminar el exceso de colesterol de las propias placas o ateromas y, por tanto, disminuir su velocidad de crecimiento. No es pues de extrañar que, contrariamente al LDL-colesterol, el HDLcolesterol reciba la denominación de colesterol bueno [AHA, 2005]. Obtenemos colesterol de dos formas diferentes. Por un lado, el propio organismo, principalmente el hígado, produce una cantidad variable de colesterol; usualmente 1000 mg/día. La otra fuente de colesterol nos la proporciona la dieta. Los alimentos de origen animal, especialmente huevos, carnes, pescado, marisco y leche entera lo contienen en proporciones variables. Por contra, los alimentos de origen vegetal como frutas, verduras, granos y semillas no proporcionan colesterol. De manera general, el organismo sintetiza todo el colesterol que precisa. De esta forma, pues, no necesitaríamos consumir más cantidad de colesterol. Algo del exceso del colesterol que ingerimos en nuestra dieta es eliminado del organismo a través del hígado. En cualquier caso resulta, por tanto, claro que el colesterol ingerido con la dieta, junto con los ácidos grasos trans y saturados, son los responsables de un elevado nivel de colesterol en sangre. Como se ha indicado anteriormente, cuando hay un exceso de colesterol, éste tiende a acumularse en las paredes de las arterias provocando su endurecimiento y estrechamiento. Esto ocasiona un enlentecimiento en el flujo sanguíneo de la zona afectada. Si las arterias afectadas son las que irrigan el corazón y no puede pasar la suficiente sangre con el oxígeno que transporta, se puede producir una angina de pecho. Si el suministro sanguíneo a una zona del corazón resulta completamente bloqueado, el resultado será un infarto. Un nivel alto de colesterol en sangre por sí mismo no ocasiona síntomas visibles, de manera que mucha gente es inconsciente de que su nivel de colesterol es alto. Por todo ello, es aconsejable la realización de análisis de colesterol en sangre de forma periódica a partir de los 20 años de edad. Aunque en realidad el análisis más 24

recomendable es el denominado perfil de lipoproteínas. Este análisis sanguíneo proporciona resultados después de 9 a 12 horas, un tiempo relativamente corto. En concreto proporciona los niveles de:

·

· · ·

·

·

Colesterol total. LDL-colesterol («colesterol malo») que representa la principal fuente de formación de ateromas y el consecuente bloqueo en las arterias. HDL-colesterol («colesterol bueno») que ayuda a la recirculación del colesterol y, por tanto, previene la formación de placas en las arterias. Triglicéridos.

·

En cualquier caso, los datos necesarios son los referidos al colesterol total y al LDL-colesterol. En las dos tablas siguientes se indican los rangos de valores de colesterol total y de LDL-colesterol en sangre y su catalogación [HIH, 2001].

·

Generalmente, cuanto mayor es el nivel de LDL-colesterol y mayores factores de riesgo presenta un individuo, tanto mayor son las posibilidades de padecer una enfermedad coronaria o sufrir un ataque al corazón. Entre los factores de riesgo, además de los ya indicados, se pueden citar el tabaquismo, padecer diabetes, una elevada presión arterial (igual o superior a 140/90 mmHg), valores de HDL-colesterol inferiores a 40 mg/dL y un historial familiar de enfermedades coronarias. La reducción de los niveles de colesterol, fundamentalmente de los niveles de LDL-colesterol, es el principal objetivo en el tratamiento preventivo. Existen dos formas principales de reducir los niveles de colesterol:

Con respecto al HDL-colesterol, «el bueno», resulta obvio que, en general, cuanto mayor sea su nivel tanto mejor. Un nivel inferior a 40 mg/dL se considera bajo. Se recomienda tener valores superiores a 60 mg/dL. Por su parte, los triglicéridos también pueden incrementar el riesgo de padecer una enfermedad coronaria. Sus niveles deberían mantenerse por debajo de los 150 mg/dL y en caso de ser superiores requerirían un tratamiento especial en las personas afectadas. De cualquier manera, los niveles de colesterol se ven afectados por multitud de factores, algunos de los cuales pueden ser modificados por el individuo y otros no. Entre los cuales se pueden citar los siguientes: ·

El peso. Tener sobrepeso es un factor que incrementa el riesgo de padecer una enfermedad coronaria ya que también tiende a incrementar el nivel de colesterol. La actividad física. La realización de ejercicio físico de forma regular permite bajar los niveles de LDL-colesterol e incrementar los de HDL-colesterol. Indirectamente también ejerce un efecto beneficioso dado que permite la reducción de peso. Edad y sexo. Es el primero de los factores que el individuo no puede modificar. A medida que envejecemos, los niveles de colesterol aumentan. Hasta la edad de la menopausia la mujer, en general, presenta niveles de colesterol total inferiores a los de los hombres de su misma edad. Sin embargo, tras la menopausia, sus niveles de LDL-colesterol tienden a subir. La genética. Nuestros genes determinan la cantidad de colesterol que nuestro organismo sintetiza, de forma que altos niveles de colesterol en sangre pueden ser hereditarios [NIH, 2001].

1.- Cambios en el estilo de vida. Representa un conjunto de cosas que uno puede hacer para bajar sus niveles de colesterol e incluye aspectos como: ·

La dieta. Los ácidos grasos saturados y el colesterol que ingerimos con los alimentos hacen subir el nivel de colesterol sanguíneo. 25

Una dieta adecuada como la denominada por los norteamericanos dieta TLC, que consiste en una dieta con bajo contenido en ácidos grasos saturados y en colesterol; en concreto menos del 7% de calorías obtenidas a partir de los ácidos grasos saturados y un nivel de colesterol asimilado en dieta inferior a 200

·

·

mg/día. También se debe incrementar la cantidad de fibra soluble. Por ello sería conveniente incluir en la dieta alimentos como el pescado, la carne de ave sin piel, los cereales integrales, las frutas y las verduras. Y limitar el consumo de órganos animales como el hígado y las yemas de los huevos. Control del peso. Como se había indicado anteriormente, uno de los factores de riesgo es el de presentar sobrepeso. Así pues, perder peso en estos casos puede ayudar a disminuir los niveles de LDL-colesterol. Actividad física. Una actividad física regular (del orden de 30 minutos al día) es recomendable para cualquiera, pero en este caso permite aumentar los niveles de HDLcolesterol y bajar los de LDL-colesterol. Asimismo ayuda a controlar el peso, la diabetes y la hipertensión

por tanto, de su función. La HDL disfuncional se produce cuando una enzima de los glóbulos blancos, la mieloperoxidasa se une a la apoproteína A-1 y la modifica. Una vez producida esta modificación la apoA-1 bloquea la capacidad de la HDL de llevar a cabo sus funciones normales. Por tal motivo se encuentra bajo estudio un ensayo para identificar HDL disfuncional. Se ha descubierto un marcador químico para detectar la presencia de mieloperoxidasa unida a HDL modificada, de manera que la determinación de su nivel permitiría determinar qué individuos aun presentando altos niveles de HDL son susceptibles de padecer enfermedades cardiovasculares [Zheng y cols., 2004]. Como sucede en la vida misma, el malo siempre es malo, pero el bueno no siempre lo es. Permitiéndome un juego de palabras, lo bueno en este caso es adoptar un estilo de vida que no sea malo. BIBLIOGRAFÍA

2.- Tratamiento con fármacos. El tratamiento con medicamentos debería ir acompañado con cambios en el estilo de vida. Existe una gran variedad de fármacos para disminuir los niveles de colesterol, entre los cuales se encuentran las estatinas, los secuestradores de ácido biliar, el ácido nicotínico, los ácidos fíbricos y los inhibidores de absorción del colesterol. De ellos los más eficaces para reducir el nivel de colesterol en la mayoría de personas son las estatinas. Pero, de todas maneras, la situación con respecto al colesterol es más compleja de lo que parece. Por un lado, existe una variación genética de la LDL plasmática denominada Lp(a) cuyo nivel elevado supone un importante factor de riesgo para desarrollar de forma prematura ateroesclerosis. Todavía no está claro cómo la Lp(a) contribuye al desarrollo de enfermedades cardiovasculares. No obstante, las lesiones que se producen en las paredes arteriales producen sustancias que pueden interactuar con la Lp(a), dando lugar a la formación de ateromas. Por otro lado, y como se ha indicado anteriormente, se ha designado al HDL-colesterol como el «colesterol bueno»; pero no siempre éste protege contra la formación de ateromas en las arterias. Ello sucede en algunas personas que presentan unas lipoproteínas de alta densidad disfuncionales y, por tanto, incapaces de realizar de forma correcta su función. Esto explica el porqué personas con elevados niveles de HDLcolesterol pueden sufrir enfermedades cardiovasculares. Las lipoproteínas de alta densidad se encuentran formadas por proteínas y lípidos. La apoproteína A-1 (apoA-1) es el principal componente proteico de la HDL, responsable de su estructura y,

AMERICAN HEART ASSOCIATION (AHA) (2005). Colesterol. En: www.americanheart.org/ presenter,jhtml?identifier=4488. NATIONAL INSTITUTES OF HEALTH (NIH) (2001). High Blood Cholesterol: What you need to know. NIH Publication nº 05-3290. ZHENG, L.; NUKUNA, B.; BRENNAN, M.L.; MINGJIANG S.; GOORMASTIC, M.; SETTLE, M.; SCHMITT, D.; FU, X.; THOMSON, L.; FOX, P.L.; ISCHIROPOULOS, H.; SMITH, J.D.; KINTER, M. y S. L. HAZEN (2004). Apolipoprotein A-I is a selective target for myeloperoxidase-catalyzed oxidation and functional impairment in subjects with cardiovascular disease. J. Clin. Invest., 114: 529-541 Juan Carlos Codina Escobar Profesor de Biología-Geología I.E.S. Los Montes de Colmenar (Málaga)

26

RECICLAJE DE PILAS SALINAS POR VÍA HÚMEDA José Francisco Tejón Blanco

1. INTRODUCCION

en su interior, y entre ellos una pasta húmeda de dióxido de manganeso (despolarizante), negro de carbono y cloruro de amonio (electrolito). Entre el relleno y el recipiente de zinc hay un papel poroso que los separa e impide que haya reacción sin estar conectados los polos. Todo ello está envuelto en una funda de plástico que aísla e impide posibles cortocircuitos; algunas pilas tienen una cubierta de chapa metálica encima.

Una pila eléctrica es un dispositivo electroquímico que produce una corriente eléctrica continua en base a una reacción de oxidaciónreducción. Su funcionamiento, a grandes rasgos, consiste en la transferencia de electrones de un reductor a un oxidante, con la particularidad de que estos electrones se transportan a través de un conductor con objeto de hacerlos pasar por los sistemas eléctricos que se quieran hacer funcionar.

Las reacciones que ocurren dentro de una pila salina son las siguientes:

La variedad de pilas existente en el mercado hoy en día es enorme; no obstante, sólo nos centraremos en un tipo, que son las pilas salinas o pilas Leclanché, pues están muy extendidas en el mercado por su versatilidad y bajo precio. Este modelo de pilas fue desarrollado por el ingeniero

1. En el ánodo, el zinc metálico se oxida: Zn

Zn2+ + 2e-

2. En el cátodo, el dióxido de manganeso se reduce, formando el oxohidróxido de manganeso (III): 2MnO2 + 2H2O + 2e2OH-

2MnO(OH) +

3. En el electrolito, el cloruro amónico reacciona con los iones hidroxilo producidos en el cátodo para dar amoníaco. El ión zinc reaccionará con este amoniaco y con los iones cloruro presentes para dar un complejo aminado. De este modo, se evita que el amoníaco gas recubra los electrodos, lo que reduciría la fuerza electromotriz de la pila (polarización): NH4Cl + OH-

francés George Leclanché en 1866 y supuso una revolución al suministrar un potencial razonablemente constante de 1,5 voltios y no tener un electrolito líquido que dificultara su uso. Por esta razón, también se han denominado pilas secas.

NH3 + H2O + Cl-

Zn2+ + 2NH3 + 2Cl-

[ZnCl2(NH3)2]

La reacción global es: Zn + 2NH4Cl + 2MnO2 [ZnCl2(NH3)2] + + 2MnO(OH)

Una pila salina se compone de un recipiente de zinc, que actúa como ánodo (polo negativo); una barra de grafito que es el cátodo (polo positivo), situada 27

NECESIDAD DEL RECICLAJE DE PILAS

que las impurezas se oxidan y pueden retirarse en forma de escoria en la superficie del fundido. Obviamente, el método tiene ciertas variaciones según el tipo de pila que consideremos, pero a grandes rasgos tiene la misma base.

Las pilas salinas, a diferencia de otras como las de níquel-cadmio, níquel-hidruro, litio o ión litio, no son recargables, por lo que una vez agotados sus reactivos son totalmente inútiles y no pueden reutilizarse.

Este método no necesita un excesivo procesado previo de las pilas, pero por el contrario el consumo de energía es elevadísimo. Este hecho, unido al necesario tratamiento de los humos que se producen, lo hacen sólo adecuado para grandes instalaciones, muy caras y de difícil instalación en muchas localidades.

A pesar de la merecida fama de residuo peligroso que tienen las pilas, un importante porcentaje (en torno al 45% en 2002) acaban en la basura, llegando a los vertederos, donde se descomponen, y sus metales pesados llegan indefectiblemente a los acuíferos, con nefastas consecuencias. Si estas basuras son incineradas, los metales se volatilizan y pasan a la atmósfera, lo cual es aún peor si cabe.

B) Métodos hidrometalúrgicos: Estos métodos se basan en la lixiviación de los metales contenidos en las pilas, previamente molidas, con reactivos específicos en disolución.

Del porcentaje de pilas que son recuperadas en contenedores específicos, una gran parte son incineradas y sus cenizas inmovilizadas con cemento, y otras acaban como relleno de terrenos, lo cual es cuanto menos inadecuado, a pesar del aislamiento que se le supone a estos depósitos.

Como ventajas tienen el bajo consumo de energía, la escasa o nula emisión de humos, la fácil adaptación a pequeñas instalaciones y el bajo coste. En contra tienen la necesidad de una separación y procesado previo de las pilas, que puede ser compleja, y el gran consumo de agua, aunque esto último puede ser solventado reciclando el agua del proceso en una planta adecuada, anexa a la instalación.

En noviembre de 2003, la Comisión Europea propuso nuevas normas concebidas para garantizar la recuperación y el reciclaje de casi el 100% de las pilas usadas, en un intento por prevenir los problemas medioambientales y de salud que podrían causar. Sin embargo, a lo largo del año 2002 tan sólo el 17 % del millón largo de toneladas de pilas que se producen en la Unión Europea, por lo que aún queda mucho por hacer.

4. METODO PROPUESTO RECICLAJE DE PILAS

EN

EL

En esta sección se propondrá un método para el reciclaje de pilas salinas agotadas; no obstante, también podría aplicarse a las pilas alcalinas con igual efectividad, por su similar composición y estructura.

La situación respecto a las pilas salinas y alcalinas no es tan grave, pues su contenido en mercurio se ha limitado al 0.0005%, según la Directiva Europea de Pilas y Acumuladores (98/101/EEC), y los metales restantes (manganeso y zinc) son de escasa peligrosidad. Sin embargo, no son inocuas y el valor de los metales hace interesante su recuperación. 3. TENDENCIAS ACTUALES RECICLAJE DE PILAS

PARA

El método está basado en una idea original, aunque tiene ciertos pasos basados en métodos industriales preexistentes. Su marco de aplicación es preferentemente en instalaciones industriales pequeñas, pues el procedimiento es bastante barato y no requiere un elevado consumo de energía, salvo si se opta por la electrolisis en algún paso. Además, los equipos no son excesivamente complejos.

EL

Hoy en día hay diversos métodos de reciclaje de pilas; estos métodos pueden dividirse en dos grandes grupos:

Una vez hechas estas aclaraciones, se describirán todos los pasos del método: 1º) Desmontaje de las pilas y separación de sus componentes:

A) Métodos pirometalúrgicos: Consisten básicamente en un calentamiento de las pilas troceadas hasta su fusión. Los metales más volátiles, como cadmio y mercurio, se evaporan y pueden condensarse en un tubo refrigerado, mientras

La estructura de las pilas es muy compacta, por lo que el mejor método para desmontarlas es triturarlas en pedazos pequeños y después introducirlas 28

en un molino de bolas; de este modo, la mayor parte de la pila se reduce a polvo fino, la forma ideal para facilitar la acción de los reactivos.

- El diclorodiaminzinc reacciona con los iones hidroxilo, formándose también el zincato. El desprendimiento de amoniaco se ve favorecido por el medio básico, más aún si se calienta ligeramente:

En este proceso hay que tener en cuenta que el interior de la pila está húmedo, por lo que la trituración tal cual puede dar como resultado una pasta que se adhiera a las cuchillas de la trituradora. Para solventar esto, hay una opción, que se denomina molturación criogénica y consiste en enfriar las pilas a muy baja temperatura con la intención de hacer todos sus componentes quebradizos y obtener un granulado perfectamente suelto. Este enfriamiento puede hacerse con nitrógeno líquido.

[ZnCl2(NH3)2] + 4NaOH Na2[Zn(OH)4] + 2NaCl + 2NH3 El amoniaco se aspira con un dispositivo de recogida de gases adecuado y puede usarse en reacciones posteriores del proceso. - Los plásticos, debido a su baja densidad, flotarán en la disolución, y pueden ser recuperados.

Este granulado se traslada al molino de bolas antes mencionado, donde se reducirá a polvo fino. Para evitar el apelmazamiento del polvo, se introduce una corriente de aire caliente por un extremo del molino, que evapora la humedad. El resultado es que a la salida del molino se produce un polvo muy fino.

- El papel se degradará casi por completo, pues la celulosa es muy atacada por los álcalis. - Los demás componentes permanecerán inalterados, pues el carbono es inatacable por las bases y el anfoterismo de los óxidos de manganeso es casi inexistente.

A continuación, este polvo se pasa por un electroimán, que atraerá las partículas de naturaleza ferrosa procedentes de la carcasa, y que se reúnen y envían a las industrias siderúrgicas para su reciclaje. Los granos de plástico existentes en el polvo se separarán en el siguiente paso.

La mezcla se filtra en sistemas adecuados. La disolución contiene zincato sódico, cloruro sódico e hidróxido sódico en exceso. Para recuperar el zinc, lo primero es neutralizar con un ácido, como el sulfúrico, convenientemente diluido:

2º) Lixiviado del polvo:

Na2[Zn(OH)4] + 2H2SO4 ZnSO4 + Na2SO4 + 4H 2O

El polvo obtenido, después de eliminar los metales ferrosos, contiene dióxido de manganeso residual, oxohidróxido de manganeso (III), diclorodiaminzinc, zinc metálico del ánodo, grafito del cátodo, negro de carbono, plásticos de la carcasa y trazas de papel separador.

El zinc (II) puede precipitarse con carbonato sódico, obteniéndose una mezcla de carbonatos básicos de composición variable, muy insolubles. El calentamiento de estos carbonatos nos producirá óxido de zinc, sustancia con gran interés industrial. La otra opción es electrolizar la disolución para recuperar zinc metálico. Obviamente, el consumo de energía eléctrica encarece el proceso.

Este polvo lo tratamos con una disolución de hidróxido sódico a pH en torno a 11,5. La reacción con los diversos componentes de la mezcla es como sigue:

3º) Disolución de los óxidos de manganeso:

- El zinc metálico es un metal anfótero, como el aluminio, que reacciona con las bases formando zincatos solubles y desprendiendo hidrógeno. Por tanto, se disolverá:

El filtrado se lava convenientemente con agua para arrastrar los restos de zinc y de sosa. De este modo, lo que nos queda es una mezcla de dióxido de manganeso, oxohidróxido de manganeso (III), grafito, negro de carbono y restos varios no atacados en el paso anterior.

Zn Zn2+ + 2e2H2O + 2e H2 + 2OH———————————————————— Zn + 2H2O Zn2+ + H2 + 2OHZn + 2NaOH + 2H2O

Los óxidos de manganeso III y IV son bastante oxidantes (sobre todo este último) y pueden ser reducidos fácilmente por el peróxido de hidrógeno.

Na2[Zn(OH)4] + H2 29

Esta sustancia es habitualmente conocida por su carácter oxidante, pero lo cierto es que en medio ácido puede ser oxidada a oxígeno molecular por oxidantes fuertes.

manganeso precipitado se filtra y lava; su carácter amorfo lo hace idóneo para la construcción de pilas. En este método se usan ácidos diluidos, lo que supone una ventaja en cuanto a la seguridad; además, se obtiene como producto el dióxido de manganeso, que tiene gran salida en la industria en la fabricación de nuevas pilas.

Para ello, se prepara una disolución de peróxido de hidrógeno al 5-10% (no más concentrada, pues el desprendimiento de oxígeno podría ser violento) acidificada con ácido sulfúrico. A esta disolución se le añade el precipitado del paso 2; las reacciones que ocurren con cada componente son:

5. BIBLIOGRAFIA - GREENWOOD, N. N.; EARNSHAW, A. «Chemistry of the Elements». ButterworthHeinemann, 1997 (2ª Ed.). Págs. 1047-1049, 1057, 1204-1206. - BÜCHEL, K. H.; MORETTO, H.-H.; WODITSCH, P. «Industrial Inorganic Chemistry». Wiley-VCH, 2000 (2ª Ed.). Págs. 121, 284 - 293. - HOUSECROFT, C. E.; SHARPE, A. G. «Inorganic Chemistry». Pearson Education Lted., 2001 (1ª Ed.). Pág. 508. - BURRIEL MARTÍ, F; LUCENA CONDE, F; ARRIBAS JIMENO, S; HERNÁNDEZ MÉNDEZ, J. «Química Analítica Cualitativa». Paraninfo Thomson Learning, 2001. Págs. 680 - 697. - AA. VV. «The Merck Index». Merck & Co., Inc., 2001 (13ª Ed.) - BARTOLOZZI, M.; BRACCINI, G.; MARCONI, P.F.; BONVINI, S. J. Power Sources, 1994, 48 (3), 389-392. - FROHLICH, S.; SEWING, D. J. Power Sources, 1995, 57 (1-2), 27-30. - DE SOUZA, C.C.B.M.; DE OLIVEIRA, D.C.; TENORIO, J.A.S. J. Power Sources, 2001, 103 (1), 120-126. - SALGADO, A.L.; VELOSO, A.M.O.; PEREIRA, D.D.; GONTIJO, G.S.; SALUM, A.; MANSUR, M.B. J. Power Sources, 2003, 115 (2), 367-373. - DE SOUZA, C.C.B.M.; TENORIO, J.A.S. J. Power Sources, 2004, 136 (1), 191-196.

- Dióxido de manganeso: H2O2 O2 + 2H+ + 2eMnO2 + 4H+ + 2eMn2+ + 2H2O ———————————————————— MnO2 + H2O2 + 2H+ O2 + Mn2+ + 2H2O MnO2 + H2O2 + H2SO4 O2 + MnSO4 + 2H2O - Oxohidróxido de manganeso (III): O2 + 2H+ + 2eH2O2 2(MnO(OH) + 3H+ + eMn2+ + 2H2O) ———————————————————— 2MnO(OH) + H2O2 + 4H+ 2Mn2+ + O2 + 4H2O 2MnO(OH) + H2O2 + 2H2SO4 4H 2O

2MnSO4 + O2 +

- Los demás componentes no se verán afectados por el tratamiento, pero podrán filtrarse con facilidad. Podrán ser incinerados sin problemas en sistemas adecuados. El manganeso puede recuperarse como carbonato insoluble, después de filtrar la suspensión, o bien por electrolisis. Además, existe una tercera posibilidad, basada en el carácter oxidante del peróxido de hidrógeno en medio básico. Como se supone que está en exceso, basta con alcalinizar la disolución. Incluso podemos usar con este fin el amoníaco que se extrajo del complejo de zinc: H2O2 + 2e2OH2+ Mn + 4OH MnO2 + 2H2O + 2e———————————————————— Mn2+ + H2O2 + 2OHMnO2 + 2H2O 2 (NH3 + H2O NH4+ + OH-) ———————————————————— Mn2+ + H2O2 + 2 NH3 MnO2 + 2NH4+ MnSO4 + H2O2 + 2 NH3

- http://www.wasteonline.org.uk/ - http://www.wastewatch.org.uk/ - http://www.batteryuniversity.com José Francisco Tejón Blanco Alumno de 4º de Licenciado en Química de la Universidad de Málaga.

MnO2+ 2(NH4)2SO4

Obviamente, también podrá utilizase sosa, pues lo importante es alcalinizar el medio. El dióxido de

30

OZONO ATMOSFÉRICO Lorenzo Chicón Reina

El ozono (del griego Dæåéí, tener olor) es la forma alotrópica del oxígeno constituida por moléculas triatómicas del elemento del mismo nombre (O3). El ozono gaseoso es incoloro con un tono ligeramente azulado y tiene un característico olor acre que puede resultar irritante. Si se le enfría a -112 oC se convierte en un líquido azulado, capaz de solidificar a -193 oC en una sustancia de color azul-violáceo oscuro, casi negro. En la naturaleza se le suele encontrar como resultado de las descargas eléctricas producidas en las tormentas y en las capas altas de la atmósfera, particularmente en la troposfera, como consecuencia de la acción de los rayos ultravioleta sobre las moléculas de dioxígeno. El ozono es una sustancia bastante inestable y altamente oxidante, usada como blanqueador y desinfectante, utilizándose cada vez con mayor frecuencia en los procesos de esterilización y potabilización del agua y como bactericida en la industria alimentaria. En la atmósfera terrestre suele concentrarse en la estratosfera formando una capa protectora denominada ozonosfera (ozono estratosférico) y nos protege de las radiaciones ionizantes de corta longitud de onda. Pero también se puede concentrar en las capas bajas de la atmósfera (ozono troposférico) donde se ha convertido en uno de los contaminantes más habituales de las zonas urbanas, con efectos claramente perjudiciales para la salud. El ozono se descompone fácilmente para formar dioxígeno, en un proceso claramente exoenergético, de acuerdo con la siguiente reacción: 2 O3

3 O2

comprendidas entre 15 y 40 km (ozonosfera), se observa, además, las reacciones [b], [c] y [d]. O2 + hn O + O2 + M O3 + hn O + O3

2 O [a] O3 + M [b] O2 + O [c] 2 O2 [d]

(M es un sustrato aceptor de energía, normalmente moléculas de N2 y O2)

La radiación de longitud de onda inferior a 240 nm propicia la disociación de las moléculas de dioxígeno (O 2) como se indica en la reacción [a] y, consecuentemente, favorece la formación de ozono (O3). En cambio las radiaciones de longitud de onda superior a 290 nm favorecen la destrucción del ozono (O3) para formar dioxígeno O2 y oxígeno atómico (O), como se puede apreciar en la reacción [c]. Finalmente, el ciclo se completa con la destrucción de ozono como se indica en la reacción [d]. A ese conjunto de procesos se les denomina reacciones de Chapman. Parece claro que se establece un equilibrio entre la formación y la destrucción de ozono, en el que la concentración de éste oscila entre 0,03 y 0,08 ppm (partes por millón), alcanzando el máximo valor a unos 25 km de la superficie terrestre. Para expresar la cantidad de ozono en la atmósfera se suele recurrir a las Unidades Dobson, UD (DU según la nomenclatura anglosajona). Se define la Unidad Dobson como la cantidad equivalente a 2.7 × 1020 moléculas de ozono por cada metro cuadrado. El valor medio para la superficie terrestre se corresponde con 300 DU y para comprender su magnitud, baste decir que todo el ozono de la atmósfera, en condiciones normales de presión y temperatura, tendría un espesor de tan sólo 3 mm si se pudiese concentrar sobre la superficie de la Tierra. Queda claro que las cifras en DU que se facilitan habitualmente, se refieren a la cantidad de ozono que se encuentra en la columna de aire sobre la que se

DHo = -144 kJ/mol

Como además en dicho proceso se produce un aumento de entropía, se comprenderá ahora, por qué en la superficie terrestre, al abrigo de radiaciones de corta longitud de onda, el ozono es altamente inestable. Ozono estratosférico: un filtro protector En las capas altas de la atmósfera (por encima de los 80 km), los fotones de alta energía disocian a las moléculas de dioxígeno (O2), por lo que sólo es posible encontrar oxígeno monoatómico (O), como queda expresado en la reacción [a]. A alturas menores, 31

realiza la medición y que dichos valores cambian en función de la latitud, la climatología o la estación del año.

destrucción de ozono estratosférico no se vean alterados por la acción humana, ya que, de lo contrario, el efecto protector de la ozonosfera quedaría seriamente mermado ante una peligrosa radiación ultravioleta capaz de infligir serios daños a todas las formas de vida. La actividad humana genera una ruptura del equilibrio en las reacciones de Chapman, con una clara tendencia a la destrucción de ozono. Dichos procesos pueden resumirse en las siguientes reacciones:

La ozonosfera constituye un eficaz filtro que nos protege de la peligrosa radiación ultravioleta, cuyos efectos se traducen en alteraciones del ADN de los organismos vivos, además de afectar negativamente a la fotosíntesis de las plantas y del fitoplancton y de provocar enfermedades de la piel en las personas. Para comprender los beneficios producidos por la ozonosfera, obsérvese detenidamente la figura 1. En ella se representa la concentración de ozono, expresada en Unidades

X + O3

XO + O2 [e]

O3 + hn

O + O2 [f]

XO + O

X + O2 [g]

2 O3 + hn

3 O2 [reacción neta]

en las que el símbolo X representa a especies químicas (fundamentalmente radicales libres) capaces de catalizar la destrucción del ozono. Entre esas especies podemos encontrar algunas que proceden de fenómenos naturales como el óxido nítrico (NO) o los radicales hidroxi (HO·), pero otras tienen un origen claramente antropogénico como el bromuro de metilo (BrCH 3), el tetracloruro de carbono (CCl4), los halones o los CFCs. Dobson por cada km de columna de aire, frente a la altura en km. Nótese cómo la máxima concentración corresponde a una altura comprendida entre los 20 y 25 km. Llama especialmente la atención la capacidad de la atmósfera para retener gran parte de la radiación ultravioleta. En concreto, retiene completamente a las radiaciones denominadas UV-c (200-280 nm), responsables, en gran parte, de la fotodisociación del dioxígeno expresada en la reacción [a]. Sin embargo, se puede comprobar como la ozonosfera no absorbe por completo la radiación UV-b (280-320 nm), alcanzando la superficie terrestre una pequeña parte de ella; de ahí la importancia que tiene protegerse de esa dañina radiación mediante el uso de cremas solares, especialmente en las horas en que los rayos inciden cenitalmente, situación que depende de la hora del día, la estación y la latitud. Finalmente, la radiación UV-a (320-400 nm) apenas si es absorbida por la atmósfera terrestre, pero, afortunadamente, es la menos dañina de las tres y sus efectos son fácilmente asumibles por los seres vivos expuestos a ella. Para comprender la magnitud del problema, hay que tener en cuenta que en este último grupo de sustancias encontramos compuestos altamente estables en la troposfera, que tras un largo viaje que puede durar varios años, alcanzan la estratosfera.

Destrucción de la capa de ozono Se comprenderá ahora por qué es tan importante que los procesos de formación y 32

Ahora, bajo la acción de la radiación ultravioleta más energética, sus moléculas sufren procesos fotolíticos de ruptura radicalaria, liberándose átomos de cloro altamente reactivos que inician el ciclo de destrucción de ozono de acuerdo con las reacciones [e], [f] y [g]. Un solo átomo de cloro puede llegar a destruir más de 100.000 moléculas de ozono. Como consecuencia de los estudios realizados por la comunidad científica, se tomó conciencia del problema tras las investigaciones derivadas de la disminución progresiva de la capa de ozono antártico (comúnmente conocido como agujero de la capa de ozono). El Protocolo de Montreal de 1987, relativo a las sustancias que agotan la capa de ozono, así como las enmiendas de 1990, 1992, 1995, 1997 y 1999, ha tratado de solucionar este grave problema, que no es exclusivo de la Antártida y que se ha reproducido en el Ártico, aunque con menor intensidad. La acción coordinada de los países firmantes del tratado ha permitido reducir las emisiones de gases contaminantes, lo que parece estar dando resultados que prometen ser esperanzadores. Autores como A. D. Mathias alertan sobre una nueva amenaza: el óxido nitroso (N2O). Este gas, se forma de manera natural en los procesos de desnitrificación bacteriana de los nitratos. Sin embargo, el exceso de abonado en suelos agrícolas está contribuyendo a un acelerado crecimiento de las emisiones a la atmósfera de NO2, que debido a su estabilidad química puede alcanzar la estratosfera y, por acción de la luz ultravioleta, presentar la siguiente reactividad: N2O + hn N 2O + O

y participa con un porcentaje considerable en el calentamiento global del planeta, como consecuencia de su contribución al denominado «efecto invernadero». El ozono troposférico es un típico contaminante secundario, ya que se forma por la reacción de otros contaminantes (contaminantes primarios), con los componentes naturales de la atmósfera y a expensas de la radiación solar. Junto al ozono, se ha identificado una gran familia de sustancias que participan en complejos procesos de naturaleza fotoquímica, entre las que cabe citar a aldehídos, cetonas, ácidos, peróxido de hidrógeno, nitrato de peroxiacetilo, radicales libres y otras de diverso origen como sulfatos (del SOx) y nitratos (del NOx). Esta nueva forma de contaminación en las grandes áreas urbanas es el denominado smog fotoquímico, el cual se caracteriza por un nivel relativamente alto de oxidantes que irritan ojos y garganta, ataca a las plantas, produce olores y disminuye la visibilidad. Su origen está en la interacción de la luz solar ultravioleta (UV) de 400 a 200 nm (energías de 290 a 580 kJ/mol) con algunos componentes de la atmósfera. La disociación fotoquímica se puede considerar como un proceso de dos etapas, cuyo mecanismo se resume en las siguientes ecuaciones: A + hn A*

A* B+C

Frecuentemente, el estado excitado A* es muy inestable por lo que la segunda reacción ocurre rápidamente. Por otro lado, B o C (o ambos) pueden ser altamente reactivos, por lo que originarían una cadena de reacciones químicas responsables del smog fotoquímico. Sustancias emitidas por la industria pesada y por las fuentes móviles (vehículos a motor), como el óxido nítrico, NO, y los compuestos orgánicos volátiles, COVs/ VOCs, bajo la acción de la luz solar, constituyen gran parte de la contaminación fotoquímica en la troposfera. Este fenómeno se acrecienta en épocas de gran insolación con bajo régimen de vientos. El NO tiene su origen en las combustiones a elevadas temperaturas (como consecuencia de la reacción entre el nitrógeno y el oxígeno presentes en el comburente) y es emitido a la atmósfera, donde se oxida para formar NO2, el cual se considera como el principal precursor del ozono, según se desprende de las siguientes ecuaciones:

N2 + O [h] 2 NO [i]

Finalmente, el NO inicia el proceso de destrucción del ozono de acuerdo con las reacciones, [e], [f] y [g]. Según este mismo autor, la concentración de N2O en la atmósfera se incrementa un 0,25% anual, de tal modo que cuando el incremento neto alcance el 25% sobre el valor actual, ello podría suponer una reducción del ozono estratosférico en torno al 3-4%, lo que produciría un desequilibrio especialmente perjudicial para todos los seres vivos. Ozono troposférico: un nuevo enemigo

2NO + O2 El ozono, esa extraña sustancia que desde las capas altas de la atmósfera nos protege de la radiación ultravioleta se ha convertido en la troposfera en un contaminante de primer orden. Es el principal protagonista de la contaminación por «smog» fotoquímico

2NO2 [j]

NO2 + hn NO + O* [k] Como se puede apreciar, la presencia de O monoatómico puede dar lugar a la formación de ozono según la ecuación [b] y por tanto se puede concluir que 33

en la troposfera la presencia de NO, y su lenta conversión en NO2, actúa como precursor del O3, aquí ya como contaminante. el cual a su vez puede reaccionar con el NO de la siguiente forma: O3 + NO

el aire ambiente. La legislación vigente fija los siguientes niveles para el ozono troposférico, considerando la medida del volumen a una temperatura de 293 Kelvin y presión de 101,3 Kpa:

NO2 + O2 [l]

Se observa cómo la presencia de óxidos de nitrógeno, NOx, por sí sola, no garantiza la formación de ozono, ya que, a la vez que se está formando a expensas del O liberado en la reacción [k] (paso previo a la síntesis referida en la reacción [b]), también se está destruyendo como se indica en la reacción [l]. Se han sugerido otras reacciones, como es lógico, donde se forman productos intermedios de diversos óxidos de nitrógeno, que a su vez pueden reaccionar con otras sustancias presentes en la atmósfera, como el vapor de agua, 4NO2 + 2H2O + O2 3NO2 + H2O

Estudiando los datos de las inmisiones habidas en las estaciones de muestreo y análisis de la provincia de Málaga se han obtenido los resultados que reflejan la figura 3, donde se observa que los valores máximos para 1 hora están próximos al límite umbral de información, aunque lejos del umbral de alerta. Se ha rebasado el nivel de protección a la salud un buen número de veces (13 en El Atabal, 2 en Hilera, 10 en Paseo de Martiricos y 28 en Marbella), aunque este índice no es vinculante hasta el 1 de enero de 2010.

4HNO3 [m]

2HNO3 + NO [n]

abatiéndose gran parte del NO2 por formación de gotas de HNO3, que pueden quedar en suspensión (aumenta el poder corrosivo de la atmósfera), o bien volver a la corteza terrestre como lluvia ácida. De acuerdo con esta secuencia de reacciones no se justificaría la contaminación por ozono en la troposfera. Ahora bien, la presencia de hidrocarburos en las capas bajas de la atmósfera propicia la formación de radicales peróxido, ROO·, capaces de oxidar al NO hasta NO2 (lo que inhibiría la destrucción de ozono detallada en la reacción [l]), dando por resultado un incremento en la producción de O3. Igualmente, la presencia de aldehídos, cetonas, peróxidos y nitratos de acilo promueven, en presencia de la luz solar, la formación de radicales altamente reactivos capaces de combinarse con el O2 para formar radicales de gran actividad química que convierten al NO en NO2, favoreciendo por tanto la formación de ozono (recordar que el NO2 es precursor del O3 como se detalla en la ecuación [k]) e inhibiendo la descomposi-ción del mismo según la ecuación [l]. Gestión y control del ozono troposférico

El control de este contaminante se realiza mediante estaciones de muestreo y análisis, cuyo número varía considerablemente de unos países europeos a otros. Según datos de la Agencia Europea de Medio Ambiente, se ha observado un porcentaje considerable de superaciones del nivel umbral en la mayoría de los estados miembros de la Unión, exceptuando a los países nórdicos. España muestra un número aceptable de estaciones y los datos de las mediciones revelan un problema en alza, pero que

Para controlar los niveles de contaminación por O3, la Unión Europea adoptó la Directiva 2002/3/CE del Parlamento Europeo y del Consejo de 12 de febrero de 2002, relativa al ozono en el aire ambiente. Esta normativa de obligado cumplimiento ha sido transpuesta a la jurisdicción española y desarrollada con legislación específica de ámbito estatal y autonómico, en particular mediante el Real Decreto 1796/2003, de 26 de diciembre, relativo al ozono en 34

todavía no es preocupante salvo en determinadas zonas urbanas con elevados niveles de tráfico. Este problema plantea una acción concertada que persiga la disminución de las emisiones de óxidos de nitrógeno, NOx y compuestos orgánicos volátiles, COVs. Los NOx se originan en las combustiones a elevadas temperaturas, por lo que las fuentes de emisión más comunes son los motores de combustión de los vehículos, las centrales térmicas y las calderas industriales.

·

·

·

·

· Puesto que la lucha contra las emisiones de COVs se ha mostrado insuficiente por la complejidad que entraña, dada la variada naturaleza de los contaminantes (barnices, pinturas, disolventes, carburantes, etc.) y la

BIBLIOGRAFÍA/WEBOGRAFÍA CENTER FOR COASTAL PHYSICAL OCEANOGRAPHY http://www.ccpo.odu.edu/ SEES/ozone/oz_class.htm ESPERE-ENC http://www.atmosphere.mpg.de/enid/ 8ec1890b1da07aa41cc2260ff3a594b1,0/M_s/ 2__Ozono_34w.htmlKIRKWOOD, R.C.; LONGLEY, A.J. (1995). Clean Technology and the Environment. Blackie Academic & Professional (Chapman & Hall). Glasgow O’NEILL, P. (1995). Environmental Chemistry. Chapman & Hall. London. PEPPER, I.L.; GERBA, C.P.; BRUSSEAU, M.L.; MATHIAS, A.D.; y otros. (1996). Pollution Science. Academic Press. San Diego. WARK, K; WARNER, C.F. (1997). Contaminación del aire. Origen y control. Limusa. México. WIKIPEDIA http://wikipedia.org/

diversidad de las fuentes de emisión (industrial, doméstica, automoción), los esfuerzos para reducir la contaminación del ozono troposférico pasan por un control más efectivo de las emisiones de los óxidos de nitrógeno, NOx. Entre las medidas propuestas conviene citar las siguientes: ·

rebaja la temperatura de la llama y reduce las emisiones de NOx. Tiene el inconveniente de que puede suponer pérdida de eficiencia energética. Uso de catalizadores, tanto en calderas como en vehículos a motor. El objetivo es separar los átomos de N y O, presentes en los óxidos de nitrógeno, para formar N2, O2 y H2O. En los vehículos se usa el catalizador de tres vías, con una alta efectividad en los motores de gasolina, aunque con resultados más pobres en los motores diésel. En las centrales térmicas se usan técnicas de reducción catalítica selectiva (SCR) en presencia de catalizadores de óxidos metálicos. Diseño de vehículos con motores más eficientes, que usen tecnologías menos contaminantes y que reduzcan su nivel de emisiones. Mejoras en los hábitos de los ciudadanos, entre las que se debe contemplar la mayor utilización del transporte público o una conducción del vehículo privado más eficiente. Medidas políticas más restrictivas en cuanto a la circulación de vehículos por las ciudades y claramente favorecedoras de la peatonalización de los centros urbanos. Política fiscal sobre los automóviles, en función del nivel de emisiones generadas, así como del tipo de combustible y del consumo observado.

Lorenzo Chicón Reina IPFA Málaga

En las centrales térmicas y calderas industriales, la recirculación de los gases de combustión enfriados, 35

ENERGÍAS RENOVABLES I José-Aldo Piano Palomo

Introducción

2. Para el mantenimiento y desarrollo de las industrias, las cuales nos proporcionan un sinfín de productos. 3. Para la distribución, venta y consumo tanto de alimentos como de los productos producidos por las industrias. 4. Para viajar, para uso doméstico ... etc.

Se define energía como la capacidad que posee un cuerpo, o un sistema de cuerpos, de proporcionar trabajo mecánico (definición física); como vigor o como la potencia activa de un organismo (definición biológica); o como la capacidad de producir una corriente eléctrica y/o calor a partir de una reacción, es decir de la transformación de masa en energía (definición química). Así mismo, se denomina energía interna, a la suma de la cantidad de calor y trabajo mecánico que puede proporcionar un sistema inmóvil. Se definen como fuentes de energía, las materias primas o fenómenos naturales utilizados para la producción de energía: carbón, hidrocarburos (petróleo), uranio, hulla blanca (agua), sol, geotermia, viento, mareas, olas, biomasa ... etc.

Es decir, que la energía es uno de los recursos básicos para el desarrollo humano, pero su consumo se encuentra repartido de modo muy desigual, ya que el 22% de la población mundial (los países desarrollados) consumen el 82% de toda la energía producida en el mundo (un americano consume 330 veces más energía que un etiope medio). Y, además, el ritmo de consumo actual puede hacer peligrar la supervivencia sobre el planeta. Energías renovables

El gran problema energético Todos oímos hablar de la energía. Los periódicos, la radio, la TV, o a través del ordenador, nos informan de la energía, de su incidencia medioambiental (caso del Prestige, contaminación) y/ o social (precio de los combustibles, guerra de Irak, «apagones»). Pocas veces un tema científico ha trascendido al hombre de la calle con tanta fuerza e insistencia. Pero es que nos hace falta para casi todo: 1. Para movermos, para calentarnos (o refrescarnos), para cultivar y alimentarnos.

Veamos qué fuentes de energía son renovables, y sus posibilidades de uso. La energía eólica, utiliza el viento. Se utiliza para generar electricidad, y su mayor potencial se encuentra en los parques eólicos. Es posible utilizarla en casas unifamiliares ubicadas fuera de los núcleos urbanos, y también se utiliza para el bombeo de agua en viviendas, pueblos o campos de cultivo. Es una de las fuentes más baratas y competitivas, y por tanto con mayor futuro.

36

La energía geotérmica se basa en el calor que sale de las profundidades de la tierra, y que se transmite por conducción hasta su superficie. El aumento de temperatura que se observa al profundizar en el suelo, y que es de 1°C por cada 30 metros, se denomina gradiente geotérmico. La geotermia de alta energía utiliza distintos tipos de yacimientos como, por ejemplo, los recursos hidrotermales de vapor dominante, como en Larderello (Italia), o de agua dominante, como en Cerro Prieto (México). La geotermia de baja energía ofrece dos posibilidades: la explotación directa, es decir el aprovechamiento del agua caliente para uso doméstico, agrícola o industrial; o la producción de electricidad a partir de yacimientos de vapor. Ambas posibilidades se utilizan en Islandia. En algunos casos es posible su empleo para baños termales (Alhama de Granada). La energía solar, utiliza la energía que llega directamente del Sol. La cantidad de energía solar en un lugar determinado depende de la latitud del lugar y de las condiciones meteorológicas del mismo. Hay dos tipos de empleo de la energía solar: la térmica y la fotovoltaica.

La térmica se basa en el aprovechamiento de la radiación solar para calentar fluidos (normalmente agua), y suele utilizarse para calentar el agua de casas, colegios, piscinas y, en el sector agrario, para granjas e invernaderos. La fotovoltaica, consiste en la transformación directa de luz en electricidad, y se usa para obtener electricidad. Pero esta energía es difícil de captar, concentrar y conservar, aunque utilizando un sistema de captación de fotopilas de silicio (rendimiento 1012 %) o de cadmio (rendimiento 5-6 %), se consigue suficiente energía para hacer funcionar una casa (utilizando paneles solares de dichos materiales), o toda una central de 1 MW como la de Puebla de Montalbán, situada a 20 Km de Toledo, o la Plataforma Solar de Tabernas (Almería), de 5 MW aunque es más bien de tipo térmico, o la central de torre Solar One de 10 MW (en California). Las previsiones para el año 2010 para la generación Fotovoltaica por parte del Plan de Fomento del Gobierno, para las Comunidades Autónomas del Estado Español, en MW, son: En el futuro, se prevé la puesta en marcha

37

de orbito granjas eléctricas: Gigantescas centrales solares que enviarán a la Tierra la electricidad generada, a 36000 km. de altura, por un gigantesco colector de paneles fotovoltaicos de miles de kilómetros cuadrados de extensión, con objeto de captar la energía solar fuera aún del filtro atmosférico, y enviarla a la Tierra en forma de microondas. Como inconveniente para su .instalación, los ecologistas aducen que provocará la contaminación térmica de la zona de la Tierra donde se efectúe la recepción de las microondas para su conversión en energía eléctrica. La energía hidroeléctrica (hulla blanca), que es la obtenida en las centrales hidroeléctricas al transformar en electricidad la energía potencial del agua, tiene a su favor el gran desarrollo de su tecnología y su elevado rendimiento de conversión. Entre las desventajas se encuentran el transporte (las centrales están lejos de los consumidores) y los efectos negativos sobre el entorno (erosión del suelo, alteración del régimen natural de los ríos, posibles efectos de los campos electromagnéticos sobre la salud, inundación de terrenos fértiles ... etc.). La energía maremotriz, aprovecha el movimiento de las mareas. En Francia, la central maremotriz de La Rance produce 550 millones de kWh anuales desde 1969. Otras centrales maremotrices son la de Marmansk (en el mar de Barents) de 20 MW, instalada en 1968, y la de la bahía de Fundy de 18 MW, instalada en 1984.

Atlántico Norte, cada metro de frente de ola transporta, por término medio, una energía cinética equivalente a 70 kW. Y aunque es imposible en la práctica extraer toda la energía de una ola, existen mecanismos que funcionan gracias a ella. Así el investigador Stephen Salter ha construido unos artilugios flotantes en forma de pera, a los que todo el mundo llama patos, del tamaño de una casa unifamiliar, que obtienen energía de las olas. Otro mecanismo, es el Wave Rotor, de Chris Retzler, en el cual dos rodillos paralelos sujetos al lecho marino, giran en sentidos opuestos aprovechando las corrientes que se producen al paso de las olas. Otro sistema está funcionando en Toftestallen, una isla noruega cercana a Bergen: En 1985 se construyó una torre hueca de hormigón incrustada en un acantilado. Al romper las olas sobre la base semisumergida, comprime el aire y lo lanza hacia la parte alta del cilindro (la torre), haciendo girar una turbina, que basta para las necesidades de 50 casas. Por su parte la compañía Mitsui Shipbuilding desarrolló una boya vertical que al ascender y descender mecida por las olas, pone en movimiento dos hélices coaxiales acopladas a un generador. En 1979, Yoshio Masuda instaló sobre una balsa de 80 x12 metros unas cámaras que absorbían el movimiento de las olas comprimiendo el aire en su interior e impulsando unas turbinas verticales: Los 2 MW de la central aún alimentan la red nacional. Energía obtenida del mar, con el principio de la máquina térmica: Donde mayores esperanzas se han depositado para recuperar la energía que almacena el mar, es en la llamada Conversión Térmica de los Océanos (OTEC, en inglés), basada

Para instalar este tipo de centrales, es necesario que el desnivel de las mareas sea superior a 20 metros. Energía obtenida de las olas: En el

38

BIBLIOGRAFÍA

en el célebre principio de Carnot, segundo de la termodinámica, según el cual se puede hacer funcionar una máquina equilibrando el diferencial térmico entre un foco cálido y un foco frío. Así, el agua caliente de la superficie de los mares de los trópicos podría evaporar un líquido de trabajo que tuviera un punto de ebullición muy bajo,

1. www.emison.com/518.htm 2. www.upme.gov.co/energía/alternativas/ealterna. asp 3. www.iespana.es/natureduca/ energ_biocombust.htm 4. http://jaibana.udea.edu.a/ grupos/revista/nro024/ contenido.html. 5. http://www.pangea.org.events/sostenible/doc/ cabez.html. 6. http://www.ciemat.es/proyectos/ pderbiocombus.html. 7. lillp://agroforestal.geoscopio.com/cgi-bi…/ portada.cgi?tópico=agr&fichero=biocombustible. 8. http://www.cai.org.or/ivcongreso/ biocombustible.html. 9. http://habitat.aq.upm.es/bpes/ceh2/bpesJ3 .html. 10. http://europa.eu.int/comm/research/success/fr/ ene/0264f. html. 11. Castaño, L. (1995). El gigante de la Mancha. Revista Muy Interesante Enero-95. Madrid. G y J España Ediciones S.L. 12. Dossier Tesoros del Mar. Energías Renovables (1994). Revista Muy Especial N° 18. Madrid. G y J España Ediciones S.L. 1 3 . w w w. e n e r g í a s - r e n o v a b l e s . c o m / index.asp?id=9&NombreE%F3lica. 14. Atarés, B. (1997) Suministros naturales para que tu casa no contamine. Revista CNR N° 8. Barcelona. Ediciones Reunidas-Grupo Zeta.

como el freón o el amoniaco. El vapor, generado en un circuito cerrado, movería unas turbinas y volvería a condensarse en un intercambiador de calor por el que circulase agua fría de las profundidades: basta que el agua de la superficie presente un incremento térmico de 20°C respecto de la del fondo (22°C y 2°C, por ejemplo) para que el sistema funcione. El primer experimento se realizó en 1930 en la bahía de Matanzas, al norte de Cuba, donde se logró sumergir un tubo de 1’6 metros de diámetro y cerca de 2 km de largo, que llegó a producir 22 kWh, aunque consumía más energía de la que producía.

José-Aldo Piano Palomo I.E.S. La Rosaleda

39

LA ALQUIMIA DEL SALITRE EN EL MANUSCRITO ALEMÁN DAS FEUERWERKBUCH (HACIA EL AÑO 1400) Miguel Ángel López Moreno INTRODUCCIÓN

sido muy poco estudiado. El trabajo que presentamos pretende identificar exactamente qué tipo de salitre obtenían de la manipulación del la sal pétrea (el salitre de las paredes), y al mismo tiempo poner de manifiesto que algunos métodos, procedimientos y conocimientos que tradicionalmente se situaban en el siglo XVI, ya se apuntan en la versión MS 362 de DFWB, es decir, siglo y medio antes.

En 2001, los profesores Gerhard W. Kramer y Klaus Leibnitz presentaron una publicación titulada «The Firewok Book: Gunpowder in Medieval Germany» (The Arms & Armour Spciety. London, 2001). En ella incluyeron consideraciones sobre datación cronológica, autoría, contenidos y, sobre todo, la primera traducción completa al inglés del manuscrito MS 362 (Das Feuerwerkbuch) de la Biblioteca de la Universidad de Friburgo. Con ello pusieron a disposición de la comunidad científica un interesante texto cuyo estudio, sin duda, aportará novedades a la historiografía de la pólvora.

SOBRE LAS CUALIDADES DEL MAESTRO ARTILLERO En torno al año 1400, cuando se redacta DFWB, la pólvora era un producto artesanal, y el arte de fabricarla conocimiento exclusivo de pocos iniciados. Eran individuos ilustrados, capaces de leer y escribir, de hacer cálculos y proporciones, y, sobre todo, alquimistas prácticos. El maestro artillero era de los pocos hombres capaces de transformar tres elementos inertes, salitre, azufre y carbón, en una poderosa mezcla ... semejante poder no podía dejarse en manos de cualquiera:

Das Feuerwerkbuch (en adelante utilizaremos su acrónimo, DFWB) es un manuscrito anónimo escrito en Alemania a finales del siglo XIV. Desde ese momento, y durante dos siglos, fue el catecismo que utilizaron los maestros artilleros, manipuladores de un arte emergente: la pirobalística. Gran parte del mismo explica numerosos procedimientos alquimistas cuyo único fin era encontrar, producir o purificar salitre, componente fundamental de la pólvora. DFWB también describe la forma de confeccionar distintos tipos de ella y de los procedimientos para regenerarla cuando se estropeaba. No resuelve, por supuesto, el misterio de su origen pero supone por el momento el más antiguo y completo tratado sobre la alquimia del salitre y manufactura de pólvora.

Él deberá honrar a Dios, tener su imagen siempre ante él y temerlo más que otros soldados. Cuando él trabaja con la pólvora o el arma tiene el peor enemigo entre sus manos. Esto requiere triple atención. También en el entorno en el que vive deberá ser refrenado en el comportamiento y ser un hombre sin miedo, que actúa valientemente en la guerra. Los hombres como él inspiran gran confianza. Por esta razón debería ser más confiable y reservado que otros soldados.

Incluye DFWB la descripción y uso de una primitiva bombarda que llaman Steinbüchse, y la forma de disparar bolaños y otros tipos de proyectiles. Los redactores tampoco olvidan incluir nociones sobre poliorcética, el arte de atacar y defender castillos, como disciplina propia del maestro artillero. En su conjunto resulta un compendio de los conocimientos de su tiempo sobre pirobalística, pólvora y poliorcética.

El maestro también debe ser capaz de leer y escribir porque de ningún otro modo podrá mantener en su mente todo el conocimiento requerido para ejercer su arte ... También debe estar familiarizado con las cosas con las que se pueden atacar fortalezas y lugares amurallados ... Él debe poder

Hasta la publicación de Kramer y Leibnitz, debido a las dificultades de interpretación del manuscrito original (escrito en alemán medieval), había 40

por Gebir en el siglo VIII, necesitaba un largo y laborioso proceso a partir de la materia prima, o a partir de la sal adulterada por comerciantes venecianos. Una parte del manuscrito trata de lo que Leibnitz y Kramer denominan química del salitre. Abarca los folios 75v al 79v, y está situado en el estrato más antiguo del texto, hacia 1380. En esas páginas se describen catorce métodos para purificar salitre a partir de sal pétrea, o para separar impurezas del salitre adulterado. En todos los casos es una cuestión de solubilidades...

manejar pesos y medidas y debe hablar y actuar con una disposición amistosa, y siempre estar tranquilo. En particular, debe evitar el vino y nunca debe embriagarse (MS 362, folio 75r).

MALOS COMERCIANTES VENECIANOS El maestro artillero sabía que la pólvora, el alma de la pirobalística, no se debía comprar confeccionada porque los comerciantes – especialmente los venecianos– solían cometer fraude en la composición, usar salitre adulterado o venderla humedecida o degenerada. Sólo estaban seguro de la calidad de la pólvora si ellos mismos dirigían la confección de tan peligrosa mezcla.

SIMPLE CUESTIÓN DE SOLUBILIDADES Para conocer qué especie química se obtiene siguiendo los procedimientos descritos en DFWB es preciso conocer la composición de la materia prima de la que se partía: las eflorescencias blancas que recogían en cuevas, o en muros de establos, lo que hemos convenido en llamar sal pétrea (el salitre de las paredes). La composición de estos cristales es muy variable y depende del substrato mineral donde haya tenido lugar el proceso natural de nitrificación (formación de amoniaco, nitritos y, finalmente, nitratos, a partir del nitrógeno orgánico y la participación de nitroso y nitrobacterias). Generalmente la sal pétrea es una mezcla de nitratos cálcico, potásico y magnésico, con sulfatos sódico, cálcico y magnésico; cloruro sódico y carbonato cálcico; tampoco es extraña la presencia de cloruro de potasio y otros. Cada uno de ellos en proporciones muy variables. Para ilustrar esta variedad sirvan estos ejemplos de tierras salitrosas que se recolectaban en la India y Ceilán en los primeros años del siglo XX (Thorpe, 1923. Pág. 680-684):

Si usted necesita comprar salitre purificado, encontrará en la siguiente enseñanza cómo comprar salitre de Venecia sin que le estafen. Esta enseñanza es en particular importante cuando usted compra salitre importado de Venecia. Elija un envase (lleno de salitre) y empuje su mano dentro. Si se moja entonces no está bien; si la mano permanece seca entonces está bien (MS 362, folio 78v). Más adelante insisten en la desconfianza: Es especialmente difícil comprar salitre correctamente limpio y purificado si viene de Venecia (MS 362, folio 79r). Azufre y carbón no presentaban demasiados problemas, eran fáciles de conseguir, pero el salitre, resultado de la purificación de la sal petrae descrita

41

Conocidas las substancias más frecuentes en la sal pétrea, para entender lo que ocurre en los procedimientos del DFWB, es necesario conocer las solubilidades de cada una de ellas a cada temperatura. Recordemos que la solubilidad de una sal, a una temperatura dada, es la máxima cantidad de ella capaz de mantenerse en disolución sin precipitar, es decir, la concentración de su solución saturada. Se expresa en gramos de sal disueltos en 100 gramos de agua.

3. Concentrar la disolución mediante ebullición suave. 4. Enfriar hasta la cristalización de la sal más insoluble. 5. Decantar o filtrar, y secar al sol la sal obtenida. Es decir, el salitre purificado no es más que el resultado de la primera cristalización de una mezcla

de sales. Pero, ¿cómo se describen estos procesos en el manuscrito? Veamos la traducción del primer método, el más simple:

Por tanto, de las sales frecuentes en la sal pétrea, la más soluble es el nitrato cálcico, que a temperatura ambiente (20ºC) es capaz de mantener disueltos casi 129 g en 100 g de agua, es decir, en la práctica será imposible alcanzar la concentración de saturación a no ser que evaporemos la disolución casi hasta sequedad. De hecho el nitrato cálcico es tan higroscópico y delicuescente que la simple humedad ambiental lo disuelve. En esas mismas condiciones, 20ºC, de nitrato potásico «sólo» se disuelven 31’6 g en 100 de agua. Esa diferencia es la característica básica para separar estos nitratos entre sí; sólo habría que evaporar la solución hasta alcanzar y superar la concentración de saturación del nitrato potásico. Cuando se enfríe hasta temperatura ambiente cristalizará el exceso de esta sal para esa temperatura. Todos los métodos para la purificación del salitre (entendemos por esto la obtención de nitrato potásico a partir de la sal pétrea) que se describen en DFWB, repiten con pequeñas variantes –a veces muy significativas– estos pasos:

Si quiere purificar salitre recién recogido, tome tanto como tenga y póngalo en agua hirviendo. El vino es en realidad mejor que el agua, el vinagre fuerte mejor que el vino. Muévalo con un palo de madera y luego déjelo enfriar. Entonces vierta el licor por un paño espeso para que se quede limpio. Entonces ponga el mismo licor sobre un fuego y déjelo hervir como se cocina el pescado. Y luego fíltrelo por un paño fino. Y después de que usted lo haya filtrado, déjelo enfriar. Entonces el salitre formará agujas; ahora escurra el agua o el vino o el vinagre y saque el salitre, y séquelo muy bien; así estará bien (MS 362, folio 75v). Es, evidentemente, un proceso muy imperfecto porque no se indican las proporciones relativas de sal pétrea y disolvente, y tampoco el punto final de la ebullición. De esta manera sería una cuestión de suerte conseguir la cristalización del nitrato potásico. De hecho así lo advierten:

1. Disolver la materia prima en caliente, con agitación. 2. Decantar o filtrar en caliente para desechar insolubles. 42

A menudo resulta que el salitre no se forma después del hervor. Esto pasa si uno ha usado demasiada agua, vino o vinagre... (MS 362, folio 75v).

Si las gotas se queman bien e intensamente, y dan llamas azules entonces el salitre (que se obtendrá de ella) es bueno (MS 362, folio 78r).

Esta indefinición se corrige en sucesivas recetas y demuestra la evolución temporal del manuscrito y los diferentes redactores que tuvo. Primero, acotando las proporciones relativas...

Es decir, sabían que al quemar algunas gotas de una disolución, el color de la llama indica qué es lo que contiene. Sin buscarlo, estaban ensayando la espectroscopia de emisión, que consiste en excitar los elementos contenidos en una muestra mediante una fuente de energía adecuada para que emitan radiación visible y ultravioleta. Las longitudes de onda emitidas (el color) son características de los elementos presentes, y la intensidad de la radiación depende en parte de las concentraciones. Que la llama sea azul es debido a una presencia masiva de cationes potasio en disolución. Los de calcio habrían dado una coloración roja-anaranjada; y los de sodio la darían amarilla. Es decir, los alquimistas que escribieron el manuscrito alemán buscaban, sin lugar a dudas, nitrato potásico para confeccionar la pólvora que hacía disparar su primitivo cañón.

...tome tanto (salitre) como tenga [póngalo] en una marmita y lo hace nivelar. Entonces tome un palo de madera y mida [la altura de] el salitre. Cuando lo haya hecho, haga una señal en la madera, y otra tres dedos encima de ella. Ahora tome vinagre bueno y llene hasta alcanzar la señal más alta (MS 362, folios 77v y 78r). NOTA: En todas las citas extraídas del manuscrito, las notas entre [corchetes] son las aportaciones del traductor inglés al texto original. Entre (paréntesis) las aportaciones del autor para completar o mejorar la comprensión de los procedimientos.

Pero, al margen de los flujos de separaciones, otra prueba inequívoca para asegurar que el salitre buscado era el potásico se la debemos a las malas artes comerciales de los venecianos. Gracias a ello conocemos varias de las enseñanzas que el maestro artillero ofrece a sus aprendices para detectar el fraude, y de paso nos dice que el salitre que buscaban era nitrato potásico y nunca el cálcico. Una de ellas dice así:

Y segundo, fijando el final de la ebullición, es decir, la concentración adecuada para favorecer la cristalización cuando baje la temperatura de la disolución... ...Entonces ponga tanto salitre como quiera en una marmita y le añade bastante de esta lejía para cubrir justamente el salitre. Mézclelo como se ha descrito antes y el (nivel de) agua hirviendo baja hasta la mitad (MS 362, folio 77r).

Ahora una instrucción sobre cómo habría que separar y purificar salitre si ha sido mezclada sal gema con el salitre purificado. Si usted quiere separar la sal del salitre purificado, tome el salitre (supuestamente impuro) y ponga agua fría sobre él, de modo que el salitre se cubra sólo lo justo. Pero primero debería medir [el nivel de] el salitre con un palo de madera antes de añadir el agua. Entonces la sal se disolverá y el salitre permanecerá en el agua fría, porque el salitre no es fácilmente soluble en el agua fría y permanece (en agua fría). Escurra el agua [con la sal], elimínela filtrando el salitre, y séquelo en el sol. Entonces será bueno. (MS 362, folio 77r)

LA ESPECTROSCOPIA DE EMISIÓN EN EL AÑO 1382 Ya sabemos que si la sal pétrea contiene nitrato potásico, es la primera sal que cristaliza. ¿Pero cómo sabían que esos carámbanos congelados que aparecían al enfriarse la marmita era el bueno y poderoso salitre que buscaban? Evidentemente, era bueno si la pólvora que confeccionaban con él era poderosa... pero llegaron a saberlo en mitad del proceso de purificación, antes incluso de cristalizar:

Esta receta sólo tiene sentido si el salitre es nitrato potásico. Porque si hablásemos de una mezcla de nitrato cálcico y sal común, al añadir agua fresca, se disolvería inmediatamente, y en primer lugar, el

...tome el palo que ha usado para mover la solución y un poco de la solución de salitre de la marmita y rocíe un carbón encendido. 43

nitrato y permanecería intacta la sal. Cuestión de solubilidades. Cuando se dice: el salitre no es fácilmente soluble en el agua fría y permanece, ¡no pueden estar hablando del nitrato cálcico! Sin lugar a dudas, el salitre del que se habla en el manuscrito DFWB es potásico.

de la solución de salitre (aunque el traductor inglés no lo sitúa, se refiere a la solución de una receta anterior que resulta de separar por decantación la primera cristalización de salitre). Este es el mejor modo, y muy necesario, para limpiar el salitre (recuperar el salitre que permanece disuelto después de la primera precipitación). Lo explico así: el salitre atrae la sal común. Funciona de la misma manera que la sal silvestrum [carbonato de potasio] o el alumbre, que se añade al salitre para aumentar la cantidad... (MS 362, folio 77v78r)

CENIZAS VEGETALES Sin embargo, Kramer y Leibnitz aseguran con insistencia que el manuscrito habla únicamente de nitrato cálcico, cuestión que no compartimos: Se refiere (el manuscrito DFWB) exclusivamente al nitrato cálcico y confirma la conclusión de que el nitrato potásico, no higroscópico, se utilizó en la fabricación de pólvoras sólo hacia mediados del siglo XVI. Esta sorprendente aportación queda establecida en el manuscrito. (Kramer, 2001. Pág. 13)

Ca(NO3)2 + 2AlK(SO4)2 CaSO4+ Al(SO4)3 + 2KNO 3 CONCLUSIONES En nuestra opinión, el estudio de la alquimia del salitre contenida en DFWB descubre dos detalles que alteran otros tantos hitos temporales en la historiografía de la pólvora:

Kramer y Leibnitz sostienen que se comenzó a usar nitrato potásico a mediados del XVI, coincidiendo con la generalización del método descrito por Biringuccio (Pirotecnia, 1540) y Agrícola (De natura fossilium, 1546). Este procedimiento, efectivamente, consiguió cristalizar todos los nitratos presentes en la disolución (cálcico, magnésico, sódico, etc.) como nitrato potásico, pero de ningún modo supuso su primera obtención.

1. En contra de lo afirmado por Leibnitz y Kramer, desde finales del S. XIV el salitre que se utilizó para confeccionar pólvora fue nitrato potásico. En ningún caso el manuscrito describe métodos para obtener nitrato cálcico. 2. El uso de cenizas vegetales ricas en sales potásicas para aumentar el rendimiento en la obtención de nitrato potásico, atribuido a Biringuccio y Bauer, no es un método que se iniciara a mitad del S. XVI. Está descrito a finales del XIV en DFWB

El método consistía en añadir una lechada de cenizas vegetales a la disolución de sal pétrea. Es decir, añadían carbonato potásico en medio alcalino para provocar la precipitación inmediata de carbonato cálcico y favorecer la formación de nitrato potásico cuando las condiciones de saturación se dieran: Ca(NO3)2 + K2CO3

BIBLIOGRAFÍA Bauer, Georg (Jorge Agrícola). «DE NATURA FOSSILIUM», 1547. Biringuccio, Vanoccio. «PIROTECNIA», 1540. Traducción de C.S.Smith y M.T. Hundí, 1943, Basic Books, Nueva York. Kramer, Gerhard W. «THE FIREWORK BOOK: Gunpowder in Medieval Germany». London, 2001. Thorpe. «ENCICLOPEDIA DE QUÍMICA INDUSTRIAL». Barcelona, 1923.

CaCO3 + 2KNO3

Sin embargo, en DFWB consiguen el mismo aumento del rendimiento con alumbre (sulfato doble de aluminio y potasio); pero incluso sabían que cuando se añade carbonato potásico (la sal silvestrum) al salitre, aumenta la cantidad, es decir, incrementaban el rendimiento de la receta... aunque yerren en la explicación. (MS 362, folios 77v-78r): Tome comla [no identificado] o alumen yspanitum [alumbre español, un producto natural], vitriolum romanum [alumbre de potasa romano], y sal commune [sal gema, NaCl] y póngalo [sic] en el segundo hervor

Miguel Ángel López Moreno Laboratorio de Pólvoras de la Armada Base Naval de Rota e-mail: [email protected]

44

ALGUNOS AVANCES EN LA CIENCIA FORENSE Mónica Díaz López

un veneno muy raro. Las dioxinas son éteres cíclicos unidos a dos anillos bencénicos parcialmente clorados y el TCDD es la 2,3,7,8-tetraclorodibenzo-paradioxina. Podemos mencionar que el TCDD es un subproducto de la producción del Agente Naranja, el nombre con el que se conocía un herbicida utilizado en la guerra de Vietnam (1967-68) como defoliante de las zonas selváticas. Se llamó así debido a la banda naranja adherida a los bidones donde se almacenaba el pesticida. El Agente Naranja estaba formado por una mezcla al 50% de dos herbicidas con grupos fenoxi: el ácido 2,4-diclorodifenoxiacético y el ácido 2,4,5-triclorofenoxiacético.

El ciudadano en general está cada vez más informado sobre la aplicación de la ciencia para resolver crímenes, debido principalmente a la proliferación de programas de televisión (documentales y series de ficción) y por informaciones en la prensa escrita sobre casos relevantes. Actos de terrorismo, aumento del uso de las armas de fuego, tráfico y abuso de drogas, conducción bajo los efectos de sustancias prohibidas, son sólo algunas de las noticias que aparecen frecuentemente en la prensa y en la que la ciencia forense puede ser muy útil. El despegue del interés en esta ciencia viene marcado por el hito de aplicar la comparación del ADN en 1985 para la identificación de personas.1 Este método tiene una naturaleza muy específica por lo que el margen de error es muy bajo y ha permitido la excarcelación de muchos condenados inocentes y la inculpación de muchos sospechosos que sin esta prueba estarían libres. Existen otros muchos métodos bioquímicos (de ensayos con enzimas específicos), médicos (relacionado con autopsias, reconstrucción de restos humanos, etc), entomología, etc., que no lo vamos a tratar en esta revisión. Aquí solo vamos a abordar algunos avances en técnicas forenses analíticas que pueden permitir unir al sospechoso (o materia a analizar) con la escena del crimen o la víctima.2 El lector puede consultar textos generales donde se da una introducción muy buena sobre la ciencia forense.3,4

La cantidad de sustancia tóxica a identificar suele ser muy baja del orden de los nanogramos o en el mejor de los casos de microgramos. Por ello se necesitan técnicas con límites de detección muy bajos para poder analizar estos problemas. En el caso de análisis de elementos pesados (p. ej. mercurio o plomo) en alimentos o fluidos del cuerpo se suele utilizar técnicas como la fluorescencia de rayos-X o bien ICPMS (espectrometría de masas con fuente de plasma acoplado) e ICP-AES (espectroscopia de emisión atómica con fuente de plasma acoplado).

Toxicología. El trabajo del toxicólogo forense es identificar la presencia de drogas y venenos en fluidos del cuerpo, tejidos, órganos o en muestras en general (p. ej. alimentos o bebidas). Un caso muy conocido fue el envenenamiento del candidato Victor Yushchenko a las elecciones presidenciales de Ucrania en diciembre de 2004. En las figuras adjuntas se ven dos fotos del Sr. Yushchenko antes y después del envenenamiento. En la cara se detecta claramente el cloracné. Los análisis en Ucrania fueron negativos pero un equipo de forenses austriacos (de Viena) identificaron en su sangre la dioxina TCDD que es

Cuando el tipo de droga es desconocido, se suelen hacer inmunoensayos con enzimas «screening» y si el test da positivo se puede extraer la droga para 45

confirmarla y cuantificarla. Las drogas se puede clasificar inicialmente como ácidas (p. ej. los barbitúricos), básicas (p. ej. las anfetaminas, cocaína y metadona) y neutras (p. ej. morfina y opiáceos). Esto es importante ya que para extraer al analito adecuadamente hay que controlar el pH del extracto de la disolución. Actualmente se utiliza mucho la extracción en fase sólida (incluso más que la líquida) porque se puede automatizar y ya venden equipos que lo hacen de forma estandarizada. Una vez que se ha extraído la droga se suele por métodos espectroscópicos: normalmente espectrometría de masas acoplada a un cromatógrafo de gases (GCMS) o de líquidos (LC-MS o HPLC-MS). Esta confirmación es esencial ya que los métodos de «screening» no son totalmente específicos y pueden identificar familias de drogas pero no el derivado en cuestión.

delirio, amnesia, deterioro de la función motora y graves problemas respiratorios; III) ROHIPNOL (fluinitrazepam). Es un medicamento de ROCHE ilegal en EEUU pero legal en Europa de uso sedantehipnótico, relajante muscular. Su uso puede producir amnesia y convulsiones debido a abstinencia entre personas adictas. Se han determinado niveles (muy bajos) de estas drogas en sangre de mujeres asaltadas por LC-MS. Sin embargo, debemos destacar que todos los estudios indica que el alcohol es la «droga» más usada. Análisis de drogas. Hay muchos tipos de drogas y las familias más frecuentes en el análisis forense son: cannabis, anfetaminas, benzodiazepinas, heroína y cocaína. En la calle, estas drogas suelen estar «cortadas»(adulteradas) por lo que también se deben analizar las sustancias que las acompañan y que no son inocuas en todos los casos. El análisis consiste en la identificación de la molécula, después su cuantificación y en algunos casos, hay que realizar comparaciones entre drogas para establecer relaciones.

Para finalizar este apartado deberíamos mencionar unas drogas que han aparecido frecuentemente en la prensa estos últimos años, nos referimos a aquéllas denominadas «date-rape» o violación en la primera cita (también conocidas como drogas de asalto sexual por el acompañante). Normalmente estas drogas son mezcladas con alcohol y administradas alevosamente. Son principalmente tres: I) GHB (gammahidroxibutirato) que prácticamente no tiene olor ni sabor. Era un compuesto usado por levantadores de pesas para estimular el crecimiento muscular. También hay gente que la toma de forma consciente en fiestas normalmente junto al éxtasis. Los usuarios informan que induce un estado de relajación. Los efectos pueden sentirse entre 5 a 20 minutos después de ingerirse y la euforia puede durar hasta cuatro horas. En EEUU esta droga esta prohibida por sus efectos secundarios (que incluyeron náuseas y vómitos, así como problemas respiratorios, convulsiones y en algunos casos hasta coma) y cualquier persona que posea, manufacture o distribuya GHB puede enfrentar hasta 20 años de cárcel; II) KETAMINA (clorhidrato de ketamina o vitamina-K) que se usa en veterinaria para tranquilizar a los animales. La ketamina líquida fue desarrollada a principios de los años 60 como anestésico para uso quirúrgico y utilizada en los campos de batalla de Vietnam como anestésico. La ketamina en polvo surgió como droga recreativa en los años 70 y se conocía como «Vitamina K» en los 80. Resurgió en los años 90 en el ambiente de fiestas «rave». Esta droga produce alucinaciones profundas que incluyen distorsión visual y pérdida de percepción del tiempo, la sensibilidad y la identidad. Su uso puede resultar en profundos problemas físicos y mentales incluidos

Las muestras de cannabis llegan al laboratorio de tres formas, como hierba, resina o aceite. El principal ingrediente activo psicológicamente es el delta-9-THC (tetrahydrocannabinol). Primero se procede a producir un extracto con etanol. Luego, los componentes se identifican y cuantifican con GC-MS pero hay que producir derivados para hacerlos volátiles. Por ello, actualmente se utiliza más la técnica HPLC-MS, ya que se pueden identificar y cuantificar directamente los compuestos del extracto sin necesidad de producir derivados. La familia de anfetaminas incluye la metilanfetamina (anfetamina) que es un anoréxico; y los entactógenos (generadores de contacto intersubjetivo que al tener efectos empáticos facilitan las relaciones interpersonales) 3,4metilenedioxi-anfetamina (MDA) y 3,4-metilenedioxiN-metil-anfetamina (MDMA, éxtasis). Estas drogas tienen estructuras químicas similares a hormonas y neurotransmisores como la dopamina, epinefrina (adrenalina), y norepinefrina (noradrenalina). Compuestos muy relacionados con los anteriores son la efedrina y la pseudoefedrina (broncodilatadores) y el bupropión y la venlafaxina (antidepresivos). Estas drogas se pueden identificar por GC-MS o RMN (resonancia magnética nuclear) pero se suelen cuantificar por HPLC-MS. Las benzodiazepinas son fármacos y por tanto su uso controlado es legal y normalmente no se consumen cortadas. Generalmente se encuentran en pastillas con información sobre el fabricante. Si hay 46

dudas se suelen analizar por cromatografía en capa fina. Estos compuestos se pueden analizar po GCMS directamente, es decir sin necesidad de producir derivados. La cuantificación se realiza por HPLCUV (con detección ultravioleta/visible). La heroína (diacetilmorfina) se obtiene acetilando la morfina que se aísla de la amapola del opio. La pureza de la heroína varía mucho en la calle aunque en promedio ronda el 35% en peso. Las dos formas de heroína mas comunes son la base que es insoluble en agua y la sal que es soluble en agua. Probablemente el SIDA ha sido el causante del cambio de hábitos de consumo de esta droga, ya que a principios de los 90 se traficaba principalmente la sal soluble para ser inyectada y actualmente se trafica más con la base que se fuma. La identificación inicial de estas drogas se realiza con el reactivo de Marquis que reacciona con los opiáceos para dar un color azul-violeta (este ensayo se ve mucho en las películas). GC-MS necesita producir derivados volátiles, por lo que se suele cuantificar con HPLC-MS que solo necesita solubilizar la heroína en el disolvente adecuado (dependiendo de la forma en que haya sido preparada).

interferir el test colorimétrico (aquí tiocianato de cobre) por difracción de rayos-X de polvo (DRXP). Finalmente, debemos mencionar una técnica analítica relativamente novedosa que está encontrando mucha aplicación en ciencia forense, se trata de la espectrometría de masas de relaciones de isótopos estables (SIRMS). 5 En este caso, la muestra se transforma a gases simples, p. ej. CO2, N2, CO, H2 y SO2, que se introducen en un espectrómetro de masas dual junto a un gas producido a partir de un material de referencia. Se conoce las abundancias de los isótopos más comunes 13C/12C 11000 ppm, 2H/1H 158

ppm, 15N/14N 3700 ppm, 18O/16O 2000 ppm y 34S/32S 42000 ppm. Ahora bien, dependiendo del origen de la droga se observaron pequeñas desviaciones. Ahora se han medido estas relaciones en diferentes regiones del mundo y a partir de las pequeñas variaciones de estos cocientes se puede acotar el origen de la droga. Por ejemplo, se puede distinguir cocaína producida en diferentes regiones de Suramérica.6

La cocaína es un compuesto natural que se extrae de la hoja de la coca. La cocaína es una droga estimulante y altamente adictiva. El polvo de clorhidrato de cocaína (conocido como nieve por su color blanco) se puede inhalar o disolver en agua para inyectárselo. El crack es la cocaína que no ha sido neutralizada por un ácido para convertirse en clorhidrato de cocaína. Este tipo de cocaína viene en forma de cristales que se pueden calentar y cuyos vapores se pueden fumar o bien esnifar. El término «crack» se refiere al crujido que se oye cuando se calientan los cristales. Estas drogas se cortan en la calle y los adulterantes más comunes son manitol, glucosa, talco e incluso yeso. Un test rápido para la cocaína es el isocianato de cobalto pero no es totalmente específico. Una versión modificada más específica es el test de Scott que da un cambio de color. En las aduanas se intenta identificar los compuestos que puedan tener cocaína colorimétricamente pero los narcotraficantes añaden sustancias para que no den esta reacción. La cocaína negra es aquella que no da la reacción colorimétrica por estar enmascarada químicamente. El análisis cuantitativo de las muestras con cocaína se suele realizar por GC-MS.

Suelos. La tierra es una de las evidencias potencialmente más útiles para unir a un sospechoso con la escena del crimen. Esto se debe a que la tierra o barro se puede pegar a los zapatos o ropas de sospechoso y víctima por lo que permite establecer un vínculo. Sin embargo, esta prueba presenta dificultades de interpretación ya que el margen de error es relativamente alto. Inicialmente se identificaban los suelos por el color y las propiedades de textura pero estas propiedades no son muy concluyentes. Otras variables que ayudan son: el pH del suelo, su conductividad, la presencia de restos orgánicos como raíces de plantas que pueden dar idea de la profundidad de esa tierra, etc. También se puede medir su composición elemental con técnicas como ICP-AES para disminuir el error en las comparaciones, pero muchas tierras tienen composiciones elementales no muy diferentes. Sin embargo, la técnica DRXP está cambiando este panorama al permitir la identificación y cuantificación de los minerales presentes en el suelo, con lo que el margen de error en la identificación del suelo baja mucho. Los difractogramas de los compuestos

En el ejemplo siguiente (del laboratorio forense de la Dirección General de la Policía en Madrid) se identifica la cocaína y la sustancia añadida para 47

cristalinos son como el ADN de los seres vivos y permiten su identificación con errores muy bajos.

Residuos de la descarga de armas de fuego. Los gases y las partículas que se generan al disparar un arma de fuego se conocen como residuos de la descarga de armas de fuego (FDR, que es el acrónimo en inglés). Para comprender la información que puede dar el análisis de las muestras de FDR es necesario saber el contenido de un cartucho típico. Un cartucho tiene tres componentes: iniciador, la carga propulsora (propelente), y el proyectil (la bala). El iniciador, en un extremo del cartucho, se enciende por el golpe del percutor del arma, y arde rápidamente. Esto enciende/explota la carga propulsora que arde muy rápidamente produciendo un gran volumen de gases que fuerza a la bala a salir por el cañón. Por tanto, cuando se dispara un arma hay dos efectos: a) la bala sala hacia delante; y b) los residuos FDR (del iniciador y propelente) salen hacia el que dispara y hacia la víctima. Por esto, la disposición y análisis de las muestras FDR se puede usar tanto para ayudar a identificar al tirador (o personas cercanas) como para estimar la distancia entre el arma y la víctima.

En la figura adjunta (del laboratorio de ciencia forense de Stuttgart) se muestra el difractograma de una tierra donde se produjo un tiroteo junto al difractograma de la tierra de las suelas de unos zapatos de un sospechoso. Se puede observar la coincidencia en los picos de difracción de las diferentes fases cristalinas (arcillas, cuarzo, calcita, etc.) lo que significa que se puede establecer un vínculo, con muy poco error, entre las dos muestras analizadas por DRXP. Debemos destacar la utilidad de la técnica de DRXP no solo en el análisis de suelos sino en todas aquellas muestras sólidas que tengan fases cristalinas, ya que permite identificar y establecer correlaciones. Por ejemplo se puede utilizar en el análisis de pinturas ya que aunque los polímeros y pigmentos orgánicos suelen ser amorfos, los aditivos que llevan (p. ej TiO 2 o talco) son cristalinos. En un accidente de coche con huida del infractor, suele quedar restos de pintura del choque. Esta muestra es analizada por

Los iniciadores suelen ser sustancias inorgánicas y los propelentes orgánicas. Una composición típica de un iniciador es: estifnato de plomo (explosivo), sulfuro de antimonio (combustible) y nitrato de bario (oxidante). El propelente suele ser un polvo que no provoque humo y que normalmente contiene nitrocelulosa y en algunos casos nitroglicerina. El propelente no suele arder completamente y deja restos que contienen moléculas que no han reaccionado mientras que el iniciador forma vapores que se condensan para dar partículas esféricas huecas que contienen elementos inorgánicos (Pb, Sb, Ba) muy buenos para identificar los FDR, ya que normalmente no están presentes en los tejidos. Las técnicas para identificar estos elementos inorgánicos (procedentes de los iniciadores) son variadas, pero podemos destacar la microscopía electrónica de barrido con análisis por energía dispersiva (SEM-EDS). Hay munición que no contiene plomo (p. ej. sintox) pero contiene Zn y Ti por lo que también se puede identificar con facilidad. Los restos orgánicos procedentes de los propelentes hay que extraerlos en primer lugar(generalmente a vacío) después separarlos (p. ej. con una técnica cromatográfica, HPLC, GC) y luego analizarlo por detección amperométrica o espectrometría de masas. Las muestras se pueden recoger de la escena del crimen y de los tejidos a analizar con cinta adhesiva.

espectroscopía infrarroja pero la DRXP también permite establecer vínculos entre el resto de pintura y la pintura del coche del sospechoso. Otro ámbito de uso relacionado de la DRXP es en el análisis de muestras de las paredes en particular y de sustancias cristalinas en una casa en general (yeso, talco, calcita, etc.). Estas partículas pueden quedar retenidas/impregnadas en la ropa del asaltante y se pueden analizar mediante micro-difracción de rayos-X lo que permite establecer que el sospechoso estuvo en la escena del crimen mediante el cotejo de esos posibles restos y los que se recogen cuidadosamente de la escena del crimen por personal especializado (para evitar contaminaciones cruzadas).

48

Explosivos. Debemos mencionar la diferencia entre explosivo primario y secundario. Los explosivos primarios son aquellos que detonan fácilmente produciendo calor y una onda de choque que puede detonar el explosivo secundario (generalmente más estable). Por esto, los explosivos primarios son usados como iniciadores o detonadores y se inflaman por fricción, chispa eléctrica, alta temperatura, percusión, etc. Los explosivos primarios más comunes son estifnato de plomo, azida de plomo y fulminato de mercurio. Los explosivos secundarios detonan por la onda de choque generada por los primarios y descomponen instantáneamente en compuestos más estables (generalmente gases). Ejemplos de explosivos secundarios son: TNT (trinitrotolueno); RDX (ciclonito), PETN (tetranitrato de pentaeritrol), y TABT (triaminotrinitrobenceno).

BIBLIOGRAFÍA 1.- P. Gill, A. J. Jeffreys, D. J. Werrett, Nature 1985, 318, 577-579. 2.- D. F. Rendle, Chemical Society Reviews 2005, 34, 1021-1030. 3.- «Crime Scene to Court: The Essentials of Forensic Science» ed. P.C. White, Royal Society of Chemistry, Cambridge, 2a Edición, 2004. 4.- R. Saferstein «Criminalistics: An Introduction to Forensic Science» 8a Edición, Pearson Prentice Hall, New Jersey, EEUU, 2004. 5.- Advances in Forensic Applications of Mass Spectrometry, ed. J. Yinon, CRC Press, Boca Raton, USA, 2004.

El químico forense encara dos desafíos muy diferentes en el casos de análisis de explosivos en función de que la explosión no haya tenido lugar (identificación del explosivo) o bien estudio de los restos de las explosiones. El primer caso es el mas sencillo ya que técnicas como la DRXP permite identificar los explosivos con una sola medida. También se pueden utilizar otros métodos incluyendo la espectroscopía infrarroja y la RMN. El caso de los análisis de los residuos de las explosiones es mucho más difícil y debe ser muy cuidadoso. En primer lugar se deben tomar las muestras lo antes posible y minimizar las posibles contaminaciones. Se pueden hacer análisis en la escena de los atentados con un aparato de espectroscopía de iones móviles (IMS). El aparato provoca vacío sobre las superficies que se sospechan que están contaminadas con restos de explosivos. Se vaporizan los residuos aplicando calor, y la moléculas se cargan eléctricamente por contacto cercano con las partículas-b emitidas por una lámina de 63Ni. Estas moléculas cargadas son detectas de forma rápida y con alta sensitividad. Sin embargo, estos ensayos en la escena deben ser corroborados con técnicas más selectivas en el laboratorio (p. ej. HPLC-MS).

6.- J. R. Ehleringer, J. F. Casale, M. J. Lott and V. L. Ford, Nature 2000, 408, 311–312.

Mónica Díaz López [email protected] CP de Educación infantil, primaria y secundaría Daidin. Benahavis. Málaga.

Para finalizar, debemos destacar las dos misiones de la química analítica forense: Identificar y comparar. Los análisis, si son posibles y no demasiado caros, deben ser cuantitativos. Los avances van dirigidos a nuevas técnicas para detectar y analizar nuevos compuestos y a disminuir los errores en las técnicas que ya se utilizan puesto que dan lugar a identificaciones y pruebas con mayor fiabilidad. Agradezco la colaboración de Miguel Ángel García Aranda en la preparación de este artículo. 49

FLORA Y VEGETACIÓN DE LAS COSTAS DE ANDALUCÍA, PROBLEMÁTICA Y PERSPECTIVAS DE CONSERVACIÓN José Carlos Báez Barrionuevo

En los casi 918 km de costa que posee Andalucía (desde la desembocadura del Guadiana hasta su límite nororiental con la provincia de Murcia) existen distintas condiciones geomorfológicas, litológicas y biogeográficas, que han dado lugar a una gran variedad de ecosistemas costeros, donde se concentra una flora muy particular. Sin embargo, la ley de costas de 1988, no ha sido suficiente para proteger esta flora. En la actualidad se encuentran 6 taxones amenazados como en peligro o vulnerables, más otro probablemente extinguido en las costas de Andalucía. La flora litoral se refiere al conjunto de especies adaptadas a ambientes salinos (halofilia), secos (xerofilia) y ricos en nitrógeno (nitrofilia) típicos del dominio marítimo, lo que conllevan adaptaciones de tipo morfológico y fisiológico. Entre ellas se establece un gradiente florístico desde las zonas más cercanas al mar hasta las más alejadas en su límite con la vegetación climatófila típica de cada lugar.

durante el periodo de los temporales. La flora que se asienta en esté tipo de costa se encuentra entre el límite superior donde alcanza la salpicadura del agua (entre 3 y 4 m por encima del nivel del mar) y la cima, por tanto además de ser ambientes salinos, ricos en nitrógeno y muy secos, son ambientes rupestres con suelos muy poco desarrollados (Nieto et al., 1997). Las especies más representativas son: Asteristicus maritimus (Compositae), Crithmum maritimum (Umbelliferae) y especies del género Limunium (Plumbaginaceae), todas son caméfitos no leñosos. Las especies del género Limunium presentes en las costas de andalucía son L. emarginatum, en la provincia de Cádiz, L. malacitanum, entre marina del este y Torremolinos, y L. delicatulum en la provincia de Almería. Durante los últimos años es posible ver fanerófitos leñosos cerca de la costa, se tratan de Nicotiana glauca (Solanaceae) y Ricinus communis (Euphorbiaceae) especies alóctonas de gran amplitud ecológica capaces de colonizar los ambientes más dispares. Carpobrotus acinaciformis (Aizoaceae), es un caméfito siempre verde naturalizado, muy típico de jardines de escaso riego, fácil de reconocer por las hojas carnosas, curvadas y de sección triangular, y grandes flores de color rojo. Estas especies foráneas representan un impacto negativo para la flora autóctona de acantilados litorales, ya que compiten por el espacio y los recursos. Al contrario que las costas de ablación, que guardan todas un mismo patrón paisajístico, las costas de acumulación son muy dispares en su fisionomía. Existen: marismas, estuarios, deltas y acumulación de áridos (playas de arenas, guijarros y/o gravas), en las zonas más cercanas a la orillas se encuentran: Cakile maritima (Cruciferae) y Salsola kali (Chenopodiaceae) (Nieto et al., 1997). Por encima del límite de las mareas, en playas de acumulación de arena, por coalescencia de la arena, se forma la duna marginal o embrionaria, muy vulnerable a la acción de los vientos, en esta se desarrolla un pastizal psammofilo anual, las especies más comunes son: Elymus farctus (Gramineae) y Sporbolus pungens (Graminae) (Nieto et al., 1997). Hacia el interior, en

En Andalucía se pueden encontrar dos tipos fundamentales de costas: costas de abrasión y costas de acumulación. Las costas de ablación son aquellas sometidas a la erosión directa del mar, son fundamentalmente acantilados, es decir, escarpa vertical litoral de pendiente abrupta y acusada. Pueden ser vivos, cuando su base se encuentra sumergida, o muertos, cuando la ablación marina ha dejado una pequeña playa de guijarros y arena, que suele desaparecer 50

las crestas de la primera banda de dunas semimóviles se pueden encontrar Ammophylla arenaria (Gramineae) y Eryngium maritimum (Umbelliferae) (Pérez et al., 1997). En costas abiertas de acumulación eólica se forman deposiciones de arena de altura variada en forma de media luna y perpendiculares a los vientos dominantes, estas reciben el nombre de cordón de dunas litorales o dunas costeras (Borja, 1997), entre dos frentes de dunas se forman pequeñas depresiones, denominadas corrales, que son colonizadas por multitud de especies psammofilas como: Linaria tursica (Scrophulariacea), Malcomia lacera (Cruciferae), Arenaria algavensis (Graminaceae), Erodium aethiopicum (Geraniaceae), Evax pygmea (Compositae), Ononis baetica (Leguminosae), Linaria viscosa (Scrophulariacea). Sobre las dunas estabilizadas se encuentran otro conjunto de especies como: Nolletia chrysocomoides (Compositae), Corema album (Empetraceae), Malcomia littorea (Cruciferae), Rubia peregrina (Rubiaceae), Sideritis perezlarea (Lamiaceae), estás especies forman distintas comunidades que asientan el sustrato reduciendo su movilidad y reteniendo la arena no dejando que el viento la arrastre al interior, además constituyen la orla natural de los fanerófitos leñosos de costas de deposición. Otras especies comunes en costas de deposición son: Glacium flavum (Papaveraceae), Lobularia maritima (Cruciferae), Lotus creticus (Leguminosae), Medicago marina (Leguminosae) y Centaurea sphaerocephala (Compositae), algunas de estas especies pueden encontrarse en bordes de caminos. Esta serie de condiciones favorecen que en el margen exterior del cordón de dunas litorales se desarrollen macrofanerófitos leñosos. En el margen exterior del cordón de dunas litorales en la costa de Andalucía occidental se encuentra un bosque de Pinus pinea (Pinaceae), que constituye una barrera protectora de la acción eólica. Estas formaciones boscosas son las únicas de esta especie en la Península Ibérica, por lo que se ha dudado de la formación natural de estos bosques achacándolo a repoblaciones en épocas pasadas. Está especie se encuentra en otras partes de Andalucía, de forma natural, disperso entre carrascales (Pinus halepensis). Las especies típicas del matorral del pino piñonero son: Erica scoparia (Ericaceae), Juniperus oxycedrus subsp. macrocarpa (Cupressaceae), Juniperus phoenicea subsp. turbinata, Halimium commutatum (Cistaceae) y H. halimifolium. Entre los municipios almerienses de El ejido y Roquetas de Mar se conserva el mejor sabinar costero de España formado por Juniperus

phoenicea subsp. turbinata (Cupressaceae), desde Punta Entinas a Punta Sabinar formando pequeños bosques a los que se añaden: Asparagus acutifolius (Liliaceae), Pistacea lentiscus (Anacardiaceae), Rosmarinus officinalis (Lamiaceae) y Rubia peregrina (Rubiaceae). La Unión Internacional para la Conservación de la Naturaleza (UICN) desde hace más de dos décadas se ha destacado en la elaboración de criterios de evaluación del riesgo de extinción de una especie. Estos criterios han servido de base para establecer los primeros planes de conservación de muchas especies en el mundo. Dentro del grado de «amenaza» existen tres categorías: en peligro y vulmerable (Blanca, 1999-2000) (Comisión nacional de protección de la naturaleza, 2004). En peligro critico se sitúan aquellas especies que se considera su supervivencia a corto plazo poco probable, en esta categoría se incluyen las especies que han sufrido una regresión grave (> 80%) de su población en los diez últimos años, su área de distribución es inferior a 100 km2 y el número de individuos es inferior a 250.

Para ser incluida en esta categoría en peligro, las especies han debido de sufrir una regresión grave (> 50%) de su población en los diez últimos años, su área de distribución debe de ser inferior a 5000 km2 y el número de individuos ser inferior a 2500. En la categoría de vulnerable se incluyen las especies que corren el peligro de pasar a la categoría anterior por haber sufrido una seria regresión (> 50%) de su población en los veinte últimos años. Corema album, fanerofito de profusa ramificación, su área de distribución en Andalucía se restringe a la provincia biogeográfica Gaditano-OnuboAlgarviense. El principal riesgo al que se enfrenta está especie es la presión turística. Se encuentra catalogado «en peligro de extinción». 51

Juniperus oxycedrus subsp. macrocarpa, se trata de un macrofanerófito leñoso catalogado «en peligro de extinción», su área de distribución en Andalucía se restringe a la provincia biogeográfica Gaditano-Onubo-Algarviense. Los principales riesgos a los que se enfrenta este taxón son: talas indiscriminadas, efecto negativo de repoblaciones con pinos, incendios, predación por herbívoros sobre plantas jóvenes y presión humana por proliferación de los núcleos costeros.

Nolletia chrysocomoides, terófito endémico de la cuenca occidental del Mediterráneo, se ha citado puntualmente en Andalucía de la que se cree extinguida debido a los profundos cambios que ha sufrido el litoral de la costa del sol por la presión urbanistica y turística. Sideritis perezlarae, es una mata perenne de base leñosa, ramosa, con tallos delgados, flexuosos, de hasta 50 cm, se trata de un endemismo de las costas de Cádiz. El principal riesgo al que se enfrenta es la presión turística. Se encuentra catalogado «en peligro de extinción». Las medidas de conservación que se han planteado siguen dos vías: in situ y ex sito. La primera se desarrolla en los propios habitas de la flora a conservar, la unidad de conservación de esta vía debería de ser la comunidad. Las principales vías de actuación de las acciones in situ son el aclarado de pinares, para facilitar la expansión, creación de cortafuegos, limitación del acceso a vehículos y creación de superficies mínimas de espacios de uso público. Las técnicas o vías ex situ son aquellas que se desarrollan espacialmente fuera del hábitat de la planta, a su vez se pueden dividir en acciones donde no se manipula el espécimen de forma directa y en las que si. La primeras incluyen los instrumentos jurídicos y de gestión de espacios naturales, su unidad de protección es la comunidad. Las acciones ex situ donde se manipula directamente el material vegetal van encaminadas a la conservación de las plantas en cultivos o su propagación asistida (mediante la recolecta y siembra de semillas y/o otros propágulos) y/o artificial, su unidad de conservación son las especies y las poblaciones. Está ultima técnica de conservación se basa en la capacidad que presentan las células totipotenciales de los meristemos vegetales de regenerar una nueva planta en condiciones de asepsia. No obstante, la estrategia de conservación integrada es la consecución más eficaz. Además, es necesario efectuar una revisión de los instrumentos jurídicos y programas a nivel internacional, regional y local, frente a la conservación y la equidad ambiental, social y económica. Una posible solución a corto plazo para salvaguardar las principales poblaciones de plantas litorales amenazadas podrían ser las «microrreservas». Se denominan microrreservas botánicas a superficies pequeñas de terreno (incluso inferiores a 1Ha) que pueden establecerse en lugares con alta concentración de plantas amenazadas, como medida para su protección. Un ejemplo interesante lo constituye la Comunidad Valenciana, donde existe una red de estas microrreservas botánicas, que facilitan la

Limonium malacitanum, camefito siempre verde catalogado «en peligro de extinción», su área de distribución se encuentra entre Marina del Este (Granada) y Torremolinos (Málaga). Los principales riesgos a los que se enfrenta son la construcción de caminos y paseos alrededor de acantilados (Como por ejemplo el del Cantal, Rincón de la Victoria), construcción de urbanizaciones, visitas incontroladas, regeneración de playas, recolecciones de inflorescencias para ornamentación, competencia con flora alóctona, acumulación de deshechos. Limonium emarginatum, camefito siempre verde catalogado «vulnerable», su área de distribución se restringe a ambos lados del estrecho de Gibraltar. Los principales riesgos a los que se enfrenta es que no goza de ningún tipo de protección, ya que las principales poblaciones se encuentran fueras de zonas protegidas. Sin embargo, gracias al menor desarrollo urbanístico que ha sufrido el estrecho, debido fundamentalmente a la importancia estartegica-militar que presenta la zona. Linaria tursica, terófito poco ramificado, su distribución coincide prácticamente con los límites del Parque Nacional de Doñana, lo que favorece su conservación. Se encuentra catalogado «vulnerable». 52

conservación y gestión de la flora sin que ello suponga un coste económico o social elevado (DOGV, 1994). En la microrreserva queda prohibida cualquier actividad que conlleve un daño a las plantas, incluida la recolección de cualquier tipo de material vegetal que tenga una finalidad diferente a la científica. Las principales conclusiones sobre la conservación de ambientes costeros, señalan la necesidad de crear una conciencia colectiva de todos los usuarios de la costa hacia el problema de conservación, por lo que es necesario desarrollar un conocimiento más profundo del problema en la sociedad (Patillo, 1997).

DOGV (1994). DECRETO 218/1994, de 17 de octubre, del Gobierno Valenciano, por el que se crea la figura de protección de especies silvestres denominada microrreserva vegetal. Nº 2379 de 03.11.1994. Diario oficial Gobierno Valenciano. NIETO, J. M. et al. (1998). El Cantal (Rincón de la Victoria). págs: 381-386. En: REBOLLO, M. et al. (Eds.). Itinerarios por los espacios naturales de la provincia de Málaga. Universidad de Málaga-Delegación de Educación. PATTILLO, J. (1997). El borde costero, una visión de la subsecretaría de marina y perspectivas para áreas marinas protegidas. Estud. Oceanol. 16:3-11. PÉREZ LATORRE, A. V. (1998). Dunas de Marbella (Cabopino, Marbella). págs: 387-392. En: REBOLLO, M. et al. (Eds.). Itinerarios por los espacios naturales de la provincia de Málaga. Universidad de Málaga-Delegación de Educación. VELASCO, C. et al. (1997). Guía botánica de Benalmádena. Ed. Ayuntamiento de Benalmádena. Área de Medio Ambiente. Málaga, Benalmádena 227 pág.

BIBLIOGRAFIA BLANCA, G. et al. 1999-2000. Libro rojo de la flora silvestre amenazada de Andalucía. (III tomos). Junta de Andalucía. BORJA, F. (1997). Dunas litorales de Huela (SW de España). Tipología y secuencia Pleistoceno superior Holoceno. En: Cuaternario Ibérico. Asociación Española para el estudio del Cuaternario. COMISIÓN NACIONAL DE PROTECCIÓN DE LA NATURALEZA (2004). Criterios orientadores para la inclusión de taxones y poblaciones en catálogos de especies amenazadas. Ministerio de medio ambiente, Madrid. COSTA-TENORIO, M. et al. (Eds.) (1998). Los bosques ibéricos: una interpretación geobotánica. Planeta, Barcelona.

Páginas web: //herbarivirtual.uib.es/

José Carlos Báez Ldo. en Biología, trabaja en el Instituto Español de Oceanografía, Centro Oceanográfico de Málaga y es colaborador en Universidad Málaga.

53

GÉNESIS, DESARROLLO Y TIPOS DE CIRCOS GLACIARES Anchel Belmonte Ribas Le expliqué lo que era un glaciar y conseguí despertar su interés. Le conté que debía reformarse, pues un hombre que no creía ni en Dios ni en los glaciares debía ser malvado, por no decir el peor de los incrédulos. John Muir. Viajes por Alaska (1890).

aunque existen multitud de equivalentes en distintas lenguas tanto españolas (rincón o rinconada en aragonés, circ en catalán) como extranjeras (corrie o cwm en gaélico, leído «cuum», Hambrey, 1995). La mayoría de autores definen un circo como una depresión rodeada por una pared rocosa, arqueada en planta, de fondo plano afectado por erosión glaciar mientras que parte de sus paredes se han desarrollado por erosión subaérea (Benn y Evans, 1997). No todos los circos glaciares encajan plenamente en esta definición, ya que –por ejemplo- los fondos pueden ser en rampa y el grado de arqueo de sus paredes es francamente variable. En la salida de los circos suele haber una zona escarpada –umbrales- que pueden represar, una vez desaparecido el glaciar, aguas de deshielo y escorrentía originando una laguna (ibón en aragonés, estany en catalán, tarn en inglés). Esta puede colmatarse dando lugar a una turbera (Foto 1).

Los circos son, con seguridad, la morfología más conspicua dentro de las asociadas a la actividad glaciar, tanto activa como fósil. Fáciles de identificar, presentes en todos aquellos puntos donde ha existido glaciarismo alpino, e incluso en áreas de salida de glaciares de casquete, plantean no obstante algunos problemas a la hora de establecer su génesis y patrón de desarrollo. Los estudios morfométricos, realizados en diferentes montañas del mundo desde hace más de 35 años, no siempre dan respuesta a las preguntas planteadas aunque sí permiten acotar los problemas y dar aproximaciones razonables a la solución de estos enigmas que duermen en lo más alto de las regiones alpinas. El término «circo» La palabra circo, término que proviene del francés cirque, es de uso general en todo el mundo,

Foto 1. Lago de origen glaciar en el Circ de Colomers (Valle de Arán, Lérida). Se observa el umbral que represa las aguas, la cubeta parcialmente colmatada y material morrénico disperso por el entorno. 54

Conviene diferenciar los circos de las cubetas de sobreexcavación, que aunque pueden presentar morfologías similares, su origen es distinto ya que las segundas se forman generalmente al confluir dos o más lenguas glaciares sobre una misma zona. A su formación puede coadyuvar la presencia de un sustrato con litologías fácilmente erosionables o la existencia de debilidades tectónicas. El desarrollo de los circos está condicionado por múltiples factores, cuyo peso en la morfología final varía en función del área que estudiemos. Algunos ejemplos son los siguientes: · Orientación: influye en el aporte de nieve que recibe el glaciar tanto por precipitaciones como por alimentación eólica de la nieve ya caída. Además controla la insolación que sufre el hielo. · Estructura: la presencia de fracturas importantes puede condicionar la distribución, dibujo y grado de desarrollo de los circos. · Relieve preglaciar: difícil de estimar (Evans y Cox, 1995) ya que casi todos sus indicios suelen haber sido borrados por la propia erosión glaciar. · Tiempo de permanencia del hielo en el circo: resulta sencillo saber cuándo se ha producido la deglaciación pero es complicado aproximarse al número y duración de fases glaciares antiguas. · Tipo de glaciar que ha originado la geoforma: los mecanismos de erosión en el caso de glaciares templados (alpinos) o polares son diferentes y también el tipo de aparatos a los que acostumbran a dar lugar (glaciares de valle y de casquete respectivamente). En zonas donde el glaciarismo se desarrolla en climas a priori poco propicios, como por ejemplo los Pirineos o Sierra Nevada, es necesario introducir un matiz importante a la hora de discernir posibles circos glaciares. Y es que todas las morfologías que consideremos circos han debido ser área fuente de hielo para algún glaciar. Sin embargo, no todas las áreas fuente de hielo tienen necesariamente morfología de circo. Los ejemplos en las montañas españolas con impronta climática mediterránea son frecuentes (Belmonte Ribas, 2003).

puede ser muy grande (kársticas, estructurales, etc…) y la existencia de varios episodios de ocupación glaciar o nival añaden más matices a la situación ideal planteada. El retroceso de las paredes, en las zonas de exposición subaérea, ocurre principalmente por procesos de hielo-deshielo, generadores de carga sedimentaria para el transporte glaciar y responsables del modelado afilado de las crestas que rodean al circo (Belmonte Ribas, 2005). La superficie de pared que permanece bajo el hielo, así como el fondo del circo, se ven afectados tanto por la tracción que ejerce el hielo al avanzar en contacto con el substrato, como por la acción de las aguas de fusión que circulan –en los glaciares templados- en la interfase hielo-roca. Además de estos procesos físicos, pueden invocarse otros de meteorización química, como la disolución kárstica en el caso de circos desarrollados sobre litologías calcáreas. Aunque las bajas temperaturas nos sugieren una ralentización o detención de los fenómenos kársticos en alta montaña, diversos estudios indican la coexistencia de ambos procesos morfogenéticos tanto en los Pirineos (Belmonte Ribas, 2001, 2004) como en los Alpes (Souchez y Lemmens, 1985) o en los Picos de Europa (Smart, 1986). Clasificación En Benn y Evans (1997) se recogen cinco categorías de circos glaciares que procedemos a resumir: 1. Circos simples: morfologías independientes nítidamente delimitadas de otras de su entorno (Foto 2).

Origen de los circos Aunque el espectro de situaciones posibles es amplio, se asume que los circos glaciares se originan a partir de depresiones previas, como los nichos de nivación, que se van agrandando progresivamente por retroceso de las paredes y ahondamiento del fondo. Sin embargo, la variedad de depresiones preexistentes

Foto 2. Circo simple, con un ibón en su fondo represado por una morrena, en el Valle de Benasque, Huesca.

55

2. Circos compuestos: formados por la coalescencia de dos circos de similares dimensiones. 3. Circos complejos: contorno polilobulado por la presencia de más de dos circos en una sola cabecera. 4. Circos escalonados: dos o más circos situados uno encima de otro (Foto 3).

Otros factores como la litología y las directrices estructurales de la zona deben cruzarse con los parámetros ya citados de cara a una completa caracterización del área estudiada. De dichos análisis se desprende, con carácter general pues no existe unanimidad en varios aspectos, que la orientación (Embleton y Hamann, 1988) y la estructura geológica (Benn y Evans, 1997) son determinantes a la hora de definir la ubicación y desarrollo de un circo. Evolución postglaciar Una vez que la ablación del aparato glaciar se ha completado, los circos inician una nueva etapa en su evolución geomorfológica. En función del régimen climático pueden alojar glaciares rocosos en su seno (Foto 4), dando salida así al habitualmente importante volumen de clastos generados en sus paredes, donde es frecuente que continúen los procesos de crioclastia y, por tanto, su retroceso erosivo. La actividad ligada a condiciones periglaciares da también lugar a acumulaciones de clastos en forma de canchales. Su proliferación puede incluso afectar a la conservación de la primitiva forma glaciar.

Foto 3. Circos escalonados en el alto Valle de Benasque, Huesca.

5. Circos artesa: el circo señala en este caso el límite superior de una artesa. Es preciso señalar que estas situaciones teóricas permiten diversas combinaciones en la realidad, no siendo necesariamente excluyentes unas de otras.

Como ya se ha comentado al principio, las cubetas de fondo de circo son susceptibles de alojar lagunas que, a medida que se colmatan, evolucionan hacia turberas. Por último, en zonas de litologías calcáreas son notables los fenómenos kársticos. El agua de fusión nival, excepcionalmente agresiva con la caliza, profundiza las cubetas (que deben denominarse glaciokársticas) y siembra de dolinas los replanos de fondo de circo, desfigurando en ocasiones las formas originales.

Análisis morfométricos El estudio de los circos glaciares de un macizo o de una cordillera se suele enfocar desde un punto de vista morfométrico. De este modo se caracterizan la totalidad de circos de un área pudiendo obtenerse relaciones estadísticas entre los distintos parámetros medidos. Aunque dichos parámetros varían en función del autor que acomete el estudio, suelen medirse los siguientes: -Longitud (L): medida desde la cresta hasta el umbral de salida en la dirección de flujo del hielo. -Anchura (W): máxima distancia en la perpendicular a la longitud. -Profundidad (H): Desnivel entre el pico más alto que cierra el circo y el umbral. -Ángulo entre la pared del circo y su fondo. -Orientación. -Área. Las relaciones L/W y L/H, relacionadas con la orientación suelen aportar datos expresivos acerca de la influencia de ésta en el grado de desarrollo de los circos.

Conclusiones Los circos glaciares, morfología característica de las áreas de montaña en las principales cordilleras del mundo, son lugares donde se ha acumulado hielo que alimenta o alimentó a un aparato glaciar. Su origen suele estar asociado a depresiones previas, esencialmente nichos de nivación, que posteriormente van siendo agrandados mediante procesos de crioclastia (paredes) y arrastre y meteorización química (fondo). De todos los factores que influyen en su génesis y desarrollo, la orientación y la estructura geológica del substrato parecen ser los más determinantes.

56

Foto 4. Circo de Sarrato, sobre los Baños de Panticosa (Valle de Tena, Huesca). Se observa un glaciar rocoso en su fondo y varios canchales y conos de derrubios tapizando las paredes del circo.

Benn, D.I. y Evans, D.J.A. (1997). Glaciers and Glaciation, Arnold, Londres, 734p. Embleton, C. y Hamann, C. (1988). A comparison of cirque forms between the Austrian Alps and the Highlands of Britain. Zeitschrift für Geomorphologie, Suppl.-Bd. 70, 75-93. Evans, I.S. y Cox, N.J. (1995). The form of glacial cirques in the English Lake District, Cumbria. Zeitschrift für Geomorphologie, 39-2, 175-202. Hambrey, M. (1995) Glacial Environments. UCL Press, Londres, 296p. Smart, P.L. (1986). Origin and development of glacio-karst closed depressions in Picos de Europa, Spain. Zeitschrift für Geomorphologie, 30-4, 423443. Souchez, R.A. y Lemmens, M. (1985). Subglacial carbonate deposition : an isotopic study of a present-day case. Paleogeography, Paleoclimatology, Paleoecology, 51, 357-364.

Una vez retirado el hielo, la superposición de otros modelados sobre el glaciar puede dar lugar a la pérdida de frescura de las formas iniciales, lo que ocurre sobre todo en ambientes de periglaciarismo y karst activos. BIBLIOGRAFÍA Belmonte Ribas, A. (2001). Análisis geomorfológico del macizo de Cotiella (Pirineo oscense). Instituto de Estudios Altoaragoneses, 134pp. (y un mapa). Inédito. Belmonte Ribas, A. (2003). La extensión máxima del glaciarismo en el macizo de Cotiella (Pirineo oscense). Boletín Glaciológico Aragonés, 4: 69-90. Belmonte Ribas, A. (2004). Aportaciones a la geomorfología del Macizo de Cotiella (Pirineo Oscense). Lucas Mallada, 11: 25-40. Belmonte Ribas, A. (2005). El paisaje altoaragonés: una aproximación desde la geología. Cuadernos Altoaragoneses de Trabajo, 26, Instituto de Estudios Altoaragoneses, Huesca, 84p.

Ánchel Belmonte Ribas I.E.S. Bajo Cinca. Mequinenza (Zaragoza).

57

MOVIMIENTO DE PARTÍCULAS CARGADAS EN UN CAMPO MAGNÉTICO UNIFORME Rafael Quintana Manrique

1.

tres pilas alcalinas de 4,5 V, conectadas en serie para generar el campo magnético.

Introducción.

La siguiente experiencia (1) forma parte de una serie que utilizo para que mis alumnos de Física de 2º de Bachillerato observen fenómenos que habitualmente sólo se describen de manera teórica en el aula de un instituto. Una de las premisas de que parto es el que las experiencias sean sencillas y puedan ser construidas fácilmente por los alumnos, sin materiales o aparatos costosos. La otra, que tengan un cierto grado de variación en algún parámetro para que puedan llevar a cabo una cierta experimentación autónoma. 2.

Placa superior: con una lámina de papel de aluminio cortada del grosor de la placa y colocada en la parte interior de la placa (Foto 2). Se sujetará con una pinza

Objetivo de la experiencia.

Con la experiencia se pretende que los alumnos observen cómo es el movimiento de partículas cargadas eléctricamente (iones en este caso) en presencia de un campo magnético más o menos uniforme y que lo comparen con el movimiento en ausencia del mismo. También deben estudiar y observar cómo influye un cambio en el sentido del campo y cómo influye la carga positiva o negativa de los iones. No se pretende un análisis cuantitativo riguroso, difícil para estos niveles, aunque se intentó (de hecho, se realizaron estimaciones de la masa de los iones OH- en movimiento a partir de la corriente en el solenoide y del voltaje aplicado en la electrólisis, pero los resultados estaban muy por encima del valor real y no eran reproducibles; esto lo interpreto por la solvatación de los iones y la asociación con las moléculas del indicador). 3.

de cocodrilo que actuará de contacto eléctrico, aunque al verter la disolución se adhiere por capilaridad a la pared de vidrio. Electrodo de platino. Sujeto mediante un soporte de laboratorio, se apoya en el punto medio de la placa de Petri superior (Foto 3). Lleva adherido un trozo de tubo de plástico abierto por una lado, para dar salida a los iones sólo por ahí.

Construcción del aparato.

Consta de dos placas de Petri de vidrio. Placa inferior: 30 espiras de hilo de cobre esmaltado de 0,5 mm arrolladas en el borde exterior de la placa (Foto 1). Para que no resbale sobre el vidrio, es conveniente pegar una capa de fixo o similar, al igual que entre capa y capa del devanado. Finalmente, para fijar todo, aplicar una capa de cola blanca y dejar secar. Los extremos del alambre se lijarán para permitir un buen contacto eléctrico. Se conectará a 58

4.

Montaje.

polaridad en la electrólisis y cambio de indicador, se usó anaranjado de metilo). Eliminación del tubito de plástico adherido al electrodo central. Uso de un electrodo de grafito en lugar de platino. Aumento de la intensidad del campo magnético.

Sobre la placa inferior se coloca la placa superior. En ésta se vierte una disolución de la sal indicada (la concentración no es crítica, se trata sólo de dar conductividad al agua) con unas gotas de fenolftaleína. Se apoya el electrodo de platino como se ha indicado. Éste se conecta al polo negativo de una fuente de alimentación (o varias pilas en serie, mínimo 12 V) y el polo positivo se conecta a la pinza que sujeta el papel de aluminio (Foto 3). Todo el montaje se puede realizar encima de un retroproyector para su visualización a toda la clase.

5.

Desarrollo de la experiencia.

7.

Una vez conectada la corriente, comienza la electrólisis del agua. En el polo negativo (electrodo central), se genera hidrógeno gaseoso y deja iones OH-, que viajan hacia el polo positivo del borde de la placa de Petri. Los iones OH- se hacen visibles con fenolftaleína. Si el campo magnético no está conectado, los iones, en forma de fluido violeta, van uniformemente hacia el borde. Pero si se conecta los iones comienzan a desplazarse en espiral debido a la acción de la fuerza magnética. El sentido de giro, horario o antihorario, depende del sentido del campo magnético aplicado. Ese cambio se realiza cambiando el sentido de la corriente en el solenoide. 6.

Conclusiones.

La observación de la desviación magnética de partículas cargadas, debido a la fuerza magnética y descrita por la Ley de Lorentz, se puede realizar con esta experiencia sencilla y fácil de montar, con materiales sencillos y presentes en cualquier laboratorio de instituto. La variación del sentido del campo magnético y de la carga de los iones permite realizar interpretaciones mediante la Ley de Lorentz. (Esta experiencia fue premiada con la 1ª Mención de Honor en la modalidad «Demostraciones de Física» del 6ª Certamen Ciencia en Acción celebrado en Tenerife en septiembre de 2005, y formó parte de la representación española en el 4º Science on Stage, en el CERN de Ginebra).

Variaciones del experimento.

La descripción realizada aquí es la que permite una óptima observación del fenómeno, fundamentalmente por el excelente contraste que da el color violeta de la fenolftaleína; no obstante, se sugirieron a los alumnos algunas variaciones que pusieron en práctica con el material que disponía el laboratorio y que tuvieron que explicar, por ejemplo: generación de iones positivos en lugar de negativos en el centro de la cápsula (inversión de la

Referencias bibliográficas (1) The Royal Society of Chemistry « Experimentos de Química Clásica», Ed. Síntesis, 2002. Rafael Quintana Manrique I.E.S. Doctor Francisco Marín, Siles (Jaén) 59

EL MONOPOLO MAGNÉTICO José Antonio Martínez Pons

experimentando, comprobo que cambiando el sentido de la coreinte también cambiaba el sentido de giro de la aguja.Publicó su descubrimento el 21 de julio de 1820 y no volvió sobre el tema. Pocos días despues , el francés Dominique Arago (1786—1853) comprobó que un cable por el que circulaba corriente también atraía limaduras de hierro y el mismo año André Marie Ampère (1775- 1836) comprobó que si hacia pasar correinte por sendos cables paralelos en el mismo sentido los cables se eatraían y en sentido contrario se repelían. En 1823 William Sturgeon enrolló un cable de cobre en torno a una barra hierro en forma de herradura y al hacer circuar corriente por el hilo de cobre observo que el aparato era capaz de levantar como veinte veces su peso. En 1831 Josep Henry(1797-1878), mejoró la idea aumentado el número de vueltas y utilzando un cable aislado y consiguió un imán más potente capaz de levantar hasta una tonelada de hierro. Michel Faraday (1791-1867) consiguió el efecto contario, introdujo un imán de barra en un soleneoide desconectado de la corriente y por el solenoide circuló corriente eléctrica en un sentdio, cuando lo retiró se prujo en sentido contrario. Faraday continuo experimentando con diferentes dispositivos. La conclusión de este conjuto de experimentos era que electricidad y magenetismo estaban intemamente ligadas.

PRIMERAS INVETIGACIONES Desde que en siglo XII (1269) el francés Petrus Pereginus describió la orientación de las limaduras de hierro cuando se hallaban en la vecindad de la piedra imán y acuñó los términos «polo norte» y «polo sur», las observaciones apuntan a que no importa cuan pequeño sea el imán, siempre poseerá dos polos, norte y sur, será pues un dipolo. La experiencia prueba que si se toma un imán recto este presenta polo norte, polo sur y zona neutra pero si se corta el imán se obtienen dos nuevos imanes con las mismas características (Figura 1).

ECUACIONES DE MAXWELL El estudio de las relaciones entre la electricidad y el magnetismo se inicó por el físico danés Hans Chistian Oersted (1977-1851) quien oponiéndose al pensar mayoritario en su tiempo razonó que si la corriente eléctrica al pasar por un cabe producía calor, pero si el cable se hacia más delgado producía, al pasar por un cable aun más delgado tal vez podría producir efectos magnéticos, Oersted no era un hábil experimentador y desde que tuvo la primer intuición , en 1813 hasta que la verificó, transcurrieron 7 años, concretamente en una conferencia pública sin previa comprobación colocó un cable muy fino de platino sobre una aguja magnética, al conectar la corriente, la aguja se movió un poco, asombrando al propio Oersted. Concluida la conferencia sontinuó

La explicación y cuantificación de estos hechos se deben a James Clerk Maxwell. La descripción matemática de las ideas de Maxwell se resume cuatro ecuaciones diferenciales relativamente sencillas, las llamadas ecuaciones de Maxwell. Para Maxwel (1864) el magnetismo se explica por cargas eléctricas en movimiento de modo que el caso límite, el más pequeño imán sería un electrón orbitando en torno al núcleo y este imán elemental seguiría con una cara norte y una cara sur (Figura 2). Puesto que la materia esta formada por átomos y estos a su vez cuentan con electrones «orbitando» en torno al núcleo se puede decir que cada átomo puede ser un dipolo magnético. A un 60

MODELO DE LAS «MASAS MAGNÉTICAS» Otro modelo hoy día prácticamente en desuso, para explicar el magnetismo, utiliza el concepto de «magnetismo libre», «carga» o «masa magnética»1 y describe la interacción mediante una fórmula, semejante a la de Coulomb para la electrostática, del tipo f =

C

µ

×

mm ′ . en el sistema cegesimal C= 1 y r2

ì (para el «éter», sic en el Chwolson)=1 con lo que

f =

f mm ′ y de ahí H = , inclusive se establecen 2 m r 1

3

las dimensiones de m [m] = M 2 L2 T −1 considerando ì, permeabilidad magnética, es un número adimensional.2 No obstante, en este modelo se advierte que las masas magnéticas, que podrían equipararse a los monopolos «son sustancias ficticias»(sic), que no pueden aislarse.

circuito se le asigna la magnitud momento magnético que el momento se define para un circuito plano como el producto de la intensidad que lo recorre por el vector superficie. En un circuito complejo será necesario descomponerlo en circuitos elementales y proceder a la correspondiente integración. El momento dipolar es pues un vector y en el S.I se mide en A. m2. Normalmente los momentos dipolares elementales se orientan al azar, por tanto a escala macroscópica, se compensan, sin embargo si de alguna manera se produce un cierto grado de orientación, a escala macroscópica aprece un momento resultante no nulo, dicho sea de modo muy elemental, el cuerpo será entonces un imán (Figura 5). Una consecuencia inmediata de la imposibildad de separar los polos magnéticos es que las línes de fuerza, o de campo, magnéticas siempre seran cerradas, en cambio las líneas de campo electrostático pueden ser abiertas (Figuras 3 y 4). Obviamente dividiendo el material la distribución se conservará y volverán a aparecer las correspondientes caras norte y sur.

MONOPOLOS COMO ENTES REALES En 1931 Dirac propuso la existencia de «monopolos magnéticos» es decir imanes con sólo cara norte o con sólo cara sur, con lo que justificaría la cuantificación de la carga eléctrica, generalmente admitida como postulado o hecho experimental. Sin embargo jamás se habían detectado objetos de esta especie. Las masas magnéticas popuestas en el modelo coulombiano adquirirían pues existencia real, no serían meros artificios matemáticos. Se trataba ahora de probar experimentalmente la existencia de tales entes. El físico norteamericano de ascendencia española, Blas Cabrera, hijo de Nicolás, especialista en estado sólido y nieto de Blas, especialista en magnetsimo, lo intentó preparando un elegante experimento utilizando un complejo sistema de anillo superconductor. La idea

61

A LA CAZA DEL MONOPOLO

básica acorde con lo predicho por Paul Dirac es la siguiente, en el campo de la construcción de una gran teoría de unificación de las fuerzas de la naturaleza, tal vez el Santo Grial más buscado por los físicos teóricos, en los 10-35 primeros segundos despues del Big Bang se crearon monopolos magnéticos superpesados 3. Gerrad’t Hoff y Alexandr Poliakov, independientemente hacia 1974 llegaron a la conclusión de que en las grandes teorías de unificación (conseguir explicar todas la interacciones físcas dentro de una única teoría) se deberían incluir la existencia de monopolos. Estos debían ser mostruosamente

El dispositivo preparado por Blas Cabrera II se basaba en la interacción electromagnética de largo alcance de una carga magnética en movimiento con el estado cuántico macroscópico representado por un anillo superconductor y un seguidor de corriente «SQUID» (dispositivo de interferencia cuántica superconductora), insensible a la velocidad, dirección, masa y carga de las partículas que lo atravesaran y que no en inmutaría ante el paso de cargas electricas ni de dipolos mágnéticos pero que daria un profundo salto de la corriente circulante al paso del monopolo a través del supercondutor. El dia 14 de febrero de 1982 (festividad de San Valentín) a las 13,53 registró el salto esperado. Había indicios para pensar que por fin la esquiva partícula había sido «cazada» aunque el experimento de Cabrera puede admitir otras interpretaciones (Figura 6). En cualquier caso, las estimaciones actuales sobre la densidad de monopolos, parecen indicar que la probabilidad de que el dispositivo de Cabrera detecte un monopolo es de uno cada 5000 años. Cabrera lo «cazó» solo a los cuatro meses de instalar su dispositivo, por un parte, tuvo mucha suerte y por otra justificaría el hecho de que no se haya vuelto a producir ninguna nueva captura desde entonces. Sobran comentarios. Finalmente decir que las predicciones iniciales contemplaban la posibilidad de la detección del monopolo mediante un dispositivo de este tipo, y que otra de las implicaciones tóricas que traería consigo la existencia de monopolos superpesados sería la posibilidad de que estos esquivos entes contuvieran «la masa que falta en nuestra galaxia».

pesados, en terminos energéticos como de 10 28 electron voltios, lo que equivaldría unos 1,8·10-12 kg es decir, uno 20 espermatozoides humanos, todos encerrados en una partícula subatómica. Con lo que sabemos hoy no es posible ningún proceso que lo consiga, solo las condiciones que reinaron cuando se produjo el Big-Bang ( si es que se produjo) con la energía altamente concentrada, permiten su formación más o menos 10-34 s después del Gran Pum. En este instante tal vez se formaron muchos monopolos norte y sur que se aniquilaron unos a otros pero alguno no encontró ningún homólogo y sobrevivió y conforme el Universo se fue expenadiendo la probabilidad de choque se hizo menor y en consecuencia la probabilidad de supervivencia, mayor. Estos entes, por ejemplo, deberían existir en los rayos cósmicos y según algunos autores, en proporción relativamente elevada y, debido a su masa se moverían con gran lentitud y escaparían a los habituales detectores de partículas, diseñados para «cazar» partículas que se mueven a velocidades próximas a la de la luz. Esto justificaría que no se les hubiera detectado.

(Footnotes) 1 Véase por ejemplo O.D. Chwolson Tratado de Física. Tomo X. Barcelona 1921 2 La lectura de los viejos textos, otrora clásicos, puede convertirse en apasionante y formativo ejercicio intelectual 3 Carrigan R. A. y Tower P.W. «Monopolos magnéticos superpesados» Investigación y ciencia Junio 1982.

José Antonio Martínez Pons IES Las Lagunas. Rivas Vaciamadrid 62

NANOQUÍMICA Y NANOTECNOLOGÍA Rafaela Pozas Tormo y Laureano Moreno Real

Introducción

vivos, ya que no poseen metabolismo ni organización celular, con lo que nos encontramos en la frontera entre lo inerte y lo vivo. En este sentido hay que indicar que las partículas de los virus tienen la característica del mundo inanimado de formar cristales, ya que estas partículas nanométricas son fundamentalmente de forma y tamaño iguales, con lo que se pueden empaquetar ordenadamente en un cristal. Esta capacidad de autoduplicarse es una propiedad muy interesante para futuros nanosistemas artificiales inteligentes, aunque hoy en día esta idea pertenece al mundo de la ciencia ficción.

Cada día las ciencias en general y la química en particular nos ofrecen un panorama de nuevos caminos en nuestro conocimiento, repercutiendo en mayor o menor medida en el desarrollo de aplicaciones tecnológicas interesantes. Recientemente se está produciendo el despegue de una nueva rama de la química, y en este siglo XXI que acaba de empezar estamos asistiendo a sus principios y a sus posibles aplicaciones. Este campo no es nada nuevo, ya que los principios reales de la nanoquímica los tendríamos que situar en los trabajos de A. Einstein, otra vez este eminente científico, en relación a la justificación del movimiento browniano coloidal: las pequeñísimas partículas coloidales soportan los choques de las moléculas del medio dispersante-agua u otro disolvente. Este estudio demostraba lo que se conoce como la teoría cinético-molecular en relación al movimiento caótico de las moléculas por la agitación térmica. La química coloidal y las nanopartículas son ya el presente real de la nanoquímica, aunque los sistemas coloidales ya se conocían desde varios siglos antes, como los coloides de oro, que vuelven a renacer en estos años por sus aplicaciones. También hay que reseñar la síntesis de zeolitas hacia la mitad del siglo pasado, aluminosilicatos con tamaño de poro controlado y aplicaciones importantísimas en la industria y el laboratorio como tamices moleculares y catalizadores (aquí el aspecto nanométrico está recogido en la forma y el tamaño del poro, no por la estructura cristalina tridimensional e indefinida del silicato). Por otro lado la naturaleza siempre nos ha ofrecido innumerables ejemplos de objetos fabricados con forma adecuada para una función y con dimensiones nanométricas, como las bacterias magnetotácticas. Estas bacterias sintetizan, de forma intracelular, cristalitos asociados de magnetitas de 40 a 80 nm, generando una cadena de perlitas magnéticas con la que estos microorganismos se orientan y se ordenan en su medio de acuerdo al campo magnético terrestre. También tenemos en la escala nanométrica otro ejemplo relevante en las partículas de los virus que tienen la propiedad de autoduplicarse a costa de las células que invaden. Este mecanismo reproductor es lo único que las partículas de los virus tienen en común con los seres

Fig 1. El Dr. Kroto con un modelo molecular del C60. Lo que imaginamos se puede hacer realidad como lo demuestra el primer nanocoche, de tamaño inferior a los 5nm, construido recientemente por investigadores de la Universidad de Rice en Estados Unidos, se trata de un chasis de una sola molécula con forma de H, derivada del feniletileno, cuyas cuatro ruedas son moléculas esféricas de fullerenos C60 (fig1, nueva variedad alotrópica del carbono con forma de balón de fútbol, constituida exclusivamente por sesenta átomos de carbono, descubierta en 1985 por H.Kroto et al.; por este trabajo H.Kroto, R.F.Curl y R.E.Smalley recibieron el premio Nobel de Química en 1996). Este nanocoche puede girar sus ruedas sobre una superficie de oro cuando es estimulado eléctricamente con la punta de un microscopio de efecto túnel (fig2), con lo que podría tener aplicaciones en el transporte de moléculas para las construcciones nanotecnológicas. 63

de interés para aplicaciones muy precisas. Con la nanoquímica podremos construir máquinas moleculares, por lo que los físicos y químicos del estado sólido y los ingenieros dispondrán de «piezas tipo puzzle» a escala molecular para la construcción de dispositivos electrónicos y electro-ópticos, con dimensiones más pequeñas que los fabricados mediante la tecnología de miniaturización actual, la microtecnología del micrómetro (1mm = 1 x 10-6 m, mil veces más grande que un nanómetro). La microtecnología y su miniaturización tiene un limite la llamada «Ley de Moore»: se dejará de cumplir por diversos factores como el físico, ya que la densidad electrónica en un semiconductor es baja en relación a la de un metal; disponemos de un electrón en 1000 nm3 de semiconductor. En menos de dos décadas tendremos chips sin electrones libres, pero también podremos tener problemas de tipo económico que pueden aparecer antes.

Fig 2. El nanocoche con ruedas esféricas de C60. ¿Qué es la nanoquímica? La química siempre se ha ocupado de la escala nanométrica, es el nivel de la materia que interesa al químico: el prefijo nano define sistemas atómicos y/o moleculares mil millones más pequeño que un metro (1 nanómetro = 1 x 10-9 m). El borde de una copa - 1mmvendría bien grande a este mundo, ya que este filo sería un millón de veces mas grande que algo en la nanoescala. Para verlo mejor diremos que en un nanómetro se pueden colocar alineados cuatro átomos de hierro. Ahora bien la tecnología actual ha propiciado, con la ayuda de los modernos microscopios, tanto de efecto túnel y fuerza atómica (STM y AFM), como con los microscopios electrónicos actuales de alta resolución (resolución del orden de 0,2nm), el desarrollo de lo que se conoce como nanotecnología. Horst Störmer, Premio Nobel de Física de 1998, dijo: «la nanotecnología nos otorga las herramientas para experimentar con la más extensa caja de juguetes: los átomos y las moléculas; a partir de ahí, la posibilidad de crear cosas nuevas parece ilimitada». La materia exhibe una serie de propiedades que vienen definidas por el empaquetamiento espacial indefinido de los átomos, es decir del conjunto estructural global de sus átomos, no por sus fragmentos atómicos discretos o moléculas- los ladrillos- que sirven para su construcción. Por ello nos podríamos hacer la siguiente pregunta: ¿hasta qué nivel de escala podemos reducir las dimensiones de una partícula sin prescindir de sus propiedades macroscópicas? Así, una pieza metálica, hilo o placa, conduce la corriente eléctrica, mientras que un solo átomo metálico o un cluster metálico de pocos átomos no lo hace (cluster metálico: cúmulo o conjunto fuertemente enlazado de dos o más átomos metálicos). Es decir, las propiedades de la materia pueden cambiar drásticamente cuando el tamaño de partícula se sitúa entre 1nm y 100nm. Podríamos atrevernos a dar una definición de nanoquímica: diseño y arquitectura con átomos o moléculas, limitado a dimensiones nanométricas, mediante reacciones y técnicas físicas adecuadas, con el fin de crear materiales o dispositivos con funciones

Materiales nanoestructurados Evidentemente las aplicaciones de la nanotecnología no quedan confinadas al campo de los materiales, aunque parece que es el que ha empezado más rápidamente a desarrollarse con la aparición de los materiales nanoestructurados, «nanomateriales»: materiales que poseen al menos una de sus dimensiones en la zona más baja del rango nanométrico, y que esto tiene gran influencia en sus propiedades físicas y químicas. Los materiales nanoestucturados pueden estar formados por fases cristalinas sencillas o múltiples, cuasicristalinas o amorfas, pudiendo ser su naturaleza metálica, cerámica, semiconductora o bien polimérica. Dentro de los materiales nanoestucturados vemos: Ø Materiales nanocristalinos: presentan regularidad en la disposición de una determinada clase de átomos o moléculas. Ø Nanocomposites. Ø Nanoporosos, zeolitas y sólidos porosos con topologías relacionadas. Ø Nanotubos y nanohilos, nanoestructurados 2D (con dos dimensiones en el rango nm). Aquí podemos destacar las potenciales aplicaciones de los nanotubos de carbono o fullerenos tubulares, que pueden ser de composiciones diversas; por ejemplo también se han sintetizado y caracterizado nanotubos de sulfuros metálicos. En principio cualquier compuesto con estructura laminar es susceptible de dar sistemas semejantes a los fullerenos. Ø Materiales laminares nanométricos y nanoláminas, aplicaciones biológicas importantes como membranas. Los sistemas de múltiples láminas nanométricas inorgánicas tienen grandes aplicaciones en dispositivos electrónicos, propiedades ópticas y magnéticas. 64

Abanico de posibilidades de la nanoquímica y de la

Conclusiones

nanotecnología Los campos de aplicaciones de la nanotecnología es muy extenso, y habrá que esperar y trabajar fuertemente para su desarrollo, pero lo que está claro es que las inversiones en nanotecnología en el mundo han ido creciendo de manera constante en los últimos años, ya viéndose resultados para el futuro como las pantallas ultraplanas de los teléfonos móviles o dispositivos de almacenamiento magnético. Más a largo

Son muchas, y podemos decir que todo un mundo paralelo al nuestro se abre allá abajo, interpretando lo que dijo el Premio Nobel de Física R. Feynman en su ya clásica conferencia en el congreso anual de la Sociedad Americana de Física el 29 de diciembre de 1959 «¡Hay muchísimo espacio al fondo!», que se refería lógicamente al nanoespacio. Cuando me refiero a que un mundo paralelo se crea, es que la nanoquímica tendrá repercusiones en muy diversos campos desde la medicina, pasando por todas las ciencias, y recalando en las diferentes ingenierías, y no nos podemos imaginar los logros que se podrán alcanzar con su desarrollo; algunos hablan incluso de la nanoenergía o de la nanociencia del medioambiente entre otras. Las perspectivas que se presentan son sorprendentes y será posible en un futuro conseguir avances que ahora nos parecen de ciencia ficción. También hay que decir que actualmente viene siendo normal que el término nanotecnología reúne tanto al conjunto de conocimientos científicos básicos como sus aplicaciones reales o de futuro. Las principales líneas en las que la nanoquímica y la nanotecnología exhibirán su mayor potencial serán:

plazo se podrán diseñar sistemas que funcionen bajo computación cuántica, autoensamblado molecular, injertos precisos de moléculas orgánicas en polímeros o sobre superficies, etc La nanotecnología es multidisciplinar con la participación de la Química, Física, Ciencia de Materiales, Medicina, Ingeniería, Biología, y las Ciencias de la Computación, por lo que el esfuerzo de algún o algunos campos pueden tener consecuencias inmediatas en los demás, generando un efecto multiplicador que habrá que estimular. Evidentemente todo está por hacer, pero la nanotecnología es ya una realidad como podemos ver en sus productos y materiales afines, así como en el número de científicos que investigan en esta nueva ciencia y los presupuestos cada vez mayores que los países más desarrollados dedican a esta tecnología emergente.

1) Transmisión y almacenamiento de la información: nanoelectrónica, optoelectrónica, materiales magnéticos. 2) Nanomateriales: cerámicas y materiales nanoestructurados, nanotubos, nuevos materiales recubiertos con nanopartículas, etc.

BIBLIOGRAFÍA 3) Nanobiotecnología: encapsulado y dosificación local y precisa de medicamentos.

U. Schubert and N. Hüsing. «Synthesis of Inorganic Materials»,Wiley-VCH 2005. M.DiVentra, S.Evoy and J.R.Heflin Jr (ed).»Introduction to Nanoscale Science and Technology», Kluwer Academic Pub., 2004. G.A.Ozin and A.C.Arsenault. «Nanochemistry. A Chemical Approach to Nanomaterials»RSC Pub., 2005. http://www.encuentrosmultidisciplinares.org/Revistanº12/ Indice%20nº%2012%20-%202002.htm

4) Nanosensores. Se está trabajando en el desarrollo de nanosensores que pueden detectar, en poco tiempo e in situ, muy bajas concentraciones de drogas en la sangre de un deportista. También recientemente una empresa canadiense ha informado que uno de sus equipos de investigación ha logrado la detección y cuantificación de pequeñas cantidades de bacterias con el uso de los nanosensores. 5) Nuevos sistemas catalíticos y electroquímicos basados en la nanotecnología.

Rafaela Pozas Tormo, Profesora del IES Puerto de la Torre (Málaga). Laureano Moreno Real, Catedrático de Química Inorgánica de la UMA.

6) Producción, conversión y almacenamiento de energía 7) Tratamiento y depuración de aguas y soluciones a la contaminación del aire

65

INTRODUCCIÓN AL USO DEL GPS José Luís Bermúdez García María Dolores Peinado Cifuentes

total. Si utilizamos dos satélites obtenemos que el receptor se encuentra sobre una circunferencia que resulta de la intersección de las dos esferas. Si adquirimos la información de un tercer satélite, la nueva esfera solo corta a la circunferencia en dos puntos, uno de ellos se descarta por absurdo al dar una posición sobre elevada, y el otro seria el correcto. Pero, dado que la sincronización exacta entre el reloj interno del GPS y de los relojes atómicos de los satélites, no es precisa, la posición no es correcta. Este hecho nos obliga a utilizar un cuarto satélite, que minimizaría el error de sincronización entre los relojes, y nos da una posición en 3 dimensiones (latitud, longitud y altura), bastante buena que se encontria dentro de un pequeño volumen que hay que tratar de reducir a un solo punto.

El GPS, tan en auge en los últimos años, constituye el receptor de un sistema global de posicionamiento. Cada vez tiene más utilidades tanto en el campos científico como personal. a) Los elementos que componen un sistema de recepción GPS son: 1. Sistema de satélites, formado por 21 satélites operativos y 3 de repuesto en órbita sobre la Tierra a unos 20.182Km, abastecidos por paneles solares. Completan su orbita cada 12 horas, sincronizados de tal manera que un mínimo de 6 satélites puedan ser recibidos a la vez desde cualquier punto. 2. Estaciones terrestres, envían información de control a los satélites para controlar las órbitas y mantenerlos sincronizados. Esta formado por una serie de estaciones situadas a la altura del Ecuador y distribuidas más o menos uniformemente (Hawai, Ascensión, Diego García, Kwajalein), a su vez coordinadas por un centro principal de control en la base aérea de Falcon (Colorado, USA). 3. Receptores, que nos indican la posición en la que estamos, entre otras cosas, conocidas como unidades GPS. A grandes rasgos podemos diferenciar unidades portátiles de pequeño tamaño, fijas, normalmente de un tamaño un poco mayor (coches y barcos) y profesionales para trabajos de gran detalle por parte de ingenieros etc... Con una gran cantidad de marcas, prestaciones y precios.

Las fuentes de errores en los GPS, es variable y principalmente depende de: 1. Retrasos en la señal por contaminación en la ionosfera y troposfera. 2. Rebotes en la señal por edificios, montañas, bosques, humedad, etc.. 3. Errores orbitales, los datos de las orbitas de los satélites no son precisas. 4. Número de satélites visibles en ese momento, puede cambiar según posición y hora del día, es conveniente un mínimo de 8 satélites visibles. 5. Geometría de los satélites visibles, si se encuentran cerca de la horizontal los errores son mayores. 6. Errores locales en el receptor del GPS, reloj interno, software utilizado o estado de la pila. 7. Hora del reloj del GPS, ya que informa del Huso horario donde se encuentra el receptor.

b) Funcionamiento: Los receptores de GPS, miden la distancia a los satélites, y usa esta información para calcular su posición. Esta distancia se mide sencillamente, calculando el tiempo en que la señal tarda en llegar al receptor. Conocido este tiempo y sabiendo que la velocidad de la luz es de 300.000 Km/s (salvo correcciones), la única incógnita es la distancia. Cada satélite indica que el receptor se encuentra en un punto en la superficie de una esfera con centro en el propio satélite y de radio la distancia

Además de estos errores hay que añadir el concepto de Disponibilidad selectiva, debido al carácter militar del sistema GPS, el departamento de Defensa de los Estados Unidos, se reserva la posibilidad de incluir un cierto grado de error aleatorio en las medidas: entre 15 y 200 metros. En la actualidad este error solamente es aplicado a determinadas zonas

66

«conflictivas» anteriormente hasta el 2 de mayo del 2000 se aplicaba a todo el planeta. Para poder evitar estos errores se utilizan los GPS diferenciales, estos se basan en la existencia de una estación base en tierra, con coordenadas muy bien definidas, que recibe señales de los satélites, calcula su posición con los datos recibidos de los satélites, y dado que su posición es fija la diferencia entre las posiciones, nos dará el error, y esta corrección se manda a un receptor GPS mediante cualquier tipo de señal. Con este método se pueden conseguir errores menores a los 2 metros. Estas correcciones se pueden obtener también mediante satélites independiente de los militares americanos, como es el EGNOS (programa Galileo) de Europa, WASS de Estados Unidos, y MSAS Japonés. La precisión de los GPS puede tener una doble lectura, es necesario que sea la mayor posible para casos de localizaciones muy precisas y urgentes como puedan ser accidentes de tráfico o personas heridas, en cambio la precisión también va a depender del mapa que utilicemos para leer la posición, donde la medida mínima que podamos leer es muchísimo mayor que la precisión del GPS, a modo de ejemplo en un mapa 1:50.000, 1mm son 50 metros de la realidad por lo tanto un error de posicionamiento de 10 ó 15 metros no es significativo.

Es un sistema empleado en todo el mundo, fundamentalmente por su uso militar. El sistema representa un punto por dos coordenadas X,Y. La coordenada X o «easting» (este) y la coordenada Y o «northing» (norte). El sistema UTM divide el globo terráqueo en 60 husos (numerados del 1 al 60), franjas verticales que dividen la tierra (cada una de estas franjas o husos corresponden con 6º de longitud). Cada uno de estos 60 husos, a su vez, se divide en 20 zonas horizontales, 10 zonas en el hemisferio Norte y 10 en el hemisferio Sur, y a cada una de estas zonas le corresponde una letra. La península ibérica está dividida en tres husos: 29, 30, 31 y dos zonas: T y S. Cada una de estas zonas tiene su origen de coordenadas UTM, por esto siempre se nos pide el huso por el que nos vamos a mover y que denominaremos como: 29T, 30T, 31T, 29S, 30S, 31S. Como ya hemos dicho las coordenadas UTM, se pueden designar por su coordenada X , Y ó por sus coordenadas Este y Norte, como referencia la X en una resolución de 1 m, siempre será una cifra de 6 dígitos, mientras que la coordenada Y en resolución de 1 m, siempre será una cifra de 7 dígitos. Si la tierra fuese una esfera perfecta, podríamos utilizar cualquiera de los dos alegremente, pero de todos es sabido que la tierra se ensancha hacia el ecuador y que este ensanchamiento no se produce de una manera uniforme (es irregular) es en este momento donde debemos introducir el concepto de esferoide y asemejar la tierra a un sólido de revolución obtenido a partir de una elipse de referencia (que es elegida por cada país según el que más se asemeje a su forma). Los parámetros necesarios para definir un elipsoide son tres: Radio polar = b Radio ecuatorial = a Aplastamiento = f = (a - b) / a El elipsoide utilizado por los GPS en su recepción y transmisión de datos a programas de software por defecto es el WGS 84 (Sistema Geodésico Mundial), en España los mapas utilizan el elipsoide Datum Europeo 1950 (ED-50) y en las Islas Canarias el elipsoide Pico de las Nieves, el software de los GPS permite cambiar entre diferentes Elipsoides.

Los sistemas de posicionamiento más clásicos son: a) Sistema de coordenadas geográficas. Este sistema divide la tierra en una serie de anillos imaginarios paralelos al ecuador (paralelos) y otros de círculos perpendiculares a los mismos que convergen en los polos (meridianos). El origen de las coordenadas se sitúa en el punto donde se corta el ecuador con el primer meridiano, el llamado meridiano de Greenwich. Las posiciones quedan definidas como las interacciones entre un paralelo y un meridiano. Por encima del Ecuador las Latitudes son positivas y por debajo negativas. Al Este del meridiano de Greenwich, de valor 0º, las longitudes son positivas, y hacia el Oeste son negativas. La latitud y la longitud normalmente se expresan en grados, minutos y segundos. b) Coordenadas UTM (Universal Transversal Mercator).

c) Prestaciones. Al encender un GPS, aparecen diferentes páginas, según los modelos, versiones y firmware que contengan, a modo de resumen los elementos más 67

característicos que pueden aparecer en un GPS portátil son: 1. En la primera página de encendido, aparece el estado de conexión entre nuestro receptor y los satélites, se muestra como se va conectando a cada uno de los 4 satélites más cercanos, una vez establecida la conexión, aparece el error de posicionamiento, como es lógico a menor error mejor será la localización, en otros modelos aparecen los satélites localizados en el espacio, la designación de estos, el número de ellos conectado, el número total de ellos, y el grado de recepción de cada uno de ellos. Hora y Fecha. 2. En una segunda pantalla, no siempre es en el mismo orden en todos los modelos, una brújula móvil nos indica la dirección en la que nos desplazamos, esta utilidad solo es útil cuando el receptor se mueve. También proporciona datos referentes a nuestro desplazamiento. a) Posición según coordenadas UTM o cartográficas (Existen cerca de 30 formatos de Posicionamiento diferentes). b) Altura, en algunos modelos se puede calibrar con un barómetro. c) Distancia recorrida (Parcial o total). d) Tiempo empleado y función cronometro. e) Dirección a la que nos dirigimos y dirección que estamos llevando. f) Si se fija un punto, nos indicara la distancia y el tiempo en llegar a este punto. g) Velocidad máxima, media y real, alcanzada al desplazarse el GPS 3.

4.

5.

Waypoint (La traducción al castellano podría ser «baliza», o «punto en el camino»), es un punto de coordenadas conocidas que determina la posición de un objeto, se puede marcar directamente con el GPS. Un waypoint también puede ser creado tomando las coordenadas de un mapa, e introducirlo en el PC. La lista de waypoint es almacenada en el ordenador (entre 500 y 1000 puntos) mediante: un nombre, un símbolo identificatívo (árbol, coche, puerto, piedra, etc.,), coordenadas, altura, hora, etc.…Los valores de este punto pueden ser modificados a posteriori.

6.

68

Este punto puede ser visualizado en la pantalla mapa del GPS, se pueden hallar otros waypoint cercanos a este, te puede dirigir a cualquier punto conocido mediante la función GOTO. Los waypoint se pueden transferir a un ordenador y viceversa mediante un cable de conexión especifico, quedan registrados como archivos: * wpt. RUTA, es una sucesión de Waypoint almacenados en la memoria del GPS que seguiríamos para dirigirnos a un determinado lugar, los waypoint pueden ser trazados directamente o introducidos manualmente. Las rutas se componen normalmente de 50 puntos y pueden almacenar de 1 a 30 rutas. El GPS nos puede indicar la distancia, tiempo, espacio y la dirección entre cada punto de la ruta, como es lógico los puntos y la dirección de la ruta puede ser visualizada en la pantalla mapa. Los datos de una ruta puede ser transferidos un PC y recíprocamente, quedando almacenados como archivos * rte. TRACK, es un itinerario registrado por un GPS mediante una serie de puntos (de 1000-3000 puntos) del camino seguido por el GPS. El cual quedaría marcado en el mapa del GPS, y puede ser almacenado (de1-10 track) y transferido a un PC mediante archivos * plt. Los archivos de waypoint (*wpt), rutas (*rte) y track (*plt), pueden ser tratados por programas informáticos como Oziexplorer, Fugami, Yunset, etc…, y compartidos por diferentes usuarios. La función track, se puede utilizar también para dibujar elementos del mapa que no aparecen, como caminos, curvas de nivel, o localizar el límite entre vegetaciones, materiales geológicos, fallas, etc.… La función más interesante de un track, es la posibilidad de realizar un trackback, es decir deshacer el camino seguido, como pequeñas migas de pan que hubiéramos tirado, hasta la posición original. El GPS, nos indicaría que camino seguir, la velocidad, el tiempo que tardaríamos en llegar, y es espacio que queda. MAPA, es una representación en la cual aparece la posición actual del GPS (mediante un icono móvil), waypoint, rutas

7.

y track, estos mapas se pueden cambiar de escala desde 50m a 500 km, en cada una de las pantallas pueden ir apareciendo más detalles (como nuevos waypoint, etc.…), algunos modelos llevan cartografía digital de serie (en blanco y negro o color) de una determinada área (con curvas de nivel, calles, numero de casas, gasolineras, etc..), en estos mapas suelen contener mapas de detallas al disminuir la escala. Otros GPS, se le puede introducir diferentes tipos de mapas, y por último algunos GPS, se pueden conectar con un PDA mediante un cable y con sofware adecuado introducir cualquier cartografía digital o escaneada y calibrada previamente. Otras funciones que presentan los GPS son: 1. Cambio de Hora y Huso horario. 2. Cambio de tipo de datum (unos 50 datum diferentes) y sistemas de posicionamiento. 3. Elección de idioma (10 a 15 diferentes). 4. Elección de unidades (metros, millas náuticas, etc...) 5. Elección de interfase, modo de comunicación con los ordenadores, normalmente secuencias NMEA, la conexión se suele realizar mediante un puerto en serie, más raro USB. 6. Intensidad de la luz. 7. Hora de puesta y salida de sol y la luna. 8. Horario de mareas. 9. Mejoras horas para pescar y cazar. 10. Modo de ahorro pilas. 11. Barómetro, termómetro. 12. Declinación magnética.

N.T. Para la descripción de los GPS, hemos utilizado un modelo «ficticio» que se adapta lo más posible a la gran cantidad de modelos existentes en el mercado. REFERENCIAS Puch, Carlos (2000) «Manual práctico del GPS». Ed. Desnivel. Manuales grandes espacios. http://www. garmin.com http://www.lowrance.com http://www.magellangps.com http://www.eaglegps.com http://www.proteccioncivil.org/mapas.htm#6 http://www.elgps.com/ http://www.rutasyviajes.net/

José Luís Bermúdez García IES. Pablo Ruiz Picasso. Chiclana-Cádiz. María Dolores Peinado Cifuentes IES. Huerta del Rosario. Chiclana-Cádiz.

d) 1. 2. 3. 4. 5. 6. 7.

Aplicaciones. Navegación terrestre, marítima y aérea. Topografía y geodesia. Salvamento. Deporte, acampada y ocio. Enfermos y discapacitados. Aplicaciones científicas a trabajos de campo. Geocaching, actividad consistente en buscar «tesoros» escondidos por otros usuarios. 8. Rastreo y recuperación de vehículos.

69

RAZÓN, EMOCIÓN Y CONOCIMIENTO CIENTÍFICO Antonio J. Lechuga Navarro

Introducción

cimientos y se aleja de la ingenuidad con la afirmación de que es el deseo y el afecto, más bien que la razón, la esencia humana. Para intentar comprender la naturaleza de esa amalgama inestable hagamos una reseña de ambas formas de relación con el medio.

Nuestra condición básica es la de organismos, seres del mundo dotados de unidad orgánica, estructural y funcional, entes singulares en conexión con todo lo que nos rodea. Nuestra frontera es aquella que nos separa del resto del Universo aunque éste sea nuestra matriz y nuestro fundamento. Todos los organismos se relacionan con alguna forma de realidad externa a cuyo anclaje cotidiano se ven irremisiblemente obligados. Independientemente de nuestro lugar en el morfoespacio de la vida, los seres vivos afrontamos una lucha esencial: aquella que se libra frente al tiempo. La verdadera batalla nos enfrenta a la hueste de lo efímero y su victoria es la duración, la supervivencia. ¿Cuáles son, como organismos que somos dotados de individualidad, nuestras «armas de duración masiva»? Cualquier animal con un mínimo de complejidad viene al mundo con un regalo gratuito e imprescindible: su equipamiento emocional. Será su brújula vital y su conducta estará motivada en base a que apunte al norte de la satisfacción y se aleje del desagrado. Si no estamos desnortados, las emociones que llamamos positivas nos marcarán la congruencia esencial con la supervivencia y representan, por tanto, el núcleo primordial del ajuste con la vida. La experiencia emocional de esta naturaleza, inserta en el tiempo, representa la vivencia subjetiva de la continuidad y nos augura, por así decirlo, una leve promesa de infinitud. Particularmente, los seres humanos venimos equipados además con la potencialidad racional, aunque esta advenediza evolutiva será más conquista que regalo: necesitará de nuestro esfuerzo y dedicación, además de la inmersión en un medio cultural determinado que la promueva y le dé forma. Cualquier contacto con un noticiario, por breve que sea, nos recordará que la razón camina entre nosotros con un estigma de recién llegada de la que desconfiamos. La racionalidad, al contrario que la emoción, aspira a la intemporalidad1 aunque impedida para hacérnosla sentir no nos libra por sí misma de la angustia de la finitud. La integración entre razón y emoción, verdadero reto del espíritu humano, debe hacerse bajo la premisa clarificadora de quien lleva el peso del binomio. Spinoza así lo planteó en su Ética: el racionalismo pone sus

Baruch Spinoza

Emoción La emoción es una respuesta automática, sólo necesita un estímulo disparador y cuando éste se produce se convierte en un torrente que discurre por la pendiente inclinada del organismo sin más cauce que su propio ímpetu. La emoción es ciega, una vez activada, su lógica inconsciente nos atrapa de modo completo surgiendo desde lo más profundo. La emoción es fundamentalmente innata, nos acompaña desde que comenzamos a ser. La emoción es atávica y ancestral, ya que su eficacia ha sido destilada a lo largo de la cadena filogenética y los eones. La emoción es programada y rígida, deja poco espacio a la reflexión consciente. La emoción nos urge y nos totaliza2 porque responde a la llamada primaria, la de la supervivencia. La emoción estrecha nuestra perspectiva, está irremisiblemente ligada a un espacio y un lugar aunque, por otra parte, nos une a la existencia, proporcionando algo así como una raíz o un ancla que nos da firmeza y seguridad (o todo lo contrario). La emoción representa la energía vital del organismo. 70

Si fuera por el espacio, el Universo me rodearía y se me tragaría como un átomo, pero por el pensamiento yo abrazo al mundo.

Razón La razón se basa en la abstracción y su objeto fundamental es el símbolo. Los modernos modelos de procesamiento de información visual en el córtex cerebral ponen de manifiesto una jerarquía de interconexión neuronal en la que, a medida que ascendemos, se van perdiendo los prolijos y molestos detalles y va sobreviviendo el «todo» de las cosas, llamémosle nombre o símbolo3. La generación de información abstracta, basada en símbolos, permite un salto cualitativo: el almacenamiento y procesamiento de una ingente cantidad de información, una auténtica representación o modelo del mundo que nos rodea, que es aprehendido así en nuestra mente posibilitando un mejor ajuste a su complejidad. El hecho de que nuestra mente sea capaz de captar significados y reflexionar 4 implica un mecanismo de autorregulación que la hace escapar a la estricta obediencia de las leyes de la Física y de la Química, introduciendo un nivel de fenómenos que impide la reducción a estas leyes. En este nivel emergente, el cerebro, al menos en parte, se autodetermina escapando así a la rigidez de su funcionamiento mecánico y brindando la posibilidad de un proceder versátil, flexible y abierto a los matices del contexto. Un cerebro meramente asociativo tiene unas posibilidades reducidas a la hora de extraer información y de responder al medio. Un cerebro que se autorregule a través de la captación de información abstracta y de significados es mucho más potente en estos aspectos. Paradójicamente, al incorporar al mundo nos alejamos de su contacto directo: la abstracción nos separa del mundo5 siendo este el peaje que pagamos para penetrar en el territorio de su posible comprensión. El pensamiento simbólico carece de la luminosidad vivificante de lo inmediato, aunque en su existencia fantasmal inaugura una verdadera «otra realidad», la realidad abstracta. Con el pensamiento abstracto hemos conquistado el espacio y el tiempo y en ocasiones esta amplitud nos deja asomados a un inmenso mirador sobre la existencia no exento de vértigo. En efecto, el camino de la razón es frágil e inseguro6, como la propia vida, pero ahora con la conciencia que nos otorga lo sabemos permanentemente. Despojándonos de la esclavitud del instante incorpora la conciencia del tiempo en nuestro existir. Calibrando la complejidad aparente y nuestra propia fragilidad, nos conduce a un sentimiento de indefensión e insignificancia que, también paradójicamente, nos mueve a conquistar intelectualmente el mundo en busca de orden, otorgándonos una mayor independencia y un mayor poder sobre éste7. La conciencia racional produce una mezcla de desasosiego y prodigio que queda muy bien expresada en un fragmento de uno de los pensamientos de Pascal:

Razón y emoción La dialéctica razón-emoción parece ser uno de esos péndulos bipolares de los que no podemos desembarazarnos por más que su vaivén permanente nos incomode. Desde el campo racionalista la componente emocional es percibida como un ruido de fondo, como un desvarío a controlar, como un canto de sirena que nos encamina a la infancia intelectual y la zozobra permanente. Para el bando opuesto, la razón es tachada de ingenua y presuntuosa; acusada de lindar peligrosamente con el error, la duda y el vacío existencial y moral, es considerada alienante porque proyecta escenarios que comprometen nuestra espontaneidad instintiva y porque su ancha perspectiva nos debilita arrancándonos de nuestra posición de privilegio en el Universo. Desde luego, como en toda antinomia persistente, ha surgido la tentación de negarla por identificación de ambos polos enfrentados. Desde la psicología constructivista se ha planteado que la distinción entre emoción y cognición proviene más bien de nuestro legado filosófico y cultural, y concibe a ambas como expresiones de procesos holísticos y sistémicos del ser humano. Desde la perspectiva evolucionista, que enfatiza la continuidad filogenética, estamos tentados de caracterizar la emoción como una cognición ancestral o la razón como un tipo de emoción consciente y deliberada que ha evolucionado muy recientemente. Pero si son lo mismo, ¿a qué se debe su inveterado afán por la confrontación mutua? ¿Por qué sentimos el fragor de esa pelea en nuestra vida cotidiana? El neurólogo estudioso de las emociones, Joseph Ledoux, defiende abiertamente la distinción. En su libro «El cerebro emocional» (pp. 76-79) expone las razones de su posición, que podemos resumir así: · El estudio de lesiones cerebrales conduce a pensar que el cerebro procesa por separado la representación perceptiva de un objeto y la evaluación de su significado emocional. · El procesamiento emocional es más rápido: es posible que el cerebro sepa si algo es bueno o malo antes de saber exactamente qué es. · Los mecanismos del cerebro que se ocupan de registrar, almacenar y recuperar los recuerdos de la significación emocional de los estímulos son diferentes de los mecanismos que procesan los recuerdos cognitivos de los mismos estímulos. · La evaluación emocional de una situación estrecha nuestro margen de respuestas a las que ya han tenido éxito a lo largo de la 71

verdad11. Hemos comprendido que en ese lazo, que de por sí anuda la razón y la emoción, reside nuestro crecimiento intelectual y espiritual. Por lo tanto, arrostramos el incómodo, y a veces gélido, viento de cara que esa larga marcha nos depara, sabedores de que crecemos a medida que nuestra perspectiva es más ancha y profunda12. Heráclito proclamó con una sentencia que todavía resuena en nosotros: Hay un mundo uno y común para el que está despierto. Para el que está dormido se reduce a un mundo propio. Dormidos en nuestra verdad local de organismos que quieren sobrevivir, hemos despertado al veneno de la verdad a secas y hemos construido teorías no ya de nuestro ambiente inmediato13, sino del Cosmos en el que vivimos. Nos hemos desperezado del sueño con el mito que, aún coloreado de subjetividad emotiva, contiene ya la semilla de una racionalidad incipiente. En plena vigilia, la vieja noción griega de Logos se ha levantado como un gigante que ha resistido milenios y que aún continúa vivo devorando apariencias incomprensibles y caóticas en su crecimiento. Hablábamos de la dificultad en la génesis de la racionalidad científica y podemos avanzar más en esta idea contraponiendo la lógica formal con la racionalidad que podríamos llamar cotidiana. De hecho, según Johnson-Laird, las personas despliegan su racionalidad sin el dictado de la corrección lógica. Utilizamos lo que este psicólogo ha denominado modelos mentales, ejemplos hipotéticos, sacados de experiencias pasadas o de situaciones imaginadas. Por otra parte, las limitaciones de tiempo, complejidad y volumen de información relevante, así como la incertidumbre respecto a ciertos aspectos de esta información, conlleva la dificultad de usar métodos exhaustivos para la realización de juicios. Tversky y Kahneman han identificado lo que ellos han llamado heurísticos: reglas y estrategias cognitivas lo más sencillas y elementales posibles que generan soluciones rápidas, aunque no siempre exactas, a los problemas. Con los pies de barro, como hemos visto, la racionalidad cotidiana se puede permitir el desvarío de la soberbia. Consciente de la complejidad y dificultad de su objeto de estudio, la racionalidad científica se ha hecho necesariamente humilde14 incorporando en su seno la semilla de su propia insuficiencia: el escepticismo organizado y la necesidad de validación empírica. Necesitada de una precisión y claridad de la que el lenguaje cotidiano carece, ha encontrado por el camino, y ha ayudado también a dar forma, al más extraño de los lenguajes, aquél en el que la Naturaleza parece expresarse: el lenguaje de las Matemáticas. ¿Cuál es el sentido evolutivo de la racionalidad científica? Habremos de convenir en la dificultad de

evolución. La evaluación cognitiva no está tan directamente conectada a los mecanismos de control de respuestas, posibilitando la flexibilidad y la innovación. · La evaluación emocional produce sensaciones físicas mientras que el procesamiento cognitivo es menos probable que se asocie a este tipo de experiencia. Que sean algo distinto, o precisamente por serlo, no anula la posibilidad de influencia mutua. La razón es fuertemente sesgada en el sentido emocional (si ella misma no establece los controles pertinentes) y la emoción en nuestra especie también es evaluada conscientemente e interactúa con planes de decisión, esquemas cognitivos e información general almacenada en la memoria8. Por otra parte, nuestra expresión emocional puede ser controlada, reprimida o simulada deliberadamente, al menos parcialmente, lo que inaugura en la filogenia la importantísima estrategia social de la mentira o el disimulo intencional9. Podemos toparnos con personas frías y calculadoras como el silicio y seres humanos que no merecen o detestan el apelativo de sapiens que los taxónomos les han atribuido alegremente, pero la mutua influencia entre razón y emoción no nos debe llevar a la presunción ingenua de que normalmente la relación se establece de igual a igual. El propio Ledoux lo expresa así: La mente tiene poco control sobre las emociones, y las emociones pueden avasallar la conciencia. Esto es así porque en este momento de nuestra historia evolutiva las conexiones que comunican los mecanismos emocionales con los cognitivos son más fuertes que las que comunican los mecanismos cognitivos con los emocionales. La historia de la Ciencia en particular, la historia en general y el presente, nos demuestran sobradamente que los peores augurios derivados de la afirmación anterior cuentan con la firma, el sello y el registro de salida de la realidad. Racionalidad científica Anteriormente hemos caracterizado a la razón como una conquista y a la luz de la demoledora cita de Ledoux su posición estratégica no parece muy consistente. De hecho es así y si el desarrollo del pensamiento racional es sorprendente, su versión fuerte, la racionalidad científica, podríamos decir que circula «al filo de lo imposible». Casi recién nacida, en términos históricos, prosperó en la incubadora amable de algunas mentes entregadas a su cuidado, sin que la cultura general la asumiera de buen grado, y en ocasiones con hostilidad y desconfianza10. Sólo una llamada, débil pero irrenunciable una vez sentida, ha acudido en su ayuda de lactante desvalida: la pasión por el conocimiento y la 72

Estamos ahora en condiciones de plantearnos la siguiente pregunta: ¿cuáles son las motivaciones que impulsan al conocimiento científico? ¿Dónde reside su beneficio emocional? Podríamos aceptar, en primera instancia, la respuesta parsimoniosa que equipara la dedicación científica a cualquier otra actividad y seguramente acertaremos en una gran proporción. A pesar de esto, queremos distinguir algunos motivos sobre los demás en la presunción, en principio intuitiva e hipotética, de que se encuentran más representados de lo normal en aquella porción que podríamos llamar «los grandes científicos», aquellos que han sido capaces de construir hitos visibles en el camino de su ciencia particular. Nos referimos, en la terminología de Cattell, a un ergio, la curiosidad, y a dos sentimientos, el estético y el metafísico.

establecer la cadena de adaptaciones funcionales que conducen hasta el cálculo diferencial e integral, la tabla periódica o el descubrimiento del código genético. Si la supervivencia pasada no ha dependido de nada de esto15 ¿cómo es posible que la evolución le proporcione carta de naturaleza? La respuesta a este enigma reside en el carácter contingente de la dinámica evolutiva. El paleontólogo y biólogo evolutivo, S. J. Gould, ha denominado exaptaciones a las adaptaciones no previstas y accidentales de la evolución y enjutas a su base estructural16. En su libro «La estructura de la teoría de la evolución» defiende la importancia de la exaptación en la comprensión del curso evolutivo y en relación directa con nuestra especie plantea: ¿Acaso las enjutas en cadena del cerebro humano no deben pesar más que las presuntas adaptaciones primarias de los cazadores-recolectores africanos ancestrales a la hora de establecer el perfil de lo que ahora llamamos naturaleza humana? El corolario es inmediato: la racionalidad científica bien puede ser un «efecto colateral» de utilidades más prosaicas. Ciencia y emoción En nuestra especie, la emoción, a pesar de su profunda raíz, asoma su punta de iceberg sobre lo consciente. Es descrita y nombrada por lo que es así presentada ante la nueva sociedad, evolutivamente hablando, de la conciencia verbal. Consciente, al menos en parte, y susceptible de contribuir al archivo de memoria que tenemos abierto sobre el yo, con el nombre de identidad, puede convertirse en sentimiento y motivación. De esta forma, la emoción, o su recuerdo, anticipación o integración trans-situacional como sentimiento17, puede atravesar el instante en el que habita para convertirse en dinamizadora o activadora18 de conductas futuras y, en su caso, dar sentido a toda una vida. El psicólogo R. B. Cattell, utilizando la técnica estadística del análisis factorial multivariado aplicado a diversos conjuntos de datos empíricos, ha enunciado una teoría factorial de la personalidad. En cuanto a la motivación se refiere, esta teoría distingue dos tipos de motivos básicos: los ergios y los sentimientos. Los ergios se podrían considerar innatos, aunque pueden ser influidos por la socialización, siendo los más importantes: sexo, seguridad, autoafirmación, gregarismo, curiosidad, protección paternalista, creatividad, belicosidad y narcisismo. Los sentimientos parecen reflejar patrones actitudinales determinados esencialmente por el ambiente, y por tanto, susceptibles de influencia cultural. Lógicamente son más variados y podríamos citar como ejemplos el sentimiento religioso o el profesional.

Albert Einstein

La curiosidad comparte territorio con el asombro, la admiración y el entusiasmo y tiene frontera con el misterio. El crecimiento estimulado por la curiosidad se verifica frente a la sombra embaucadora de lo desconocido que nos espera bajo un horizonte de promesa y tentación. El muy reciente y aceptado modelo de personalidad de McCrae y Costa consta de cinco factores independientes, siendo uno de ellos el llamado «Apertura a la experiencia», descrito por rasgos y facetas como: fantasía, estética, sentimientos, acciones, ideas y valores. Describe mejor que la curiosidad innata de Cattell el tipo de motivación que puede impulsar a grandes figuras de la Ciencia: una mezcla de curiosidad p rimordial con sentimientos, creatividad e intelectualidad. Acudamos a uno de los grandes, Einstein, para que nos lo haga explícito: El misterio es lo más hermoso que nos es dado sentir. Es la sensación fundamental, la cuna del arte y de la ciencia verdaderos. Quien no la conoce, quien no puede asombrarse ni maravillarse, está muerto. Sus ojos se han extinguido. 73

de los átomos, y de las reacciones entre ellos; es un sentimiento de lo dramático y maravilloso que es. Es un sentimiento sobrecogedor, de reverente temor científico, que yo estaba convencido de que podría ser comunicado mediante un dibujo a quienes también sintieran esta emoción. Quizá, por un momento, les evocase esta sensación de las glorias del Universo. Para algunos físicos el sentimiento estético proporciona un recurso heurístico19. Empecemos por Heisenberg: Si la Naturaleza nos conduce a formas matemáticas de gran simplicidad y belleza… que nadie ha encontrado previamente, no podemos dejar de pensar que son verdaderas, que revelan un rasgo genuino de la Naturaleza. Y sigamos con Dirac: Es más importante que una ecuación sea hermosa que el encaje con la experimentación. Acabemos la serie de testimonios sobre el sentimiento estético con el de Dobzhansky. Este biólogo ha sido autor del documento fundador de la conocida como síntesis moderna en teoría de la evolución, «Genética y el origen de las especies». Este libro comienza así: Al hombre siempre le ha fascinado la gran diversidad de organismos que viven en el mundo que le rodea. Ha habido muchos intentos de comprender el sentido de esta diversidad y las causas que la ocasionan. Este problema posee un irresistible atractivo estético para muchas mentes. Puesto que la investigación científica es una forma de ejercicio estético, la Biología debe su existencia en particular a este atractivo. Para referirnos ahora al sentimiento metafísico acudamos a Heidegger que aborda su caracterización en el opúsculo «¿Qué es Metafísica?»: Sólo porque la nada es patente en el fondo de la existencia, puede sobrecogernos la completa extrañeza del ente. Sólo cuando nos desazona la extrañeza del ente, puede provocarnos admiración. De la admiración –esto es, de la patencia de la nada- surge el ¿por qué? Sólo porque es posible el ¿por qué? en cuanto tal, podemos preguntarnos por los fundamentos y fundamentar de una determinada manera. Sólo porque podemos preguntar y fundamentar, se nos viene a la mano en nuestro existir el destino de investigadores. El libro termina con la que, según Heidegger, sería la pregunta fundamental de la Metafísica20: ¿Por qué hay ente y no más bien nada? El Cosmos nos viene dado pero, si lo pensamos detenidamente, su propia existencia puede ser radicalmente extraña, por lo que necesitamos

(…) La alegría de contemplar y conocer es el regalo más hermoso de la Naturaleza. El carácter de pasión primaria y gozosa frente al misterio es glosado por Newton: No sé qué opina el mundo de mí; pero yo me siento como un niño que juega en la orilla del mar, y se divierte descubriendo de vez en cuando un guijarro más liso o una concha más bella de lo corriente, mientras el gran océano de la verdad se extiende ante mí, todo él por descubrir. El sentimiento estético, protagonista principal también del factor «Apertura a la experiencia» de McCrae y Costa, es un motivador esencial de la actividad científica. Preferimos el orden conceptual a la disonancia cognitiva y esa prelación, tan lógica por otra parte en un mundo complejo como el que habitamos, conduce al gozo en la contemplación de la coherencia racional: ésta es sentida como bella y elegante. La voz de Heráclito nos lo muestra en su peculiar estilo profundo y enigmático: Una armonía invisible es más intensa que una visible. El encuentro entre la unidad abstracta y racional y el orden natural adquiere un tinte de unión casi mística que, de nuevo, encuentra expresión explícita en los textos de Einstein: El individuo siente la futilidad de los deseos y las metas humanas, del sublime y maravilloso orden que se manifiesta tanto en la Naturaleza, como en el mundo de las ideas. Ese orden lleva a sentir la existencia individual como una especie de prisión, y conduce al deseo de experimentar la totalidad del ser como un todo razonante y unitario. Lo más incomprensible es que el Universo se pueda comprender. El divertido e iconoclasta Feynman, premio Nóbel de Física, no es ajeno a los sentimientos como base de su tarea y nos confiesa en su autobiografía contada: Yo deseaba muchísimo aprender a dibujar, por una razón que siempre he guardado para mí: yo quería plasmar una emoción que la belleza del mundo causa en mí. Resulta difícil describirla, porque es una emoción. Es un sentimiento análogo al de la experiencia religiosa de que hay un Dios que controla todo el Universo; se tiene ese sentimiento de generalidad al pensar en cómo cosas que parecen tan distintas y se comportan de tan distinto modo están todas regidas «entre bastidores» por una misma organización, por las mismas leyes físicas. Es una captación de la belleza matemática de la Naturaleza, de su funcionamiento interno; una comprensión de que los fenómenos que vemos son resultado de la complejidad de las entrañas 74

que lo abarcase todo. Einstein no estaba motivado por las cosas que a menudo relacionamos con la actividad científica, como, por ejemplo, intentar hallar una explicación para estos o aquellos datos experimentales. Lo que le impulsaba era una creencia apasionada en la idea de que una comprensión más profunda del Universo pondría de manifiesto la auténtica maravilla: la sencillez y el enorme poder de los principios en los que se basa. Einstein deseaba explicar el funcionamiento del Universo con una claridad nunca antes conseguida, lo que nos permitiría a todos nosotros contemplar con asombro y admiración su belleza y elegancia absolutas. Einstein nunca consiguió hacer realidad su sueño, en gran medida porque ciertas limitaciones le cerraban el camino: en sus tiempos, un buen número de características esenciales de la materia y de las fuerzas de la naturaleza eran aún desconocidas, o, en el mejor de los casos, apenas se comprendían. S. Hawking en reciente entrevista publicada por el periódico El País (20-3-2005) expresa su creencia de que la humanidad está más cerca que nunca de comprender los fundamentos del Universo. La pregunta que mantiene viva su mente (y quizás hasta su mismo cuerpo enfermo) es la siguiente: ¿Por qué el Universo se toma la molestia de existir? Otra versión más de la gran pregunta, la pregunta más radical que podamos imaginar, la vieja pregunta de la Metafísica. El físico J. Wheeler ha escrito: Un día se abrirá una puerta y aparecerá el rutilante mecanismo central del mundo en toda su belleza y simplicidad. En una versión más moderada y matizada, el físico E. Witten, uno de los padres de la teoría de supercuerdas, ha dicho: Creo que estamos tan avanzados con la teoría de cuerdas que –en mis momentos de mayor optimismo- me imagino que algún día la forma final de esta teoría podría caer del cielo e ir a parar a las manos de alguien. Sin embargo, cuando soy más realista, creo que nos encontramos actualmente en camino de construir una teoría mucho más profunda que cualquiera que hayamos tenido anteriormente, y que bien entrado el siglo XXI, cuando yo sea demasiado viejo para tener alguna idea útil al respecto, los físicos más jóvenes tendrán que decidir si realmente hemos descubierto la teoría final o no. El ensayista y poeta H. M. Enzensberger, haciéndose eco de las resonancias metafísicas de la investigación física, en su libro «Los elixires de la

fundamentarlo y no parcialmente en cuanto tal o cual objeto, ni siquiera antropocéntricamente como seres humanos, sino en su mismo ser, lo que iguala en interés a todo lo que es, y, por tanto, aspiramos a fundamentar su existencia como totalidad. Es el hecho mismo de la existencia del Universo el que lo convierte en el objeto de la gran pregunta: ¿cuál es el fundamento de la realidad si es que lo tiene? ¿Por qué existe? Aunque esta preocupación, desde la perspectiva racional, ha sido el campo de trabajo tradicional de la Metafísica, también podemos rastrearla en los modernos intentos de unificación teórica en Física que están abriendo una posible puerta a su respuesta. Por lo tanto, esta ciencia tiene un indudable interés metafísico que además anima explícitamente a algunos de sus más conspicuos cultivadores. El gran divulgador de la Ciencia, Paul Davies, nos dice en su libro «Súper-fuerza» (que traza un bosquejo de los intentos de unificación teórica de la Física): La palabra Universo tiene el mismo origen que unidad y uno. Significa, literalmente, el conjunto de las cosas consideradas como un todo. Curiosamente, en inglés, la palabra que significa «totalidad», wholly, deriva del mismo origen que la palabra holy («sagrado»), lo cual refleja las profundas asociaciones místicas y metafísicas de la Cosmología. (…) Indudablemente mucha gente se siente unida espiritualmente a la totalidad de las cosas, pero hay también en la Ciencia una tradición paralela de forjar tales vínculos. Inspirado en primera instancia por un sentimiento estético y metafísico, Einstein fue el primer físico que planteó como problema consciente la unificación teórica de la Física: Las teorías nuevas son necesarias, sobre todo, cuando encontramos fenómenos que no pueden explicarse mediante las teorías existentes. Pero este pretexto resulta, por así decirlo, trivial, impuesto desde el exterior. Existe otra motivación, más sutil, de no menor importancia: lograr la unificación y la simplificación de las premisas de la teoría como un todo. El físico Brian Greene, que actualmente trabaja en teoría de supercuerdas, uno de los caminos exploratorios de unificación teórica de la Física, rinde tributo al gran Einstein como visionario y primer perseguidor de la teoría final 21. En su libro «El Universo elegante» dice: Durante los últimos años de su vida, Albert Einstein buscó incesantemente lo que se llamaría una teoría unificada de campos, es decir, una teoría capaz de describir las fuerzas de la naturaleza dentro de un marco único, coherente y 75

planificar y ejecutar acciones que, en última instancia y con mayor o menor éxito, revierten al mundo. 5. ¿Será por esto por lo que Aristóteles decía que todas las personas intelectualmente eficientes que conocía eran melancólicas? 6. Bertrand Russell escribió en su «Autobiografía»: Me he imaginado sucesivamente como liberal, socialista y pacifista, pero en el sentido más profundo, jamás he sido nada de esto: siempre el intelecto escéptico, cuando más deseaba su silencio, me ha susurrado la duda, me ha arrancado del fácil entusiasmo de los otros y me ha transportado a una soledad desoladora. 7. Fernando Savater nos plantea en su libro «Criaturas del aire» que acaso la civilización no sea más que el intento de sustituir el pánico por la angustia. 8. Podemos citar como ejemplos de este tipo de relación, desde la Psicología, la teoría transaccional de Lazarus sobre el estrés o la teoría cognitiva de la depresión de Beck, que enfatizan la influencia de la lectura cognitiva de la situación en la respuesta emocional. 9. Jane Goodall, la conocida estudiosa de los chimpancés, cuenta la siguiente y divertida anécdota en su libro «En la senda del hombre»: un joven chimpancé que ella conocía como Figan divisó un plátano en un árbol bajo el que descansaba el macho dominante del grupo; sabedor de que no podría controlar la expresión de su excitación y que ésta rebelaría a su poco delicado amigo la situación, se escondió detrás de una tienda hasta que Goliat, nombre por el que era conocido el macho, se marchó; en ese momento Figan apareció y se comió el preciado premio. 10. En una actualidad en la que la mentalidad científica ha sido ampliamente aceptada en el acervo cultural general, todavía asistimos, especialmente en los Estados Unidos, al falso debate entre el Génesis (en su literalidad) y la Teoría evolucionista. Los llamados creacionistas, a veces revestidos de una aparente (aunque burda) racionalidad como tarjeta de visita, incurren en la falacia de presentar en pie de igualdad un mito y una teoría científica. Las exigencias racionales, empíricas y metodológicas que la Ciencia prescribe en su construcción, son obviadas en aras de la reivindicación de un tratamiento equitativo y ¡democrático! que pretende llevar las ocurrencias de un grupo de fanáticos a las escuelas (algunas de ellas tan abiertamente estúpidas como la que justifica la desaparición de los dinosaurios por su incapacidad para entrar en el arca de Noé). 11. Como dice Vidal Peña, responsable de la edición española de la Ética de Spinoza (recogida en la bibliografía final) en su introducción al libro: Alguna clase de pasión de la verdad debe acompañar nuestra captación de las demostraciones, sin lo cual éstas serán impotentes contra la verdad de la pasión. 12. No faltan los abandonos. Uno de los que mejor lo expresa es el filósofo Will Durant que en carta a Bertrand Russell decía: ...Todo nos lleva a concluir que la mayor equivocación de la historia humana ha sido el descubrimiento de la verdad. No nos ha liberado, salvo de las ilusiones que nos consolaban y de las limitaciones que nos preservaban; no nos ha hecho felices, pues la verdad no es hermosa y no merecería ser perseguida con

Ciencia» compara los largos túneles del CERN con una catedral subterránea: Estos espacios subterráneos recordaban la nave central de una catedral, aunque los ritos y misterios con que se ocupaban sus sumos sacerdotes eran de naturaleza completamente distinta. «No debiera rechazarse una analogía así», me decía Christopher Llewellyn-Smith, entonces director general del CERN. «Es claro que nuestro proyecto tiene una dimensión espiritual. Tiene que ver con nuestros sentimientos, con la pregunta sobre nuestro lugar en este Universo. Trabajamos en nuevas formas de energía y materia, con los elementos básicos de aquello de que estamos hechos.» En el panorama científico actual nos encontramos a las Matemáticas, la más estética de las disciplinas racionales, colaborando con la Física, la más metafísica de las ciencias, intentando dar forma a una teoría basada en los conceptos de simetría y unificación que aspire a comprender el fundamento último de la Naturaleza. El filósofo Spinoza22, que tuvo el atrevimiento de plantear de modo explícito la idea de que la salvación humana se puede alcanzar por el beneficio afectivo asociado al conocimiento esencial e intemporal, «sub specie aeternitatis», de la Naturaleza, quedaría hoy profundamente fascinado, sin ninguna duda, por esa arrebatadora síntesis de estética, metafísica y racionalidad. Un viejo proverbio latino anónimo dice: «cave ab homine unius libri» (guárdate del hombre de un solo libro). El cuerpo pide suscribirlo sin reservas ni excepción por el aroma de fanatismo o enfermiza obsesión que los libros únicos transmiten, pero para no ser hombres de un solo aforismo, dejemos al margen de esa sana prevención, por inmenso, bello, prodigioso y extraño, a los dedicados al libro único de la Naturaleza. NOTAS 1. Spinoza lo expresó así: En la medida en que la inteligencia concibe una cosa de acuerdo con el dictado de la razón, resultará afectada por igual tanto si es idea de una cosa futura como pasada o presente. 2. El neurólogo Joseph Ledoux lo expresa así: Las emociones crean una furia de actividad dedicada a un solo objetivo. (….) Todo el yo queda inmerso en la emoción. 3. Nos referimos a la teoría secuencial de procesamiento neuronal propuesta por Jeff Hawkins. 4. Entenderemos por significado el conjunto de relaciones ramificadas con otros símbolos que implican a un símbolo dado, y por reflexión una operación que se ejecuta sobre representaciones internas. Esta operación permite trabajar con modelos simbólicos con el objetivo de evaluar, decidir, 76

tanta pasión. Si repasamos la trayectoria del receptor de la carta sabremos que no le afectó en demasía. 13. Los psicólogos Guidano y Liotti, padres del conocido como modelo cognitivo estructural, han conceptuado a los organismos, en base a una idea de Weimer, como teorías de su ambiente. 14. Eso no quiere decir que los científicos en sí o el proceso de construcción de la ciencia sea exclusivamente un dechado de virtudes y heroísmo intelectual. La solidez en el resultado final deriva del cultivo, como seña de identidad colectiva, de la honestidad intelectual. Puede haber errores, vías muertas, visiones interesadas, farsantes y fiascos de toda índole pero a la larga son descubiertos o reconocidos. 15. Podríamos decir que la supervivencia actual sí ya que la Ciencia nos la facilita. A esta objeción habría que responder en dos tiempos. Primero: las adaptaciones son moldeadas por la evolución en el momento presente y no pueden ser cribadas selectivamente por sus consecuencias futuras. Segundo: está por ver el carácter facilitador para la vida del enorme poder que nos confiere el conocimiento científico (por lo pronto, la conocida ecuación de Drake, que formaliza el cálculo de probabilidad de vida inteligente en nuestra galaxia, incluye un poco tranquilizador término que tiene en cuenta que una civilización inteligente y tecnológica puede autodestruirse). 16. Actualmente se piensa, por ejemplo, que las plumas evolucionaron primariamente con fines termorreguladores y sólo de modo exaptativo posibilitaron el vuelo. 17. Podríamos definir los sentimientos como estados emocionales de baja especificidad situacional, intensidad moderada y larga duración, capaces de promover y motivar conductas a muy largo plazo. Ledoux dice que: …los sentimientos conscientes son el ornamento que recubre sólidamente a las emociones. 18. Es decir, representa el componente energético de la conducta. La labor de dirección y programación teleológica será asumida por el componente cognitivo. 19. Es posible que esa preferencia por la elegancia matemática no sea sólo sentimental sino también de lo más lógica: en definitiva la Naturaleza en su existir ordenado parece «preferir» la simetría y la belleza; si esto es lo que encontramos podemos ir por el buen camino. 20. El diccionario de Filosofía de Ferrater nos indica que esa pregunta, casi literal, fue originalmente planteada por Leibniz, aunque la preocupación por el ser y el no ser resuena desde Parménides y otros filósofos griegos. 21. Para una descripción de sus esfuerzos frustrados en esta dirección, que consumieron sus últimos años de actividad intelectual, ver el artículo «La unificación de las fuerzas» de George Musser, en el monográfico sobre Einstein de Investigación y Ciencia de noviembre de 2004. 22. Una de las influencias intelectuales y sentimentales de Einstein.

BIBLIOGRAFÍA BELLOCH, A., SANDÍN, S., RAMOS, F. Manual de Psicopatología. McGraw-Hill. Madrid, 1995. BERMÚDEZ MORENO, J. Psicología de la Personalidad. UNED. Madrid, 1991. CABALLO, V. E. (comp.).Manual de Técnicas de terapia y modificación de conducta. Siglo XXI. Madrid, 1991. DAVIES, P. Súper-fuerza. Biblioteca Científica Salvat. Barcelona, 1988. EINSTEIN, A. Mi visión del mundo. Tusquets Editores. Barcelona, 1980. ENZENSBERGER, H. M. Los elixires de la Ciencia. Anagrama. Barcelona, 2002. GOODALL, J. En la senda del hombre. Biblioteca Científica Salvat. Barcelona, 1986. GOULD, S. J. La estructura de la teoría de la evolución. Tusquets Editores. Barcelona, 2004. GREENE, B. El Universo elegante. Crítica / Planeta. Barcelona, 2001. FEIXAS, G., MIRÓ, M. T. Aproximaciones a la Psicoterapia. Ediciones Paidós. Barcelona, 1993. FERRATER MORA, J. Diccionario de Filosofía de bolsillo. Alianza Editorial. Madrid, 1983. HEIDEGGER, M. ¿Qué es Metafísica? Editorial Renacimiento. Sevilla, 2003. LEDOUX, J. El cerebro emocional. Ariel / Planeta. Barcelona, 1999. LEIGHTON, R. ¿Está Vd. de broma, Sr. Feynman? Alianza Editorial. Madrid, 1987. MORALES, J. F. et al. Psicología Social. McGraw-Hill. Madrid, 1994. MUSSER, G. La unificación de las fuerzas. Investigación y Ciencia. Noviembre, 2004. PASCAL, B. Pensamientos. Cátedra. Madrid, 1998. PUEYO, A. A. Manual de Psicología Diferencial. McGraw-Hill. Madrid, 1997. RUSSELL, B. Autobiografía. Testimonio Edhasa. Barcelona, 1990. SAGAN, C. Cosmos. Editorial Planeta. Barcelona, 1982. SAVATER, F. Criaturas del aire. Taurus. Madrid, 2004. SPINOZA, B. Ética. Alianza Editorial. Madrid, 1987.

Antonio J. Lechuga Navarro

77

POBLACIÓN HUMANA, DESARROLLO Y MEDIO AMBIENTE José Aldo Piano Palomo

I-POBLACIIONES: TAMAÑO Y CRECIMIENTO.

depende no de su número potencial, sino de los nacidos y supervivientes.

Para toda especie, las poblaciones crecen, se desarrollan y varían en función de una serie de factores. Sin embargo la especie humana ha manipulado a su favor, a través del tiempo, estos factores con el consiguiente impacto sobre el resto de las especies, y sobre el medio ambiente. En efecto, la densidad de las distintas poblaciones depende de muchos factores: la disponibilidad de alimentos, los factores ambientales abióticos, etc. En un ecosistema, la población más grande es la de los seres vivos productores, es decir, las plantas y otros seres autótrofos. Después de los productores, los organismos más abundantes son los consumidores primarios de pequeño tamaño, como los ratones, conejos, ardillas, etc. Y la población más pequeña es la de los grandes depredadores. Es imposible que en un ecosistema haya más depredadores que consumidores primarios, ya que entonces la población de depredadores disminuiría por la escasez de alimentos. Por la misma razón, la población de consumidores primarios debe ser menor que la de productores. En un ecosistema, los grandes depredadores, como el león, forman siempre las poblaciones más pequeñas. Así pues, el crecimiento de toda población viene determinado por la interacción de dos factores, uno interno y otro externo. El factor interno consiste en la capacidad fisiológica de las especies para multiplicarse y el deseo innato que impulsa a todo individuo a hacer uso de esta capacidad. El factor externo comprende el medio, tanto físico como social, dentro del cual se mueve cada individuo. La capacidad de una especie para multiplicarse depende de la facultad de producir óvulos y espermatozoos que poseen, respectivamente, hembras y machos. Prácticamente, en todos los tipos orgánicos reside esta capacidad en superabundancia casi fantástica, de suerte que no existe hoy una especie incapaz de cubrir el globo en unas pocas generaciones si no hubiera algo que detuviera su multiplicación. Este freno al crecimiento es el factor extrínseco o ambiental, ya que el verdadero volumen de una población

Todo ser viviente formula a la Tierra dos exigencias: alimento y espacio vital. La Tierra es, sin embargo, finita y la cantidad de ambas necesidades fundamentales está estrictamente limitada. Cada especie tiene, además, exigencias particulares. Las fuentes de alimento sufren una renovación constante, pero el espacio vital permanece prácticamente invariable. Si, en un momento dado, ocurriera que una especie determinada hubiera agotado sus reservas de alimento o espacio vital, vería limitada sus posibilidades de crecimiento. La insistente urgencia reproductora impele a toda especie, en todo tiempo, a alcanzar su desarrollo máximo, con las consiguientes presión y competencia extremas. Pudiera parecer a simple vista que la especie humana ha escapado a esta ley rígida. De sobra es conocido que la humanidad ha ido en aumento constante desde su aparición hasta nuestros días y que este aumento se ha acelerado más que retardado en las últimas generaciones. La multiplicación humana no obedece a ninguna diferencia fundamental en la ley de reproducción, sino al hecho de que el hombre ha podido ensanchar su medio. Esto lo ha conseguido de dos maneras: 1. Expandiéndose, como ninguna otra especie, por todo el globo.

78

total del medio ambiente en el 2% del tiempo de permanencia del hombre sobre la tierra (que se estima en 1 millón de años). Y los expertos en demografía confiesan su incertidumbre sobre el margen en que la tecnología y la industrialización permiten un aumento de población sin sacrificio de su nivel de vida, pero es indudable que tal margen tiene un límite. El imperativo en el orden de la naturaleza es que se establezcan limitaciones al crecimiento demográfico. De la naturaleza de tales limitaciones, así como del modo y consistencia con que se establezcan, depende en gran medida la paz y prosperidad futuras del género humano. El problema no es el nacimiento «per se», sino el hecho de que más del 90 por ciento de los nacimientos se producen en los países menos capacitados para hacer frente a las necesidades y a las condiciones ambientales del crecimiento de sus poblaciones. El aumento de los habitantes de los países en desarrollo es del 24,6 %, y el de la población en los países industrializados solo del 5,2%.

2. Desarrollando procedimientos y técnicas especiales para aumentar la productividad de la Tierra. Ambos factores se han conjugado de tal modo que cada uno ha hecho posible el mayor desarrollo del otro. Pese, sin embargo, a esta excepcional y notable evasión por la que el hombre ha escapado al cumplimiento de la ley de población estacionaria impuesta por la naturaleza, el crecimiento de la especie humana se ha efectuado en realidad muy lentamente hasta la Edad Moderna. Ello obedeció, en parte, a que la utilización de los dos factores de expansión y cultura económica requirió un tiempo enormemente largo y, en parte, a que el hombre no juzgó oportuno dedicar exclusivamente estas ventajas a la multiplicación de su propia especie. La conjugación de ambos factores, ocupación de nuevas tierras y perfeccionamiento de las artes de expansión, permitió no sólo mantener una población más numerosa en un medio determinado, sino también sustentar la misma población en un nivel de vida superior o bien lograr una combinación de ambos fenómenos. La historia cultural de la raza demuestra que la mayoría de las sociedades, no del todo consciente o deliberadamente, prefirieron crear su bienestar material a mantener la máxima población numérica en los mismos linderos del hambre, Así en 1800, la población total de la Tierra ascendía sólo a 900.000.000. Entonces se produjo un cambio notable, y en 200 años el aumento de población ha sido mayor que en toda la anterior existencia del hombre. Pero cuando hace 200 años comenzó la revolución industrial, cuya filosofía era la producción de bienes con la idea de abastecer a la población y aumentar su nivel de calidad de vida, la población apenas era de 1000 millones de personas y se contaba con un medio (tanto terrestre como marítimo) muy productivo, y un medio ambiente en el que el hombre aún mantenía (al menos en una gran parte) un perfecto equilibrio. Quizás por ello no se pudo prever una sociedad industrial que, empujada por el interés, penetrase en los rincones más lejanos e impenetrables de la tierra y del mar, se adentrase en el espacio exterior y alterase irreversiblemente los grandes sistemas naturales que mantienen, aún, la vida en la tierra. El precio a pagar por este gigantesco consumismo industrial que está llevando al sistema económico al límite de su supervivencia y que corroe los cimientos de nuestra sociedad, soportando una población de más de 6000 millones de personas (con incrementos anuales de 86 millones), es la degradación

II-DESARROLLO Y MEDIO AMBIENTE. Como vemos, todo lo dicho anteriormente sufre drásticas alteraciones en el caso del hombre al ser el depredador más feroz del planeta, el cual modifica a voluntad y expolia, rebasando así su lugar en la Naturaleza. Los espacios naturales están disminuyendo rápidamente en el mundo, sin que los efectos de esa regresión sean tenidos en cuenta de modo operativo. De este modo, cuando el hombre necesita más tierra de cultivo no tiene inconveniente en modificar un paisaje natural para adaptarlo a sus necesidades. La erosión humana sobre el medio es importante, y en una serie de casos se halla en fase máxima de intensidad. A ello contribuyen los poderosos medios de destrucción que proporciona la tecnología moderna (pesticidas, elementos no biodegradables, motores de combustión interna, etc.), así como las decisiones políticas meditadas en base a un beneficio económico (deforestación salvaje para obtención de papel, fundamentalmente). Con la deforestación y posterior dedicación a tierra de cultivo, se transforma un área oscura en una mucho más reflectante, y por tanto, disminuye la radiación solar absorbida, la máquina climática. Especialmente importantes son los bosques tropicales, dada su trascendencia en los balances globales energéticos e hídricos del planeta, y por lo tanto en las posibles alteraciones del clima. El 50% de las lluvias tropicales son aguas evapo-transpiradas, es decir, recicladas a través de los propios bosques. Por lo tanto 79

Hasta finales del siglo XVIII la fuente de energía utilizada era la solar o la de aquellas sustancias orgánicas en la que había quedado almacenada, como los alimentos o la madera. Asimismo, la mayor parte de los materiales empleados para el trabajo eran tomados de la propia Naturaleza y por lo tanto biodegradables, es decir, formaban parte del ciclo natural de la materia de los ecosistemas. Con la revolución industrial se introducen en el proceso de producción, máquinas herramientas elaboradas a base de materiales más complejos y

no es de extrañar que a la selva del Amazonas se la llame el pulmón del planeta. En lo que se refiere a las consecuencias del consumo abusivo del agua, la cantidad utilizada por el hombre crece sin cesar, de forma que en las áreas de mayor déficit se plantean trasvases entre cuencas hidrográficas, el empleo de aguas subterráneas y, cada vez más, la desalación del agua de mar. Pero, como siempre, no se trata de un problema de mayor uso, sino de una utilización inadecuada, con la secuela de una contaminación creciente. Esto contrasta con la actividad de las hormigas: hay 1.000.000 por cada hombre, suponen el mayor movimiento de tierras del planeta, se alimentan de plantas y hojas de los árboles (pero nunca hasta dañarlos de forma irreversible) y de otros insectos, y sin embargo su incidencia en el medio ambiente es escasa. La deforestación de las masas boscosas y de otras zonas altera, además del ciclo natural del carbono, la composición atmosférica ya que la materia orgánica quemada o descompuesta libera CO2 y otros contaminantes gaseosos y sólidos. Y la desaparición de todos los espacios naturales representaría la liquidación definitiva de muchas especies salvajes. De ahí el enorme interés de los parques nacionales en los cinco continentes, y en especial en África, y la necesidad de mantener amplias reservas de vida natural frente al proceso de ocupación agrícola, urbana e industrial, que actualmente se está dando en vastos territorios hasta hace poco prácticamente vírgenes (Brasil, Colombia, Perú, Sudeste de Asia, Siberia, Filipinas, Indonesia, etc.). Y es que el hombre, desde su aparición en la Tierra, ha influido sobre el equilibrio ecológico, alterándolo de tal manera que ha provocado una regresión de los sistemas naturales. De no haber existido la especie humana, la biosfera tendría un aspecto distinto al que tiene actualmente. En un principio y durante miles de años, el hombre, cazador y pescador, ejerció una influencia similar a la de cualquier animal, así el hombre actuaba como depredador y competidor en las comunidades de las que formaba parte. Con la aparición de la agricultura y el pastoreo, el hombre empezó a alterar el equilibrio ecológico de la biosfera. La necesidad de un mayor espacio para pastos y cultivos le indujo a quemar y talar bosques. Esta práctica, continúa y abusiva, hizo que quedaran amplias extensiones convertidas en sábanas e incluso en tierras áridas y pobres, lo que trajo consigo modificaciones climáticas en muchas zonas de la Tierra. Y, al mismo tiempo, la población humana comenzó a aumentar y esto trajo consigo mayores necesidades de materia y energía.

accionadas mediante nuevas formas de energía. Dicha energía se obtiene a partir de diversos combustibles, cuyo consumo va siendo cada vez mayor. Los residuos de la combustión fueron ejerciendo progresivamente sus efectos nocivos sobre la Biosfera, pues al tratarse de sustancias que, en muchos casos, no se reciclan se van acumulando en la Naturaleza, siendo además muchas de ellas tóxicas para los seres vivos. A esta acumulación de materiales no reciclables contribuyen también muchos de los productos empleados en la elaboración de las herramientas como l os plásticos, fibras sintéticas, etc. A todo esto hay que añadir los efectos del fenómeno urbano. Con la revolución industrial, se inicia el proceso de emigración del campo a la ciudad, trayendo consigo un desequilibrio en la densidad de población de la especie humana. Este desequilibrio provoca una exportación masiva de alimentos de las zonas rurales a las ciudades. Las primeras se ven obligadas, para completar su ciclo de materia, a enriquecer artificialmente sus tierras con abonos, a pesar de los efectos nocivos secundarios que provoca su utilización masiva. Por el contrario, las ciudades se van llenando de sustancias de desecho, muchas de ellas no reciclables y a un ritmo mucho mayor del que la Naturaleza puede asimilar. 80

Otro aspecto de algunos contaminantes es que en muchos casos su presencia no se detecta en el medio ambiente, aunque esto no significa que no existe contaminación. Lo que ocurre es que los productos son acumulados por los seres vivos a lo largo de las cadenas tróficas hasta alcanzar concentraciones muy superiores a las del medio (como ocurre con el DDT, plomo, boro y aluminio, que se acumulan en el organismo humano). Es decir, que las cadenas tróficas actúan como amplificadores biológicos de los contaminantes. Así, el DDT usado hace tiempo para eliminar piojos, mosquitos y otros parásitos, se acumulaba en las plantas, y así se introducía en la cadena trófica, concentrándose a medida que se ascendía en dicha cadena (plantas, herbívoros, carnívoros superiores). Este compuesto afecta a las hormonas sexuales y en el caso de las aves, por ejemplo, aumenta el número de huevos estériles o de cáscara frágil. Y el problema consiste en que se sigue utilizando en los países en vía de desarrollo, como la India, para tratar de extinguir al mosquito que transmite la malaria, entre otros. Y como se trata de un compuesto orgánico volátil, asciende a las capas superiores de la atmósfera (donde daña la capa de ozono debido a su contenido en cloro), y se expande por toda la tierra. Y como todo gas desciende al suelo en las regiones más frías, de modo que los inuits (habitantes del polo), son los más contaminados por el DDT que se usa ¡en la India! Otros efectos negativos son: - Contaminación del agua por nitratos, metales pesados, todo tipo de residuos (tanto urbanos como industriales), compuestos orgánicos persistentes, bacterias, virus, etc. - Contaminación atmosférica por ruidos (ondas sonoras), partículas de los materiales más variados, compuestos orgánicos volátiles, ondas electromagnéticas, entre otros. - El efecto invernadero. - El adelgazamiento de la capa de ozono. - La lluvia ácida. - La contaminación radioactiva. - La contaminación de los suelos por todo tipo de contaminantes. - La desertización y erosión de los suelos. - La proliferación de virus y/o bacterias debido al aumento de temperatura. Sin embargo, la economía se ha hecho tan interdependiente que a nadie le interesa que deje de funcionar, y por ello es necesario aprovechar la experiencia adquirida para construir un modo de vida con una escala de valores, en donde nuestra integración en el medio constituya el eje fundamental, al mismo tiempo que permita el desarrollo de los

pueblos que no lo posean: Es el llamado DESARROLLO SOSTENIBLE. En líneas muy generales, las medidas a tomar ante todos estos problemas y para la conservación de la biosfera y la misma antroposfera, son diversas: no extensión de los cultivos a aquellas zonas de las que no se puede esperar una producción continua –evitar la roturación de la selva tropical-, comprensión de la importancia de la fauna y la flora salvaje como fuente de alimentos y de diversidad genética y para la conservación de la naturaleza dado su papel regulador, creación de reservas semiprotegidas para el estudio y depósito de la información genética, investigación y lucha contra la contaminación, modificación de las actuales tendencias de la población humana, y el reciclado de todo tipo de residuos. Del fenómeno de la contaminación hay que distinguir dos causas: 1. Transformación de elementos naturales de la Tierra en otros que no son biodegradables. 2. Acumulación de materias, aún no siendo contaminantes, que la Naturaleza no puede asimilar. Por lo tanto hay que procurar producir menos residuos y reciclar los existentes y los que se generan, de manera rápida y limpia. En definitiva, la humanidad debe comenzar a vivir dentro de los límites de capacidad de carga de la Tierra. Se deben adoptar estilos de vida y pautas de desarrollo (el llamado desarrollo sostenible), que tengan en consideración los límites de los recursos naturales y actúen dentro de ellos. Para ello no hay porque olvidar los avances y logros tecnológicos, sino simplemente intentar que la tecnología avance dentro de los límites de la naturaleza. Y tan importante, o más, es el hecho de que los países desarrollados no debemos abusar de los que no lo son. Hoy día los países que más contaminan en valor absoluto son Estados Unidos y China (que, casualmente, son los principales opositores a que se aplique el Protocolo de Kioto), seguidos por todo el sudeste asiático e India. Sin embargo resulta que Estados Unidos, al confeccionar el mapa de la relación entre lo que un ecosistema produce cada año en masa vegetal y lo que consumen sus habitantes, esta relación es tan solo del 24%, del 6% al 12% en África y América del Sur, y del 70% al 80% en el este de Europa, y Asia del sur y del este. Naturalmente, en este estudio se pasa por encima del hecho de la explotación de los países ricos hacen del resto del planeta. Así, los países pobres suelen vender su suelo para que se depositen residuos, incluso nucleares, que otros 81

económica. Pero a cambio sufre un gran impacto social y ambiental debido a este monocultivo: han desaparecido 150.000 productores familiares (en total se han arruinado 400.000 pequeños productores, y hay muchos más endeudados con los bancos), extensas zonas rurales han quedado despobladas, semillas OGM, herbicidas Monsanto (compañía USA), carísimas máquinas de siembra directa, etc. Además la propiedad de la tierra se concentra (6.000 empresas son dueñas del 50% de la tierra productiva), y el capital extranjero controla 16 millones de Ha. El comercio internacional de soja aumenta por la demanda de China, que no cesa de aumentar. El resultado es que cada vez se dedican más tierras para su producción, lo cual supone la tala salvaje de montes y selvas, algunas de gran valor, como la selva de Yungas, Reserva de la Biosfera de la UNESCO. Sólo el norte del país está sufriendo una destrucción forestal que es cinco veces superior al promedio mundial. El resultado final, aparte del coste social, son un empobrecimiento de las tierras, y pérdida de biodiversidad: En definitiva, se ha perdido la oportunidad de un desarrollo ambiental y social más justo que el proporcionado por la soja transgénica, muy provechosa para terratenientes y sociedades extranjeras. Por ello debemos tener cuidado de no consumir ni maderas ni otros productos que no hayan sido gestionados de una forma responsable y sostenible, desde criterios sociales y ambientales exigentes.

no quieren para sí, hipotecando su futuro y el de sus habitantes. Y no menos importante es el hecho de que la deuda externa con los países ricos ahoga su economía, lo que les impide mejorar su estatus. Así, compañías de Japón y Corea explotan la madera de Indonesia, arrasando sus bosques y degradando su medio ambiente. Otro tanto ocurre con otras sociedades, como la Stone norteamericana, que ha plantado 25 millones de «melinas» (árbol de crecimiento rápido natural de Indonesia) en Costa Rica con el fin de obtener materia prima para sus actividades. Otro tanto ocurre con los árboles amazónicos, que son talados indiscriminadamente por empresas madereras (excepto una suiza, que hace una tala responsable: corta un árbol y planta tres), con lo que el suelo pierde parte de su cobertura. Entonces se planta café (para exportarlo a Europa), y las siguientes lluvias se llevan el suelo fértil, con lo que hay que

BIBLIOGRAFÍA 1II Encuentro de Profesores de Ciencias de la Naturaleza. Septiembre de 1995. Málaga. 2Imhoff, M. ¿Qui épuise le planéte ? Août 2004. Sciences et Avenir SARL. ID OBS. Paris. 3«Lo que se esconde tras los muebles de teca». Agosto 2004. Integral Nº 296. RBA Revistas. Barcelona. 4Natera, Mª L. 1991. Libro del reciclaje. Agencia del Medio Ambiente. Sevilla. 5Piano Palomo, J.A. 1991. «Reducir, Reutilizar y Reciclar». Spin Cero Nº 4. IES Pablo Picasso. Málaga. 6«Soja transgénica: el pan para hoy de los argentinos». Agosto 2004. Integral Nº 296. RBA Revistas. Barcelona. 7www.earthday.net/footprint/index.asp (podrás calcular tu huella ecológica, es decir, cuanto contaminas).

«comerle» más terreno al bosque, y así hasta que el pulmón del planeta desaparezca. Y no creamos que nosotros somos inocentes: . La cita es de Greenpeace. En este contexto, solo la compañía Ikea mantiene una actitud responsable. En la antigua Birmania, lugar de donde procede buena parte de la teca, ocurre algo peor: la dictadura militar utiliza la madera como moneda de cambio para armarse y mantenerse en el poder, en lo que internacionalmente se denomina «madera de conflicto». Argentina es el tercer productor mundial y el segundo exportador (tras Brasil) de soja, con 36 millones de toneladas en la última cosecha. El 95% de esta soja es transgénica y acaba vendida como aceites o harina para el consumo de vacas, cerdos y aves. Para el país está siendo una magnífica fuente de divisas, esenciales dada su mala situación

José-Aldo Piano Palomo I.E.S. LA ROSALEDA 82

COMPROMISOS DEL PROTOCOLO DE KYOTO Elisa Manzanares Rodríguez

Parece universalmente admitido hoy día que la emisión a la atmósfera de gases de efecto invernadero (GEI) por parte del hombre está provocando una modificación del balance de energía del sistema climático que conduce a un calentamiento global. De él a su vez se derivarían cambios en otras variables climáticas e impactos considerables tanto en el sistema natural como en las actividades humanas. Dicho cambio estaría ya generando manifestaciones en forma de tendencias crecientes en las temperaturas planetarias como fenómeno más destacable.

derecho al desarrollo sostenible de todos los pueblos y la cooperación para la promoción de un sistema económico internacional abierto y propicio al desarrollo sostenible e igual para todos. Como en la Convención Marco no se había especificado el nivel de concentración de gases de efecto invernadero que se exigía ni los plazos en que debía alcanzarse, fue necesario continuar las negociaciones a nivel internacional para alcanzar compromisos firmes. En la tercera sesión de la Conferencia de las Partes (firmantes de la Convención Marco) que tuvo lugar en Kyoto en diciembre de 1997, se adoptó un instrumento legal conocido como Protocolo de Kyoto que ponía límite a las emisiones netas de gases de efecto invernadero para los principales países desarrollados y con economías en transición al desarrollo.

El 4 de junio de 1992 se abrió a la firma la Convención Marco sobre el Cambio Climático, coincidiendo con la celebración de la Cumbre de la Tierra en Río de Janeiro. La conferencia fue firmada por 155 países, por lo que se consideró como el mayor logro de dicha reunión. Los principios que inspiraron esta Convención fueron la preservación del medio ambiente para las generaciones futuras, las responsabilidades diferenciadas de los países, el de precaución, el

El 31 de mayo de 2002 la Unión Europea y sus 15 estados miembros depositaron en la sede central de Naciones Unidas en Nueva York sus respectivos instrumentos de ratificación del Protocolo de Kyoto a

83

la Convención Marco sobre el Cambio Climático. Si bien la Convención se halla en vigor, y sus compromisos son vinculantes para España, los compromisos de Kyoto aún no se encuentran en vigor y no son vinculantes. Esto, no obstante, no es óbice para que España se considere obligada a su cumplimiento desde que el Parlamento ratificase el Protocolo el 8 de mayo de 2002.

En virtud del artículo 3.1 del Protocolo, los países desarrollados y en proceso de transición a una economía de mercado asumen el compromiso de reducir, individual o conjuntamente, sus emisiones antropogénicas de los seis gases objeto de control al menos un cinco por ciento en el período 2008-2012. Los seis gases mencionados son el dióxido de carbono, el metano, el óxido nitroso, el hexafluoruro de hidrógeno, los hidrofluorocarbonos y los perfluorocarbonos.

De acuerdo a las últimas negociaciones, Canadá, Japón y Nueva Zelanda decidieron ratificar este acuerdo internacional. EEUU, país responsable de la emisión de un cuarto del CO2 del planeta, a través del petroadicto George W.Bush, y a pesar de haber participado en todas las negociaciones intentando bloquear el proceso, decidió autoaislarse en la lucha contra el cambio climático, secundado por Howard, presidente de Australia, rechazando el Protocolo. Tras la ratificación por parte de Rusia en septiembre de 2004 el Protocolo de Kyoto alcanzó la categoría de Ley internacional. España publicaba hace apenas un año en el Boletín Oficial del Estado el Instrumento de Ratificación del Protocolo de Kyoto al Convenio Marco de las Naciones Unidas sobre el Cambio Climático.

En aplicación del principio de responsabilidad compartida pero diferenciada de los países, no todos los países desarrollados deben reducir sus emisiones de igual modo. Además se permite que grupos de países decidan cumplir conjuntamente los compromisos de limitación y reducción de emisiones, siempre que se especifiquen los compromisos de cada uno de los mismos. La Unión Europea se ha acogido a esta posibilidad, asumiendo el compromiso de reducir en un 8% las emisiones de seis gases invernadero respecto al año 1990 en el horizonte temporal 20082012, lo cual quedó refrendado por la Decisión 2002/ 358/CE de aprobación del Protocolo de Kyoto. Como las emisiones reales de Rusia cayeron con el colapso económico de principios de los 90, la 84

La posibilidad de comerciar con los derechos de emisión no parece si no un artefacto creado para acelerar la puesta en marcha del Protocolo con la adhesión interesada de Rusia y justificar así el mismo Protocolo, reavivándolo después de años de olvido. ¿Acaso no resulta aparente la reducción de emisiones de GEI, si se adquieren los derechos de otros países menos contaminantes o en vías de desarrollo? ¿Es que el planeta siente la diferencia entre contaminar gratis o contaminar pagando?¿No es cierto que los beneficios de este crecimiento contaminante son mucho mayores que los derechos de emisión que pagan?. Son muchos los que piensan que se ha creado una falsa ilusión de cumplimiento del Protocolo, de progreso y modernidad y de protección del medio ambiente.

concesión creó un significativo excedente de «derechos» de contaminación (conocido como «aire caliente») que podría ser vendido al mejor postor. A pesar de las propuestas de los grupos ecologistas indicando con una gran variedad de estudios cómo las naciones industrializadas podrían fácilmente exceder los modestos objetivos contenidos en el Protocolo a través de medidas de reducción solamente, los políticos de algunos países decidieron que necesitaban mayor flexibilidad para lograr sus objetivos. Incluyeron en el acuerdo de Kyoto mecanismos para el «Comercio de Emisiones» (posibilidad de comprar excedentes de CO2 a otros países que hayan reducido sus emisiones), un «Mecanismo para un Desarrollo Limpio» (proyectos en países en desarrollo por parte de países industrializados) y los sumideros (dependencia de los bosques y la vegetación para absorber CO2).

El principal compromiso asumido por España es el de limitar el crecimiento neto de las emisiones de gases de efecto invernadero de manera que en el periodo 2008-2012 sus emisiones de los seis gases considerados medidos en dióxido de carbono equivalente no superen en más de un 15% las emisiones del año 1990. Junto a este compromiso persisten otros, genéricos, asumidos con la Convención (elaboración de inventarios nacionales de gases de efecto invernadero, elaboración de planes de minimización de emisiones y de desarrollo sostenible, etc), así como compromisos adicionales en la obtención y remisión de información a los organismos internacionales y cumplimiento de las obligaciones de acuerdo con las formas y procedimientos establecidos. Asimismo, como consecuencia del proceso negociador, España conjuntamente con los demás miembros de la UE, Canadá, Islandia, Noruega, Nueva Zelanda y Suiza, suscribió la declaración política por la que se comprometen a facilitar recursos destinados a países en desarrollo para financiar acciones de lucha contra el cambio climático y de adaptación a sus efectos por un importe de 450 millones de euros anuales a partir del año 2005. Se trata de un compromiso político que requiere remisión periódica de información sobre la cantidad de recursos aportados. Recientemente, en marzo de 2004, España aprobó sendas partidas de 90.150 • destinadas al Fondo para el Medio Ambiente Mundial y al Fondo de Garantía del IPCC respectivamente.

Fotografía 2 y 3. El cambio climático es un hecho constatado. En cuanto al mercado de derechos de emisión de gases de efecto invernadero, puede resultar difícil entender en qué lugar del objetivo del Protocolo de Kyoto («luchar contra el cambio climático mediante una acción internacional de reducción de las emisiones de determinados gases de efecto invernadero responsables del calentamiento del planeta») encaja.

España habrá de responder ante el Comité de Cumplimiento creado al amparo del Protocolo en caso de incumplimiento de cualquiera de estas obligaciones. En función de cuál sea la infracción, será una u otra 85

Fotografía 1. El tiempo y el clima. El tiempo atmosférico depende de muchos factores que lo hacen distinto de un lugar a otro; a lo largo del tiempo cada zona tiene su clima, determinado por sus «estadísticas del tiempo».

sección del Comité la que entienda del asunto. Pero además deberá responder ante las instituciones de la Unión Europea ya que su incumplimiento puede provocar que el conjunto de la Unión cumpla sus compromisos globales.

F

REAL DECRETO LEY 5/2004, de 27 de agosto, por el que se regula el régimen del comercio de derechos de emisión de gases de efecto invernadero. BOE núm. 208 de 28 de Agosto 2004. F Consejería de Medio Ambiente de la Junta de Andalucía: www. juntadeandalucia.es/medioambiente F Instrumento de Ratificación del Protocolo de Kyoto al Convenio Marco de las Naciones Unidas sobre el Cambio Climático, hecho en Kyoto el 11 de diciembre de 1997. BOE núm.33, 8 febrero 2005. F Curso de Sostenibilidad Energética, subvencionado por el Fondo Social Europeo, organizado por Visible, S.L.

En la actualidad ya se ha adoptado un Plan Nacional de Asignación de Derechos de Emisión (ver Real Decreto 1866/2004) y se ha regulado el régimen de comercio de derechos de emisión de gases de efecto invernadero (Real Decreto Ley 5/2004). Ambas medidas, aprobadas recientemente y efectivas a partir del 1 de enero de 2005, dotan al marco normativo nacional con las herramientas necesarias para trabajar hacia la reducción de emisiones de gases de efecto invernadero.

Elisa Manzanares Rodríguez

BIBLIOGRAFÍA Licenciada en Química

F

Secretaría de la Convención Marco de las Naciones Unidas sobre el Cambio Climático: http:/ /unfcc.int

86

JUAN MANUEL DE ARÉJULA Y EL RECHAZO DE LA TEORÍA DE LA ACIDEZ DE LAVOISIER José María Bocanegra Garcés

Introducción El desarrollo científico en España durante el siglo XVIII no fue un proceso superficial, protagonizado sólo por una minoría ilustrada, sino que, lo que podríamos llamar renovación científi-ca, tuvo hondas raíces en el pasado. Ya durante la segunda mitad del siglo XVII se observan las nuevas tendencias hacia su renovación. El cambio dinástico que se produce en esta época va a favorecer el desarrollo científico, alcanzando su máximo esplendor durante el reinado de Carlos III, ya que el Gobierno, por medio de sus Ministerios, se erigió en el principal protago-nista de la implantación de la enseñanza y el cultivo de las ciencias experimentales en España; para estabilizarse posterior-mente en los años finales del siglo XVIII, precisamente cuando se recogen los frutos de la obra realizada durante el siglo. A lo largo del período ilustrado, los logros conseguidos en el campo de la Química, como en el de otras ciencias, difícilmen-te serán superados en España con posterioridad. Baste recordar que de los 109 elementos químicos conocidos, tres de ellos fueron descubiertos o descritos por primera vez por científicos españoles, y precisamente en esa época: el platino (Antonio Ulloa, 1748), el volframio (Juan José y Fausto de Elhúyar, 1783) y el vanadio (Andrés del Río, 1802). En Septiembre de 1777 es aprobada la creación de la Cátedra de Química de Vergara (Guipúzcoa), que quedaría bajo la dirección de la Sociedad Económica Vascongada de Amigos del País. La inaugu-ración de la cátedra fue realizada por el químico francés J.L. Proust en mayo de 1779, fecha en que se puede datar el comienzo de la enseñanza regular de la química en España. Más tarde se inaugurarían las Cátedras de Química de Madrid (1788), Valencia (1791), Segovia (1792) y Cádiz (1795). En enero de 1788, Pedro Gutiérrez Bueno inauguraba la enseñanza de la Química en el Real Laboratorio de Madrid fundado por el Ministerio de Estado. En el mismo mes daba a conocer su traducción castellana del Méthode de Nomenclature Chimique. No obstante, en nuestro país se dieron determinados factores que impidieron que calara

adecuadamente el espíritu experimenta-dor que surgió en otras naciones. En ello pudo influir de forma especial una coyuntura decisiva: la falta de profesores bien preparados y la carencia de libros de filosofía natural actuali-zados. En una de sus Cartas Eruditas, el padre Feijoo resume la situación en España en los siguientes puntos: El corto alcance de algunos de los profesores de entonces. La preocupación que reina en España contra toda novedad. El errado concepto de que cuanto nos presentan los nuevos filósofos se reduce a curiosidades inútiles. Un vano temor a que las doctrinas nuevas en materia de filosofía traigan un perjuicio a la religión. En Andalucía como en el resto de España, llegaron a lo largo del siglo XVIII las nuevas ideas filosóficas y científicas desarrolladas en el extranjero 87

y que conocemos como la ilustra-ción, estas ideas son fundamentalmente racionalistas y críticas hacia las tradiciones y los conocimientos establecidos. Como consecuencia de la practicidad que implicaba el desarrollo de dichas ideas se va a potenciar la enseñanza de las ciencias útiles tales como: Botánica, Física, Química y Matemáticas, en detrimento de las denominadas ciencias especulativas, como la Metafísica. Se trataba pues de eliminar las ideas aristotélicas, especulativas, en beneficio de la experimentación científica. Durante este siglo, y sobre todo en su primera mitad, la actividad científica en las Universidades fue casi nula, permaneciendo la estructura de las mismas prácticamente invaria-ble con respecto al modelo establecido en el siglo anterior, quizás debido a que las mismas estaban en su mayor parte en manos del estamento eclesiástico que se oponía de forma decidida al cambio, de ahí que nacieran durante esta época otros organismos extrauniversitarios que tuvieron una decidida participación en la difusión de la ciencia en la región andaluza. Así en Sevilla nació el Real Colegio Seminario de San Telmo creado en el último tercio del siglo XVII, que fue una institu-ción destinada desde sus comienzos a la formación profesional del personal que iba a dedicarse a la marina mercante. Según indica el profesor Cano Pavón, en su documentado libro sobre la ciencia en Sevilla, existía en la biblioteca del Colegio diversas obras de Matemáticas (entre los que se encontraba los Elementos de Euclides) y de Geografía, y se disponía de un pequeño laboratorio de instrumentos náuticos. El otro organismo fue la Regia Sociedad de Medicina y demás Ciencias, fundada en 1700, por un grupo de médicos revalidados y que desarrolló su actividad en los campos de anatomía, botánica, física y química. En botánica llegó a organizar un completo jardín botánico para el cultivo de plantas de interés farmacológico. En 1785 se adquirió, por parte de la Sociedad, una maquina neumática de Boyle. En Cádiz el centro más importante fue el Observatorio de Marina, construido junto a la Academia de Guardiamarinas. Fue solicitado por Jorge Juán al marqués de la Ensenada y conoció su época de mayor esplendor durante la dirección de Vicente Tofiño. En él se realizaron importantes trabajos científicos, se organizó la expedición de Malaspina (1789-94) alrededor del mundo, el levantamiento del atlas de España (1783-88), etc., en 1798 dicho Observatorio fue trasladado a San Fernando.

También existía en Cádiz un centro docente de rango universitario: el Real Colegio de Medicina y Cirugía, que con los años se transformaría administrativamente en Facultad, y que tuvo un excelente nivel durante todo el siglo XIX, dicho Colegio nació por la petición realizada al marqués de la Ensenada por parte del cirujano militar al servicio de la armada real Pedro Virgili en 1748, quien, junto con un reducido número de médicos militares, había abrigado la esperanza de erigir un colegio en el cual se enseñara la medicina y la cirugía partiendo del estudio de la anatomía comparada y de los experimentos físicos, observaciones y experiencias prácticas. Ese mismo año de 1748, firmaba el Rey Fernando VI la cédula de erección del mismo, lo que se haría dos años más tarde, construyéndose un edificio anejo al Hospital Real, con un anfiteatro anatómico, una biblioteca, una colección completa de instrumental quirúrgico, un laboratorio químico y un jardín botánico. Inicialmente se constituyó con cuatro profesores y sesenta alumnos, siendo su primer

director el propio Pedro Virgili. La corriente imperante en él era la mecanicista y la concepción del cuerpo humano como una «maquina», sometida a leyes fijas que pueden ser conocidas a través del estudio anatomo-fisiológico y el de la física experimental . La metodología utilizada en el diagnóstico, tratamiento y 88

curación de las enfermedades nos habla, asimismo, de la modernidad de los cirujanos gaditanos en la concepción de la ciencia médica. Su mentalidad, abierta a las innovaciones y a los adelantos científicos del momento, se manifiesta no sólo en los frecuentes viajes que los profesores realizan al extranjero, sino también en las becas que se crearon para que los estudiantes más aventajados perfeccionasen sus estudios en los principales centros europeos, así en los primeros años, tres de ellos fueron enviados para cursar estudios de medicina a Leyde y a Bolonia y seis para cursar los de cirugía a París, y este fue el común denominador en los años sucesivos, lo que da idea de la altura intelectual que alcanzó el Colegio. A finales del siglo XVIII tuvieron especial importancia en Andalucía las Sociedades Económicas de Amigos del País, fundadas a imagen de la Sociedad Vascongada. La primera de ellas fue la de Baeza, fundada en 1774, y la última fue la de Loja en 1804. La de Málaga fue creada en 1776 y tuvo una actividad tan efímera como insustancial en su primera época, celebrando en 1797 su última reunión. Estas Sociedades tenían una actividad docente centrada fundamen-talmente en dos sectores: el de las escuelas patrióticas y las enseñanzas especiales.

Es notable reseñar que Aréjula formaba parte de la nómina del Laboratorio Químico que dirigía en Madrid Pedro Gutiérrez Bueno en calidad de «Profesor forastero que no enseña» y ello sólo por haberse previsto que enseñara allí química a su vuelta de París. Fruto de la etapa formativa en Francia fue la publicación en 1788 de sus Reflexiones sobre la nueva nomenclatura química de la cual Aréjula realizó una nueva redacción con traducción francesa para su publicación en el fascículo de octubre de 1788 de la revista Observations sur la Physique. Entre 1790 y 1791 compuso una Memoria sobre la nueva y metódica clasificación de los fluidos elásticos permanentes y gaseosos que presentó este último año a la Real Academia de Medicina de Madrid. En 1795 publicó su Discurso sobre la necesidad de la Química en la teoría y práctica de la Medicina, que fue el texto del discurso de apertura de ese año en el Real Colegio de Cirugía de Cádiz y que puede considerarse como la introducción del programa de Fourcroy en el colegio gaditano. En los primeros años del siglo XIX, dedicó su actividad a combatir la fiebre amarilla que se había desencadenado en Andalucía, fruto de este trabajo epidemiológico fueron sus escritos sobre la enfermedad que le hicieron universalmente conocido, en especial por su Breve descripción de la fiebre amarilla publicado en 1806. Como protomédico en Cádiz, a partir de 1807, se ocupó de la mejora sanitaria de la ciudad y de luchar contra el intrusismo para defender la profesión médica.

Biografía Juan Manuel de Aréjula y Pruzet nació en Lucena (Córdoba) el 24 de junio de 1775. Era hijo de Juan de Aréjula Burgos y de Francisca Pruzet, su nacimiento en Lucena se debió al cargo que ocupaba su padre como cirujano del Regimiento de Dragones de Edimburgo destacado en esta ciudad. A los 17 años ingresó en el Colegio de Cirugía de Cádiz, ejerciendo como cirujano militar entre 1776 y 1784; durante esta época permaneció embarcado y visitó las colonias americanas donde tuvo sus primeros contactos personales con la fiebre amarilla. En 1784 fue enviado a París a estudiar química con Antoine François Fourcroy; su larga permanencia en la capital francesa al lado de una personalidad tan destacada, con quien llego a ser «demostrador», le permitió vivir momentos cruciales en la definitiva constitución de la química. Ente 1789 y 1791 Aréjula recorrió Inglaterra y Escocia haciendo una recopilación de instrumental para el laboratorio que pensaba establecer en Cádiz. Volvió a España en 1791 como profesor de química en el Colegio en que se formó, pero la carencia de laboratorio hizo que hubiera de enseñar Materia Médica y Botánica.

Dado su carácter liberal, en 1814 cayo en la marginación profesional, lo que le convirtió en un activista político; estas mismas razones y su sólido prestigio le llevaron a ocupar un cargo en la Dirección General de Estudios en 1821, en la que se encargó en especial de la reforma de los estudios médicos en la línea apuntada por las Cortes de Cádiz; en esta tarea le resultó muy útil su experiencia junto a Fourcroy, que había desarrollado un cometido similar en Francia. En 1823, hubo de exiliarse en Inglaterra, apartado de toda actividad científica. A las 9 de la mañana del día 16 de noviembre de 1830 moría en su casa de Seymour Street de Londres, siendo enterrado cuatro días más tarde en la parroquia de St. Pancras.

89

El rechazo de la teoría de la acidez de Lavoisier

15 partes de hidrógeno y 85 de oxígeno por cada 100 partes de agua, hacía del hidrógeno la sustancia capaz de combinarse con la mayor cantidad de oxígeno. Sin embargo, el producto resultante de la combinación no era ácido. Luego también esta cuarta proposición era falsa. Una vez rechazada la teoría de la acidez de Lavoisier y demostrada la impropiedad del termino oxigeno, Aréjula propondrá una nueva denominación basándose en diversas consideraciones de orden químico respecto a la propiedad más general y característica del elemento en cuestión. Será precisamente aquella operación química, la combustión, cuyo mecanismo aclaró Lavoisier, donde Aréjula se basaría para proponer la alternativa a dicho nombre. Lavoisier llamó combustión a toda combinación del carbono y el oxígeno, y será esta combinación, analizada en todas sus circunstancias, donde Aréjula se detendrá más ampliamente para apoyar las razones que le llevaron a dar al oxígeno el nombre de arxicayo o principio quemante. Además de este cambio del termino oxigeno por arxicayo, Aréjula propondrá el cambio de la denominación francesa gaz azotique, por contravenir la regla establecida para nombrar a las sustancias simples en estado gaseoso. Según ésta, el oxigéne en estado gaseoso se llamaría gaz oxigéne y el hidrogéne, de la misma forma, se denominaría gaz hydrogéne. Pero en el caso del azote (nitrógeno) los reformadores franceses no siguieron esta regla y llamaron gaz azotique cuando se encontraba en estado gaseoso. Aréjula señaló la anomalía introducida y propuso llamarle azoe a la sustancia simple y gas azoe a la misma sustancia en estado gaseoso. De las innovaciones preconizadas por Aréjula en sus Reflexiones, sólo el cambio de gaz azotique por gaz azote sería aceptada por la comunidad científica europea. El difusor y defensor de tal cambio sería Foucroy quien lo incorporó en la tercera edición de sus Eléments d´histoire naturelle et de chimie (1789). En España el primero que se hizo eco de la crítica de Aréjula al término oxígeno fue Trino Antonio Porcel en el artículo que publicó en los Extractos, órgano de expresión de la Sociedad Vascongada de Amigos del País, pero Porcel, aunque acepto todos los fundamentos esgrimidos por Aréjula para rechazar la teoría de la acidez de Lavoisier, señalando que la propiedad más característica del oxígeno era la de ser responsable de la combustión, no aceptó la denominación de arxicayo y consideró que la más apropiada era la de comburente. Si, como Aréjula demostró y la historia corroboró, la teoría de la acidez de Lavoisier era falsa, cabe preguntarse por las causas de que no fuese

Desde un primer momento Aréjula mostró su total aceptación de los principios metodológicos que cimentaban a la nueva nomenclatura química propuesta por Guyton de Morveau, Lavoisier, Bethollet y Fourcroy, lo que ponía de manifiesto en sus Reflexiones sobre la nueva nomenclatura química, también anunciaba que su crítica sólo iba destinada a poner de manifiesto la aplicación errónea de tales principios en algunas denominaciones, sobre todo en la palabra oxígeno introducida por Lavoisier. Por tanto, la mayor parte de las Reflexiones será ocupada en refutar la teoría de la acidez de Lavoisier que fundamentó la denominación de oxígeno (del griego»ácido») y mostrar también las razones de orden químico en que él basaría la innovación terminológica que ofrecía como alternativa de cambio. A partir de la proposición «oxigeno quiere decir engendrador de ácido», Aréjula deriva cuatro inferencias que serán objeto de análisis y confrontación con los datos y hechos conocidos de la época. Primera inferencia: «Todos los ácidos contienen oxigeno». Aquí Aréjula pone en tela de juicio tal afirmación ya que se conocían algunos ácidos como era el ácido prúsico (ácido cianhídrico, HCN) que había sido objeto de análisis por parte de Berthollet quien sólo encontró en su composición hidrógeno, carbono y nitrógeno, y nada de oxígeno como sugería la teoría de Lavoisier. Segunda inferencia: «Todo cuerpo que se une a la porción de oxígeno, que es capaz de recibir, se vuelve ácido». La combinación del oxígeno con el hidrógeno formando agua, y con 14 metales formando sus respectivos óxidos, no mostrando propiedades ácidas ninguno de ellos, refutaba palpablemente la veracidad de esta segunda proposición. Tercera inferencia: «La acidez y las propiedades de ácido serán tanto mayores, cuanto la proporción de oxígeno sea mayor». En los casos de los ácidos formados por el nitrógeno, el azufre y el fósforo, esta aseveración era cierta. Pero en el caso del radical muriático, es decir, aquella sustancia que combinada con el oxigeno originaba los ácidos muriático y muriático oxigenado, la proposición resultaba ser falsa. Cuarta inferencia: «El cuerpo capaz de recibir más oxígeno será el más terrible ácido». «El cuerpo capaz de recibir más oxigeno será el más terrible ácido» De nuevo la experiencia negaba tal afirmación. La determinación cuantitativa realizada por el mismo Lavoisier de la composición del agua, encontrando 90

aceptada por la comunidad científica europea la crítica de Aréjula. Gago y Carrillo proponen como razones que pueden dar respuesta a esta pregunta el hecho de que Aréjula al aceptar la mayoría de las aportaciones teóricas de Lavoisier y rechazar sólo algunas, se colocaba en un terreno que tanto los partidarios de uno u otro sistema lo podían considerar como enemigo. En estas condiciones era bastante problemático que las opiniones de un científico desconocido y perteneciente a un país carente de peso específico en el campo de las ciencias, pudiera derrocar cualquier hipótesis o teoría de una de las máximas autoridades científicas de la época como era Lavoisier. La teoría de la acidez estuvo vigente hasta 1810, año en que H. Davy demostró que el ácido muriático estaba constituido por la combinación del hidrógeno con el cloro, poniéndose de manifiesto que uno de los ácidos mas fuertes carecía de oxígeno o principio acidificante. Este sí fue el hecho crucial que sería aceptado ampliamente por la comunidad científica de la época y el que demostró experimentalmente la inexactitud de la teoría de Lavoisier sobre los ácidos. BIBLIOGRAFÍA BOCANEGRA GARCÉS, J.M. et al. (2004). Ciencia y Sociedad en el siglo XVIII. Delegación de Educación y Ciencia de la Junta de Andalucía. Málaga. BOCANEGRA GARCÉS, J.M. et al. (1995), El Siglo de Lavoisier, Instituto de Ciencias de la Educación. Málaga. CANO PAVÓN, J.M. (1993). La Ciencia en Sevilla (siglos XVI-XX). Universidad de Sevilla. GAGO, R., CARRILLO, J.L. (1979). La introducción de la nueva nomenclatura química y el rechazo de la teoría de la acidez en España. Universidad de Málaga. LÓPEZ PINERO, J.M. (1983). Diccionario histórico de la ciencia moderna en España. Ed. Península. Barcelona. José María Bocanegra Garcés I.E.S. «PABLO PICASSO»

91

CIENCIA Y FRAUDE Salvador Cordero Rodríguez

El investigador Woo Suk sorprendió al mundo al anunciar en la prestigiosa revista Science la obtención de células madre que permitirían regenerar tejidos y órganos dañados, así como avanzar en el tratamiento del alzhéimer y la diabetes. En diciembre pasado un comité de la Universidad Nacional de Seúl comparó el ADN de las muestras asociadas a las líneas celulares que Hwang guardaba en su laboratorio Hospital Mizmedi en Seúl con los de los supuestos donadores y comprobó que no coincidían. Hoy el comité se dispone a examinar otros logros del equipo de Hwang, como el anuncio –también publicado en Science– de la primera clonación de un embrión humano, o el caso de Snuppy, presentado por el científico en agosto como el primer perro clonado.

obstetricans, a aparearse en el agua los machos adquirían «cepillos copuladores», carácter que se transmitía a las siguientes generaciones. En 1926, G.K. Noble, conservador del Museo Estadounidense de Historia Natural, visitó el instituto donde Kemmerer trabajaba y comprobó, lupa en mano, que las supuestas callosidades de las manos del sapo tantas veces exhibido no eran más que manchas de tinta china. Kammerer se suicidó el 23 de septiembre de ese mismo año, y envió una carta en la cual juraba que no era el autor del fraude.

La ciencia es la verdadera escuela moral; ella enseñan al hombre el amor y el respeto a la verdad, sin el cual toda esperanza es quimérica. Berthelot Estas frases, ¿colmadas de ingenuidad?, bien podían acompañar las viñetas que ilustraban nuestros libros de física, con Arquímedes saliendo desnudo a la calle gritando ¡Eureka! ¡Eureka!; con la rana de Galvani, con Franklin corriendo bajo la tormenta y tirando del hilo de un colorista cometa, con la manzana de Newton, con el péndulo de un susurrante Galileo .. ¡ y sin embargo se mueve!,. con el tonel de Pascal, con el animoso y esforzado ir y venir del matrimonio Curie y su carretilla repleta de pechblenda, con el diablillo de Descartes, con la caricatura de un Einstein disfrazado de Newton y montando a caballo sobre la Tierra mientras proyectaba haces de luz desde sendas linternas... A partir de 1909, Paul Kammerer, zoólogo del Instituto de Investigaciones Biológicas de Viena y defensor de la teoría de «heredabilidad de los caracteres adquiridos», afirmó, batracio en bote y conferencia tras conferencia, que tras haber forzado, durante cinco generaciones, a sapos parteros, Alyfes

En 1999, investigadores del laboratorio Lawrence Berkeley National Laboratory, de EEUU, publicaron en New Scientist el descubrimiento del elemento 118, el átomo más pesado conocido hasta entonces y según contaban, obtenido impactando átomos de criptón en un blanco de plomo. Más tarde, varios grupos de investigadores alemanes y japoneses 92

la esencia de la cosa y su significado». Siempre según Freud, cuando el paciente tuvo conocimiento de su diagnóstico se curó y llevó una vida normal. La periodista Karin Obholzer descubrió que la realidad era muy distinta y que Sergei Pankejeffasí, como se llamaba el paciente, estaba muy lejos de estar curado y cobraba un sueldo mensual, a cargo de la Fundación Sigmund Freud. a cambio de mantenerse oculto en Viena. Siempre hemos contemplado al científico movido por nobles ideales y guiado en su quehacer diario por una impecable rectitud moral. Hoy vemos que la ambición personal por mejorar el status dentro de la comunidad científica y el dinero condicionan, el comportamiento del científico como el de cualquier otra persona en el ejercicio de su profesión. Descubrimos que, ante la presión que impone la competencia y la inagotable exigencia de conseguir excelentes resultados que justifiquen ayudas ya recibidas y atraigan nuevas subvenciones, el hombre de ciencia se desvía del que siempre hemos considerado como valor tradicional de la ciencia: una búsqueda generosa y desinteresada de la verdad, siguiendo una máxima. rigor y objetividad. Dado que el mayor porcentaje de fraude se aprecia en las ciencias biomédicas, desgraciadamente en muchas ocasiones tiene consecuencias que van más allá de la desolación causada por el quebrantamiento del sacrosanto método científico. Andrew Wakefield, médico del International Child Development Resource Centre, de Londres, publicó en 1998 en Lancet un estudio que vinculaba la vacuna trivírica (sarampión, paperas y rubéola) con casos de autismo. La fiabilidad de los resultados comenzó a ponerse en cuarentena cuando en 2004 se comprobó que el autor del estudio había cobrado 55.000 libras de una institución, la «Legal Aid Board», que incluía a los padres de los niños afectados de autismo, objeto del estudio de Wakefield y que, sobre la base de las conclusiones de sus trabajos, querían querellarse contra los laboratorios que fabrican esas vacunas. Para entonces el daño ya estaba hecho, la alarma creada entre los padres hizo que muchos niños quedaran sin vacunar y así en el Reino Unido la tasa de inmunización ha caído hasta un 79%, una cifra muy inferior al 95% requerido para conferir inmunidad a la población. La solicitud de autorización para la utilización del complejo Crotoxina A y B fue iniciado el 11 de julio de 1986, tres días después de la conferencia de prensa que organizaran los médicos autores del descubrimiento de sus supuestas propiedades anticancerígenas. ... Desde la Fiscalía argentina se afirma, «se encuentra probado que el

doctor Juan Carlos Vidal elaboró y suministró a seres humanos el complejo referido desde 1981 aproximadamente, y desde fines de 1985 lo entregó para su aplicación en seres humanos a los doctores Luis Cota, Carlos Coni Molina y Guillermo Hernández Plata». «Para ello contó con la colaboración del Instituto de Neurobiología (IDNEU) y de su titular, doctor Juan Tramezzani» ... «que el citado investigador no informó a este Consejo [CONICET] respecto a la posible utilización de productos derivados de venenos de serpientes para el tratamiento del cáncer» ... «la interrupción del suministro, lejos de fundarse en razones científicas, clínicas o humanitarias, tuvo su origen en la falta de acuerdo entre Tramezzani y los facultativos citados, respecto a los porcentajes que a cada uno correspondería por el «patentamiento y comercialización del producto, sin participación del CONICET». ¿Qué se estaba suministrando a los enfermos y sobre que base experimental ?. Fiscal y oncologos tras estudiar la monografía firmada por los doctores Juan Carlos Vidal, Luis A. Costa, Carlos Coni Molina y Guillermo Hernández Plata desgranan: «La cita de importantes investigaciones y avances logrados en el tema por el doctor Mayer ha sido desmentida enfáticamente por el propio Mayer» ... «Más grave aún resulta la intencional utilización de micrografías tomadas de la obra Venom Chemystry and Molecular Biology de Anthony Tu, editada en 1977, en Estados Unidos, las cuales, colocadas en distinta posición, con texto alterado y sin cita de su antecedente, pretenden ser estudios propios y serios sobre la cuestión [cuando nada tienen que ver con la crotaxina]» ... «no se muestran resultados sobre el efecto del Complejo en líneas celulares de estirpe humana, ni tampoco evidencia experimental alguna que avale la supuesta carencia de acción del complejo sobre células normales» ... «no detallan el origen de los animales portadores de los tumores experimentales, el estadio evolutivo de los mismos, las dosis del complejo utilizadas ni el efecto sobre la masa tumoral y/o el número de metástasis» ...»La composición declarada del complejo es falsa»... «Fue imposible obtener información acerca de los datos clínicos de los 51 pacientes agrupados en el «Ensayo clínico no controlado» mencionado en la monografía y que, según los autores de la misma, tuvieron una sobrevida del 100 % a los cuatro años con un 86,26% de remisiones objetivas». En la monografía se dice que fueron tratados 700 pacientes, mientras que el registro oficial no excede los 150. Se afirma que se estudió la distribución de la crotoxina B marcada inyectando a ratas y no se encontró radioactividad en la vesícula biliar. Las ratas no tienen vesícula biliar... 93

Lo peor de este asunto, el intento de escabullirse entre la desesperación de enfermos terminales y familiares que se aferran a cualquier esperanza de salvación. Y ello aún cuando se estudia si el fallecimiento de algunos de los pacientes inoculados con el complejo, tendría como causa directa dicha sustancia.

de tejido extraño y que sin recurrir al tratamiento inmunosupresor no suscitasen reacciones inmunitarias. En 1974 frustrado por la falta de resultados positivos llegó a usar un bolígrafo de punta de fieltro, con el fin de convencer al apremiante director de sus trabajos, el ilustre inmunólogo Robert A. Good, de que había concluido con éxito el injerto de piel entre diferentes clases de ratones, ratones negros y blancos El físico Jan Hendrik Schön trabajó en nanoelectrónica en los laboratorios Bell, de New Jerse. Con 32 años ya contaba en su extenso y brillante currículo con nada menos que 80 publicaciones en dos revistas científicas del prestigio de Science y Nature.. En octubre de 2000, en Nature, Schon aseguró que había fabricado un transistor a partir de un solo estrato de moléculas, logro que añadía a la fabricación de un transistor emisor de luz y láser a partir de cristales orgánicos y a la demostración de la superconducción en el seno de varios cristales orgánicos. Sus resultados fueron imposibles de reproducir por otros investigadores. Paul Solomon, un científico del Centro de Investigación Watson, de la empresa IBM. escribió a Nature para expresar sus inquietudes. La revista nunca publicó la carta, pero explicó al remitente que varias personas revisaron el documento de Schon antes que fuera publicado y se plantearon los mismos interrogantes. Los Laboratorios Bell despidieron a Schon al día siguiente de recibir el informe de un grupo de expertos, quienes concluyeron que el científico inventó o alteró datos de sus investigaciones por lo menos 16 veces entre 1998 y el 2001 Ante ello cabe preguntarse: ¿Incluyen los artículos, enviados a las revistas científicas, descripciones de los protocolos experimentales, que permitan a otros científicos reproducir los experimentos? ¿La revisión la realizan realmente científicos competentes que además no están directamente involucrados con la investigación que está siendo evaluada?. ¿Se tiene siempre en cuenta la validez y la originalidad de los resultados, su interés y oportunidad para la comunidad científica y el conjunto de la sociedad? ¿ Informan de forma suficiente las revistas científicas acerca de las conducta impropias y de la subsiguiente retracción cuando ésta ha sido finalmente demostrada?. Está claro que no siempre como ocurrió con los artículos revolucionarios de Albert Einstein «Annus Mirabilis» en el número de 1905 de Annalen der Physik se verán implicados en el proceso de analisis de los artículos pares del calibre de Max Planck, jefe del consejo editorial de la publicación y padre de la Teoría Cuántica y el coeditor Wilhelm Wiens, quienes posteriormente ganaron el Premio Nobel de Física.

La felicidad del hombre de ciencia es tener un experimento que resulte bien y que se repita continuamente. Herschey A pesar de que el número de casos confirmados de mal proceder en el mundo de la ciencia es muy bajo comparado con la actividad científica total, la casuística lógicamente debe ser mucho mayor de la que se detecta. Limitándonos a considerar como fraude científico un planteamiento, desarrollo y comunicación de la investigación científica, orientados a engañar mintiendo, falseando o exagerando, podemos dar por buenas cifras en las que el fraude más frecuente (40%) se corresponde con la falsificación de datos, seguido de su fabricación (12%) y del plagio (5%). En 2005 Nature publicó un artículo que sugiere que estas faltas graves las realizan menos del 2% de los investigadores, pero si el concepto de fraude lo extendemos a todo abandono de los mandatos del método científico y de las pautas éticas relacionadas con la actividad científica, se extiende al 30% de ellos. «Si decimos que no tenemos pecado, nos engañamos a nosotros mismos» (1 Juan 1:8). Con independencia de la naturaleza de la falta, el responsable del fraude se nos presenta como un individuo inteligente, con una excelente formación académica y conocedor del terreno que pisa. Lo uno y lo otro le lleva a estar trabajando en un centro de investigación de reconocido prestigio, a tener un supervisor científico de primer orden, a publicar con frecuencia y en acreditadas revistas científicas, a disponer de prestigiosos y cautivados auditorios y a contar con la aclamación de una parte notable de la comunidad científica. Para ilustrar tales circunstancia podemos añadir a los ya citados los casos de William T. Summerlin, Jan Hendrik Schön y John L. Ninnemann y ya de paso preguntarnos acerca del papel que en todo esto juegan los supervisores científicos, los centros de investigación y las revistas científicas. William T. Summerlin, prometedor científico del Instituto de Investigación Contra el Cáncer SloanKettering, había tenido la idea de realizar un cultivo de órganos con fragmentos de piel antes de injertarlos buscando que así cultivados perdiesen su condición 94

El inmunólogo John L. Ninnemann, en 1874 se encontraba en el Instituto de Investigaciones del Cáncer Sloan-Kattering de Nueva York, y por entonces intentó reproducir, lógicamente sin éxito, los resultados de un Summerlin ya dedicado a colorear con parches negros ratones blancos Ya profesor del Departamento de Cirugía de la Universidad de Utah, Ninnemann, realizaba investigaciones sobre la causa de la supresión del sistema inmunológico luego de quemaduras. En 1983 despertó las sospechas de J.T. Condie, técnico jefe de laboratorio al encontrar contradicciones entre los registros de laboratorio y los contenidos de publicaciones y congresos. A J.T. Condie se le mandó callar y a Ninnemann se le trasladó a la Universidad de California en San Diego que como había hecho la de Utah siguió avalando su trabajo y unas peticiones de subsidios federales que se elevaron a 1,2 millones de dólares. El triple de lo defraudado hubieron de devolver ambas universidades. Una consecuencia inmediata del descubrimiento de este tipo de fraudes: la de rebajar los créditos concedidos a unas líneas de investigación que en sí mismas pueden ser prometedoras, otra es la de crear un clima de alarma en el conjunto de la sociedad que llama a la intervención del mundo de la política El caso David Baltimore- Thereza ImanishiKari,.es ilustrativo de ello. El virólogo David Baltimore, presidente de la Universidad de Rockefeller y Premio Nóbel en 1975, defendió el correcto proceder de la inmunóloga Thereza Imanishi-Kari acusada por una joven estudiante posdoctoral, Margot O’Toole de haber alterado los resultados, publicados en Cell, sobre los que sostenía que un gen externo (transgene) injertado en un ratón influyó en la actividad de los genes nativos en forma que simula a la del transgene. El caso fue denunciado, no como un fraude, sino como un error en la literatura que debería ser corregido. Inicialmente no fue tomado en serio por dos prestigiosas universidades, Tufts y el Massachusetts Institute of Technology, que concluyeron que no era necesario hacer nada. La acusadora fue expulsada del grupo de investigación (dirigido por Imanishi-Kari). Baltimore, aunque no fue acusado de fraude, debió renunciar a su presidencia de la Rockefeller University debido a la controversia sobre su responsabilidad en el affaire. En paralelo a la defensa de su honor, debió mantener una lucha contra la injerencia de los políticos. Así de claro se manifestó ante el congresista demócrata John Dingell: «Un pequeño grupo de outsiders, en nombre de un supuesto imaginario error tiene la intención de utilizar esta pequeña y normal disputa científica para consentir la introducción de nuevas leyes y reglas en la actividad científica; leyes

y reglas que yo considero peligrosas para la ciencia norteamericana». Alexander Kohn, eminente biólogo israelí, fundó allá por la década de los 50 el «Journal of Irreproducible results, «Diario de Resultados Irreproducibles. En una de sus secciones un «eminente matemático» presentaba la sencilla igualdad 1+1=2 bajo una exquisita pero enrevesada fórmula equivalente. Con ello se ilustraba la habilidad que muestran muchos científicos que parecen actuar impulsados por lemas del género «publicar o perecer» o «para qué hacer las cosas fáciles cuando se pueden hacer difíciles». Desde 1991 la Universidad de Harvard da cobertura a los Premios IgNobel, o Premios Nobel a la Ignominia, que se celebran todos los años para premiar a los «mejores trabajos», artículos supuestamente científicos pero sumamente «pedantes, oscuros o simplemente estúpidos». Son entregados por auténticos ganadores de algún Premio Nobel, que en la ceremonia aparecen con grandes narices postizas, sombreros ridículos y falsos anteojos. En 1991 el de Física, fue asignado a Thomas Kyle, que publicó un artículo hablando de una nueva clase de átomo, el ‘administratum’, cuyo núcleo tiene muchos neutrones pero sólo uno de ellos trabaja en serio. Los demás son 8 asesores, 35 vice-neutrones y 256 asesores de vice-neutrones. Kyle, que también presuntamente descubrió unas partículas elementales llamadas ‘ñoquis’. Chris McManus del University College de Londres fue premiada por una investigación publicada en 1976 en la revista «Nature» sobre la asimetría de los testículos en el hombre. A David Dunning de la Universidad de Cornell y Justin Kreuger, Illinois, se le premió por un informe publicado en 1999 en el Journal of Personality and Social Psychology., «Son unos inútiles y lo peor es que no lo saben: de cómo la dificultad en reconocer la propia incompetencia puede inflar la autovaloración». Por la década de los 60 apareció otra revista del mismo corte de la de Kohn, «Worm Runner’s Digest», (Revista del Amaestrador de Gusanos, fundada en los EEUU por el psicólogo James V. Mc Connell. El interés científico de Mc Connell estuvo centrado en la posibilidad de amaestrar platelmintos para así poder transmitirles cierta información a memorizar. Lo que en última instancia buscaba era el factor capaz de transferir la memoria, concluyendo finalmente que se trataba del ARN, ácido ribonucleico. Salvaguardada la seriedad de su investigación, Mc Connell supo aderezarla con trazos humorísticos para desembarazarse del apremio de su jefe de departamento, que lo conminaba a publicar o morir no importando si la investigación era mala, «total el decano no se iba a dar cuenta». Así, en su artículo, no 95

dudó en presentar a sus platelmintos como un animal antifreudiano, al ser hermafrodita y tener los dos sexos no experimenta la envidia del pene; al poseer una misma abertura para comer y defecar, tiene confundidos sus estadios oral y anal. Cuando se refiere a su metodología de trabajo y a las conclusiones no duda en asociar a un impulso de sadismo el corte en dos trozos de un platelminto previamente amaestrado y en afirmar que, al menos en el caso de estos animales, perder la cabeza en realidad mejoraba la memoria toda vez que el nuevo gusano formado a partir de la cola recordaba más que el formado a partir del trozo portador de la cabeza.

En definitiva, el sentido del humor es también una buena fórmula de autocrítica, aunque algunas cifras llamen a la inquietud. A principios del siglo XX el número de publicaciones científicas era del orden de 7.000, en la actualidad, pasan de 100.000, pudiéndose publicar anualmente del orden de un millón de artículos. Un nuevo caso ilustra como es posible publicar a este ritmo. Cuando en 1974 se descubren las encefalinas, morfinas intracerebrales, se desencadenó tal conmoción entre los neurobiólogos que el número de publicaciones sobre las propiedades de estas moléculas fue creciendo a una velocidad vertiginosa durante los dos años siguientes. En medio de esta vorágine en julio de 1976 apareció en Nature un artículo firmado por Robert J. Gullis investigador del laboratorio de bioquímica de Hamprecht, en el que exponía que de los resultados obtenidos en sus cultivos neuronales. la acción de la leucina-cefalina sobre el metabolismo de estas células derivaba de su interacción con el AMP cíclico, «segundo mensajero» y mediador en la respuesta celular a los factores hormonales de naturaleza peptídico. Sólo hubo un problema ¡ Estaba tan seguro de sus ideas que no se molestó en efectuar la experiencia!. Para cuando confesó su engañoso proceder es Nature, había publicado de este modo ocho artículos en diferentes Si los artículos científicos se mantuvieran en el nivel de la mera invención, ya serían un problema, pero el asunto se complica aún más cuando además de inventarse los hechos y confiando en la imposibilidad de ser descubiertos, se crean, se les da forma y se ponen sobre la mesa. Al ex-vicepresidente del Instituto Paleolítico de Tohoku, Shinichi Fujimura, sus colegas le llamaban, no sin acierto, las manos de Dios, unas manos omnipresentes que han sembrado de dudas los resultados de 160 excavaciones realizadas por diversos puntos de Japón. Unos periodistas lo grabaron colocando fraudulentamente los preciosos restos que después diría encontrar y que vendrían a confirmar su hipótesis de que la humanidad se había asentado en Japón hacía cientos de miles de años (600.000 años), mucho antes de lo que la mayoría de los científicos se atrevían a proponer, 30.000 años. «El sol lo ve todo. Si haces algo malo, algún día será descubierto», declaró Fujimura poco antes de ingresar en un instituto psiquiátrico. De seguro los maltratados platelmintos de Mc Connell, habrían mostrado tener más memoria y ser más juiciosos. En diciembre de 1912 Charles Dawson, geólogo aficionado, presento al eminente paleontólogo del British Museum de Londres Arthur Smith Woodward fragmentos de un parietal y un frontal humano, de color ferruginoso oscuro, declarando haberlos desenterrado en Piltdown,

En estas publicaciones podría haberse inspirado el físico norteamericano de la Universidad de Nueva York Alan Sokal al escribir su artículo «Transgressing the Boundaries: Toward a Transformative Hermeneutics of Quantum Gravity, «Transgrediendo los límites: hacia una hermenéutica transformadora de la teoría cuántica de la gravedad, en el que defendía cosas como que «el axioma de igualdad en la teoría matemática de conjuntos es análogo al concepto homónimo de la política feminista». Con la publicación de esta teoría Sokal evidenció la falta de criterio con que se conducía una de las más acreditadas publicaciones de estudios socioculturales norteamericanas: «Social Text». La revista creyendo que se trataba de un estudio que sustentaba científicamente un «análisis cultural posmoderno» publicó este artículo en el que Sokal mantenía dislates tales como que «el número pi es ahora percibido en su ineluctable historicidad». Yo, sin hacer esta experiencia, estoy seguro de que el efecto será como os digo, porque es necesario que suceda así. Galileo

96

extrayéndolos de entre las rocas ferruginosas mezcladas con cuarcita de un horizonte wealdiano, base del Cretácico. La famosa teoría de Charles Darwin se plasmó rápidamente en una imagen: el hombre descendía del mono. Desde entonces todo el mundo se puso a buscar ese ‘eslabón perdido’ entre el simio y el hombre. Nadie lo encontró, pero, «alguien» decidió darle forma. Dawson, ya junto con el propio Woodward y en sucesivas y «fructíferas excavaciones», encontró otros fragmentos del mismo cráneo, la mandíbula, restos de animales fósiles del Plioceno y piezas de silex que el propio Dawson atribuyó al Período Chelense. Woodward, pacientemente, con nueve fragmentos pertenecientes a la región frontal y parietal del lado izquierdo y un temporal izquierdo casi completo y bien conservado, reconstruyó un cráneo de 1.070 cc de volumen y espesor notable, 10-12 mm parietal y frontal, en lugar de los 5 a 8 mm que tiene el hombre actual. El maxilar y los molares mostraban un aspecto simiesco. Woodward vio ante sí a un «representante de la aurora de la Humanidad» y le dio el nombre de su descubridor, Eoanthropus dawsonii. El paleontólogo francés Boule lo calificó de «asociación paradójica». En 1913, Dawson y Woodward llevaron al yacimiento al P. Teilhard de Chardin «para que encontrara» un canino que fue atribuido al fragmento de maxilar encontrado anteriormente y que reforzó los caracteres pitecoides que se le atribuían. No deja de ser curioso que quien entra en escena en 1935 para poner orden sea un dentista y también arqueólogo aficionado Alvan T. Marston. Excavando en unas terrazas del valle del Támesis de Swanscombe (condado de Kent), halló un occipital y un parietal izquierdo humano del Pleistoceno medio inferior y asociados con una serie de instrumentos líticos de tipo Acheuliense, Paleolítico inferior. Durante los meses siguientes, Marston visitó el Museo Británico de Historia Natural, donde estudió los materiales hallados por Dawson y Woordward., Observó que mientras la raíz del canino de su homínido es derecha, la del canino del hombre de Piltdown era curva, que su corona estaba desviada e inclinada hacia afuera, hacia la mejilla, como ocurre en los monos antropoides (Julio de 1936, British Dental Journal - Noviembre de 1936, Journal of the Royal Anthropological Institute) y que el grado de abrasión era idéntico en los molares de ambos lados, cuando normalmente el primer molar siempre está más desgastado que el segundo y que las finas marcas de raspado en los molares y caninos sugerían la aplicación de un instrumento abrasivo. Por su parte el Dr. Oakley puso de manifiesto que había una notable diferencia entre el contenido de flúor del cráneo y de la mandíbula.

La conclusión fue que la mandíbula era de un orangután y se había tratado con bicromato potásico para emparejar su color con el del cráneo, humano y mucho más antiguo. Así transcurridos 40 años, en 1953, el fraude quedó al descubierto, aunque como hemos visto ello no sirve como cortapisas al «impulso creacionista» que parece arrastrar a algunos paleontólogos. Un fósil de un dinosaurio con alas encontrado en China en la década de los 90, llegó a ser la imagen de portada de la National Geographic Magazine en Noviembre de 1999 bajo el nombre de Archaeoraptor liaoningensis. Otro eslabón perdido, ahora entre los dinosaurios y las aves. No era más que un pequeño carnívoro, Microraptor zhaoianus al que se le habían trasplantado partes de un ave, Yanornis martini. ¿Cómo no recordar aquí la portada dedicada por National Geographic a los Tasaday y la oferta de 50.000 dólares de la NBC a Elizalde para que le permitiera hacer un documental de esta tribu asentada ya en una Reserva Nacional por decisión del entonces presidente filipino, Ferdinando Marcos y que todo ello no fue más que una treta para explotar los recursos naturales de la región?. El plagio, crimen capital de la comunidad académica, mina el desarrollo y la transmisión del conocimiento, que es la razón de ser de la Academia. Edward White

No es menor el impacto que sobre la comunidad científica tiene el desconcierto y la perdida de confianza causada por el fraude asociado al plagio, apropiación de ideas de otros investigadores, presentándolas como originales. Autores como Loren Eiseley (Darwin and the Misterious Mr. X) y Arnold Brackman (A Delicate Arrangement), afirman que Darwin plagió la mayor parte de la teoría de la 97

evolución y de selección natural y que conspiró para conseguir la primicia y el crédito, silenciando y condenando al olvido a aquellos que habían desarrollado teorías similares a las suyas y lo habían hecho antes que el como Edward Blyth o Alfred Russel Wallace. Nada puede deducirse en ese sentido de la relación entre estos hombres. Conviene recordar aquí que en 1855 Wallace. publica «Sobre la ley que ha regido la aparición de especies nuevas» y que en una carta del 18 de junio de 1858 Darwin le escribe a su amigo Lyell, refiriéndose a un segundo manuscrito remitido por el propio Wallace a Darwin: « Nunca he visto una coincidencia más sorprendente. ¡Si Wallace tuviera la copia de mi esquema hecha en 1842 no podría haberlo resumido mejor! Sus mismos términos son ahora los títulos de mis capítulos. Por favor, devuélvame el manuscrito; él no ha manifestado su deseo de que yo lo publique, pero naturalmente, voy a escribir ofreciéndolo a alguna revista. De este modo, mi originalidad, cualquiera que sea, va a quedar destruida, pero mi libro, si es que tiene algún valor, no sufrirá deterioro, ya que todo el trabajo consiste en la aplicación de la teoría. Espero que él dé el visto bueno al esquema de Wallace para poder comunicarle su opinión». El 24 de Noviembre de 1859, a los doce meses de haber recibido el manuscrito de Wallace, ve la luz «Origin of Species», de la que Wallace recibiría un ejemplar y del cual dijo: «Perdurará tanto como los Principia de Newton. El señor Darwin ha donado al mundo una ciencia nueva, y su nombre, a juicio mío, se destaca por encima del de muchos filósofos antiguos y modernos. ¡La fuerza de la admiración me impide decir más !». «Ni en sueños me hubiera acercado yo a la perfección de su libro. Confieso mi agradecimiento de que no me incumbiera presentar la teoría al mundo».Sin duda coincidieron al hacerse las mismas preguntas y al responderlas bajo la influencia de unas fuentes: Malthus y Lyell. Robert Gallo, del National Cancer Institute, de Bethesda, EEUU, reclamó en 1984 la prioridad del descubrimiento del virus del SIDA y del test para detectar la enfermedad, para ganar notoriedad y prestigio, y, sobre todo, derechos por la patente. Esto le llevó a enfrentarse legalmente a Luc Montagnier, del Instituto Pasteur de París, quién demostró la verdadera paternidad del descubrimiento. En septiembre de 1983, Luc Montagnier, envió a Robert C. Gallo, una muestra de un retrovirus recién aislado y que llamó LAV. Siete meses después, el científico estadounidense anunció a la prensa que había identificado al virus causante del SIDA, que lo llamaba HLTV-III y que pronto estaría en condiciones de poner a disposición de las autoridades sanitarias una prueba sanguínea para acelerar el diagnóstico de la

enfermedad. En 1985, se demostró que el material hereditario del LAV y el HTLV-III eran idénticos en un 98,5%. Gallo finalmente reconoció el robo . El profesor de la Harvard University Robert R. Rando y sus colaboradores Paul S. Bernstein y Wing C. Law debieron contemplar a la par asombrados e indignados como su descubrimiento del enzima responsable del cierre del ciclo visual, con la isomerización del retinol todo trans a 11-trans-retinol, aparecía plagiado en Science (1987) bajo la firma de C. David Bridges. Este, profesor de la Purdue University, en verano de 1986 había recibido de la revista Proceedings of the National Academy of Sciences el trabajo original, para su revisión. Se comprende así que la prudencia hiciese que la publicación en Nature del articulo de Watson y Cricks de 1951 sobre la estructura del ADN no fue arbitrada. Si tu experimento necesita estadística, deberías haber hecho uno mejor. Rutherford En ocasiones el fraude se asocia a la falsificación, cuando se alteran los resultados obtenidos, se dejan de lado ciertos resultados o se manipulan lo suficiente para cambiar un resultado cercano pero estadísticamente no significativo para conseguir un resultado estadísticamente significativo. Cuando un periodista científico felicitó en cierta ocasión a Niels Bohr por la excelente concordancia de sus observaciones y el valor de la constante de Rydberg, Bohr respondió: «Naturalmente. Yo mismo los he hecho corresponder a la fuerza». La diferencia cinco grados de latitud entre Alejandría y Rodas, reveló que Ptolomeo tomó los cálculos derivados de las observaciones realizadas por Hiparco, desde la isla de Rodas (57) y lo hizo de forma parcial y distorsionada para fundamentar su idea preconcebida de geocentrismo. Según Moewus, un gen y la transformación química progresiva de una molécula inicial, la protrocrocina. regulaba cada una de las etapas de la vida sexual de la Chlamydomonas eugametos que se podía describir así: Un primer factor hormonal permitía que células individuales expuestas a la luz adquirían flagelos y pasaban a ser móviles; dos nuevos factores hormonales hacían que se caracterizasen como machos o hembras; se atraían unas a otras para formar grupos de más de 100 individuos y en el seno de estos grupos bajo el influjo de dos nuevos factores hormonales adquirían la capacidad de copular dos a dos. Esto parecía tanto más verosímil cuanto que en Francia, Boris Ephrussi demostraba que cada una de 98

del sonido y de los equinoccios para apoyar a su teoría de la gravitación, el hecho de que Kepler cuadrara sus datos para que las órbitas planetarias fueran elipses perfectas y el hecho de que el premio Nobel Robert A. Millikan, analizase un total de ciento cuarenta gotas, pero que cuando publicó sus resultados sólo incluyera cincuenta y ocho, porque eran las que se ajustaban al valor que él buscaba de antemano. Además de esta adecuación de resultados (o, mejor, omisión de datos «molestos») ... Millikan al parecer le robó la idea a un alumno suyo Harvey Fletcher, al que nunca reconoció el mérito de cambiar el vaporizador de agua que utilizaba inicialmente por el de aceite. Pero lo cierto es que se entra en la dinámica que señala Sir Arthur Conan Doyle a través de su personaje Sherlock Holmes: «Uno no debe formular teorías hasta que tenga datos suficientes. Insensiblemente se comienza a modificar los datos para ajustarlos a la teorías, en vez de las teorías para ajustarlas a las datos». Hacerlo es entrar en una dinámica muy peligrosa.

las etapas de la producción de pigmentos responsables del color de los ojos de la Drosophila está controlada por un gen (de ahí procede la famosa idea de la biología molecular «un gen-un enzima»). Por lo demás en 1938, Moewus, «descubrió» que los factores hormonales de que estamos hablando eran carotenoides buscando y encontrando la colaboración y apoyo del bioquímico alemán Richard Kuhn, que acababa de obtener el premio Nobel de Química de ese año por sus trabajos sobre los carotenoides. En 1939, comienzan a sonar las primeras alarmas cuando el genetista británico J.H.S. Haldane advirtió que en ciertas publicaciones de Moewus los datos presentaban una dispersión estadística extraordinariamente pequeña. Si hablamos de estadística y ciencia hablamos de la obra publicada por Mendel en 1865, Experimentos de hibridación en plantas. Si Mendel en un experimento de herencia de un carácter dominante, cuyo resultado debería ser de 75% de guisantes amarillos y 25% de verdes, afirmó haber obtenido, entre los 8023 ejemplares que integraban su generación filial, 6022 amarillos (75.06%) y 2001 verdes (24.94%), Cuando en 1900 Tschermak repite el experimento, obtiene: 3.580 amarillos (75,05%) y 1.190 verdes (24,94%). Es cierto que para confirmar su tercera ley o principio de combinación independiente debió basarse en el estudio de los resultados de la herencia de dos caracteres no ligados como el color (cromosoma 1) y la rugosidad (cromosoma 7) de la semilla y que a partir de los siete caracteres estudiados por Mendel cuatro de las 21 combinaciones dihíbridas posibles pudieron mostrar ligamiento y ofrecerle unos resultados alejados de la esperada proporción 9:3:3:1. No obstante S. Blixt en 1975, llama la atención sobre dos circunstancias: la primera que los loci a los que en el cromosoma 1 se asocian los caracteres Color de los cotiledones - Color de la cubierta de semillas y flores y los loci a los que en el cromosoma 4 se asocian los caracteres Forma de las legumbres – Talla de la planta e inflorescencia – Talla de la planta están tan separados que su fracción de recombinación es prácticamente igual a 0,5, se comportan como caracteres no ligados, siendo difícil detectar experimentalmente su ligamiento. Quizás, si sea cierto que no pudiendo interpretar los resultados ofrecidos por el cruzamiento dihíbrido Forma de la legumbre – Talla de la planta. si que lo desechó y no publicó los resultados Podemos afirmar que estas pequeñas mentiras no ocultan el rastro de un fenómeno para el que Mendel, desconocedor de conceptos como cromosomas o gen, no encontró explicación. Podemos disculpar y calificar como pequeñas faltas el hecho de que Newton adecuara los cálculos de la velocidad

Ciencia sin conciencia es la ruina del alma. Rebelais El principal argumento de los partidarios de la transmisión hereditaria de la inteligencia (CI) que sostienen que la educación en los distintos medios no repercute en las facultades intelectuales de los individuos lo constituyen los trabajos de Cyril Burt sobre gemelos univitelinos separados, criados en medios diferentes no correlacionados y evaluados mediante un parámetro estadístico denominado coeficiente de correlación intraclase que en los trabajos publicados por este psicólogo inglés entre 1955 y 1966 resultan en estimas coincidentes a la centésima o la milésima. Si en 1943, contando con 15 pares de gemelos, indica que la correlación entre la « posición económica « y la calificación IQ era de 0,32. En 1957, 13 años más tarde revisa esos mismos trabajos, amplia la muestra a un total de 30 pares de gemelos e indica que la correlación entre la «evaluación corregida de la inteligencia» y aquello que ahora deviene en «posición socioeconómica « es de 0,315, dando con ello una impresión de coherencia y precisión. En 1957 Burt opina que la pura calificación IQ es mucho menos fiable que la opinión que sobre el tiene su maestro y así « en los casos en que un profesor estaba en desacuerdo con la calificación, se entrevistó personalmente al niño en cuestión, sometiéndolo a otras evaluaciones, a menudo repetidas veces «. En

99

obligatorio para todos los alumnos a la edad de 11 años y a los que obtenían una escasa puntuación no se les permitía acceder al bachillerato ni a la universidad, siendo obligatoriamente relegados a oficios manuales.

1943 su proceder, a este respecto, había sido el contrario. Hearnshaw gran admirador de Burt, pronunció su oración de responso y ... poco después hubo de desenmascararlo. Encontró entre su correspondencia una carta fechada en diciembre de 1968 de Christopher Jencks, psicólogo de Harvard, que en ella le pedía sus datos originales sobre los cincuenta y tres gemelos verdaderos que vivían separados. Pasando a su diario, se encontró con que Burt relataba en el como había pasado la primera semana de enero de 1969 «calculando» para Jencks y a partir de las correlaciones que ya había publicado, los datos brutos sobre los gemelos, ¡creaba unos datos brutos figurados a partir de las correlaciones que ya había publicado, con anterioridad!. También se inventó sus resultados sobre los descensos del nivel escolar en Inglaterra. En 1976, Oliver Gillie, periodista del Sunday Times, de Londres descubrió, que Burt « a menudo calculaba a ojo la inteligencia de los padres a los que entrevistaba, aunque más tarde utilizaba esas conjeturas como si fueran datos científicos sólidos « y que cuando estaba a cargo del British Journal of Psychology publicó varios artículos enviados «a si mismo» y firmadas por dos colaboradoras que jamás habían existido, Miss Howard y Miss Conway..pero que para 1966 le permitieron sustentar sus opiniones sobre una muestra de 53 gemelos univitelinos separados y criados en medios diferentes Lo absurdo es que, en 1967, el propio Burt analizó en un articulo, en el criticaba la parapsicología el modo como la subjetividad individual puede falsear el trabajo científico. «La propensión a incrementar la importancia de nuestras propias demostraciones, el deseo de evitar los juicios y reservas, y el deseo incesante de conciliar nuestras observaciones anteriores a las presentes de modo que se ajusten a nuestros propios deseos, constituyen tendencias naturales del espíritu humano, tan inconscientes como automáticas. Esto pide mucho tiempo y disciplina para hacer de un hombre un observador verdaderamente científico, objetivo y preciso» Podríamos terminar este apartado haciendo referencia a que Burt usaba la estadística de la misma manera que un borracho utiliza una farola: más para apoyarse que para iluminarse, pero los errores cometidos por los hereditaristas nunca son producto de la ignorancia y nunca dejan lugar para la broma. Burt fue el primero en ocupar una cátedra de Psicología en Inglaterra, y el primer psicólogo en ser nombrado caballero y miembro de la Royal Society. Sus ideas acerca de la heredabilidad de la inteligencia influyeron decisivamente en la política educativa británica. Se estableció un test de inteligencia

El artículo «¿Cuánto podemos esperar mejorar el CI y la falla escolar?» del psicólogo Arthur Jensen publicado en 1969 en la Harvard Educational Review; los libros, «The Bell Curve: Inteligence and Class Structure in American Life» de Richard J. Herrnstein y Charles Murray publicado en 1969 y «El CI en la meritocracia» de Herrnstein, publicado en 1973; cometen los mismos fraudes para mantener que el «fracaso de los programas de educación destinados a los negros» se debe a que «la inteligencia está determinada genéticamente y a que los negros son sistemáticamente menos inteligentes que los blancos». Por otra parte si el status social es fruto del prestigio y la posición económica derivada del éxito logrado al poner en juego unas aptitudes heredadas, el estatus social de cada individuo depende de las diferencias heredadas.. Ello es reflejo de lo que dio en denominarse como Darwinismo Social, un intento de Herbert Spencer de hacer plausible una ideología que justifica el imperialismo, esclavitud y genocidio ejercidos por la sociedad occidental, cuyos interese defiende. Una vez «se hacen ver» los estrechos lazos existentes entre inteligencia y conducta moral Edward 100

proposición de ley solicitando la esterilización de aquellas personas cuya calificación IQ fuera inferior a 100 y ello comenzando por las personas dependientes de la Seguridad Social a las que se ofrecería una prima de 1 000 dólares por cada punto por debajo de 100 que presentase su IQ. En 1973, un comité de investigación del senado norteamericano presidido por E. M. Kennedy obtuvo la siguiente información del Departamento de Sanidad, Educación y Seguridad Social: en ese momento existían 3 260 clínicas de control de natalidad subvencionadas por el Gobierno Federal, que en 1972 se habían esterilizado como mínimo 16 000 mujeres y 8 000 hombres, con un gran porcentaje de negros y un mínimo de 100 menores de edad. ¡ En 1974, catorce Estados tenían en estudio propuestas para la esterilización de las mujeres dependientes de la Seguridad Social. El manifiesto titulado «Mainstream Science and Intelligence» publicado el 15 de diciembre de 1994 en el Wall Street Journal. Si nos remontamos a las palabras del padre de la eugenesia, Francis Galtón, primo de Darwin, es fácil adivinar que no se trata de encontrar las flaquezas de los fundamentos estadísticos en las evaluaciones del IQ y en la estima de la heredabilidad de la inteligencia. «Un entusiasmo por mejorar la raza es tan noble en su intención que podía dar lugar al sentido de obligación religiosa». No hay ejemplos, ni se citan hechos o casos, que pudieran contradecir o cuanto menos matizar en lo más mínimo las hipótesis defendidas. Se habla de datos que confirman y sostienen con fundamento unas verdades no susceptibles de discusión y que siendo así se defienden no desde la convencimiento de un científico si no desde la fe de un fervoroso creyente. Quizás lo que repugna de todo ello deriva de la contradicción sin paliativos de estos hechos con el papel que desde la sociedad se reclama para la ciencia y que encierra la afirmación de Bronowski: la ciencia genera valores éticos y sociales como la honestidad, la humildad y la necesidad de cooperación e intercambio social.

Banfield encuentra el camino expedito para dar una nueva vuelta de tuerca y así afirmar que los trabajadores gozan en la pobreza, se complacen inmersos en la miseria y decadencia moral de los barrios bajos y muestran cierta tendencia a maltratar a sus esposa e hijos. Tres años antes se había promulgado la primera ley eugenésica en Indiana, una ley que como se indica en su preámbulo se justifica indicando: « considerando que la herencia tiene una función de la mayor importancia en la transmisión de la delincuencia, la idiotez y la imbecilidad». Lista a la que las asambleas legislativas de New Jersey e Iowa fueron ampliando en años posteriores con «debilidad mental, epilepsia y otros defectos» y « lunáticos, borrachos, drogadictos, perversos sexuales y morales, enfermos morbosos y personas degeneradas». Está claro que Hitler no necesitaba justificar en los datos de Lenz, los genes del comunismo tienden a encontrarse con mayor frecuencia en familias judías, la esterilización de 250 000 personas en el periodo 1933-1945 y bajo la vigencia de la ley de Sanidad, ni justificar Auschwitz y Treblinca. Pero también está claro que se repiten motivaciones, propósitos declarados, intenciones ocultas y estrategias y que no nos encontramos ante hechos circunscritos al pasado, a la Alemania nazi y a la acción de unos pocos locos. Se descubrió que la pelagra, una enfermedad típica de gente pobre, es debida a una carencia vitamínica. Pero un estudio posterior en diez años «probaba» que esta enfermedad era de origen genético. Para el eugenista Charles Davenport, principal autor de este estudio, los pobres estaban enfermos a causa de sus genes y no a causa de una deficiencia alimenticia. Charles Davenport, Zoólogo de Harward, en 1898 se hace cargo de la dirección del laboratorio de Cold Spring Harbor en Nueva York. Al tiempo que George H. Shull obtiene el primer maíz híbrido y pone de manifiesto el fenómeno del vigor híbrido y que Thomas Huant Morgan desarrolla la teoría cromosómica de la herencia, el propio Davenport aplicando el modelo mendeliano a la genética humana desentraña las claves de la herencia del color de los ojos y el pelo, del albinismo, de la enfermedad de Huntington y de la neurofrimatosis. Cuando en 1910 acepta la presidencia del Comité de Eugenesia de la Asociación de Criadores de Animales de Raza (ABA), subtitula su Manual de Eugenesia» La ciencia del mejoramiento humano a través de la crianza». Con este fin y la financiación de la Carnegie Foundatión creó el Eugenics Record Office (ERO).

Otro premio Nobel, este de biología, el genetista norteamericano Hermann J. Müller, descubridor del efecto mutagénico de los Rayos X defiende una eugenesia positiva a través de su teoría de la Selección Germinal y elabora una lista de las personas cuyo esperma y ovarios deberían conservarse, otorgando «certificados de calidad» al modo como preconizaba Galtón, Hereditary genius (1859). Emigrado a la URSS por sus ideas marxistas defendía apasionadamente que la genética clásica mendeliana estaba en plena armonía con el materialismo dialéctico y que Lysenko, que creía en la herencia de características adquiridas y negaba una base material de la herencia, era un idealista o algo

En 1972 poco después de que se publicase el artículo de Jensen, Wllian Shockley físico de la Universidad de Stanford y premio Novel redactó una 101

peor. El pulso entre ambos concluyó con el principal apoyo de Müller el expresidente de la Academia de Ciencias Agrícolas de la Unión Soviética N. J. Vavilov en Siberia, donde moriría en 1943, una suerte de la que el se libraría por poco. Mientras tras su precipitada huida de la URSS, retiraba a Stalin de su lista de certificados de calidad genética, quizás debió recordar los atronadores aplausos con que respondió en 1936 la Academia de Ciencias Agrícolas de la URSS, presidida por Lysenko, al pronunciar estas palabras: «Si los practicantes más destacados apoyan teorías y opiniones que son obviamente absurdas para cualquiera que sepa aunque sea sólo un poco de genética -puntos de vista como los presentados recientemente por el presidente Lysenko y los que piensan como él-, la opción que se nos presenta parecerá una elección entre brujería y medicina, entre astrología y astronomía, entre alquimia y química».

extraído del lecho marino de Irlanda y de donde habría surgido la vida. En 1990, Stanley Pons y Martin Fleischmann de la Universidad de Utah EEUU, no siguieron las normas comúnmente aceptadas de presentación científica. Las conclusiones de los experimentos de fusión fría fueron anunciadas en los medios de comunicación para reclamar la prioridad del descubrimiento, después de que la revista Nature rechazara el trabajo por considerar que no contenía suficientes detalles de los experimentos. ¿Se trató de una maniobra para obtener fondos de investigación de los organismos oficiales? La Universidad de Utah consiguió cinco millones de dólares que ya nunca pudieron ser totalmente recuperados. En la actualidad son 4.500 millones de euros los que se necesitarán para conseguir la fusión a altas temperaturas durante los próximos 20 años a través del proyecto ITER. Otro de los episodios más recientes se remonta al 12 de septiembre de 2003. ‘Science’ publicó una retractación en la que advertía que el doctor George Ricaurte de la Universidad Johns Hopkins había incurrido en inaceptables errores en el trabajo en el que afirmaba que el éxtasis era capaz de provocar un severo daño neuronal en primates. En vez de administrar a los monos éxtasis (MDMA) por vía oral, les administraron ‘speed’ (metanfetamina) por vía intravenosa. En las páginas iniciales dentro del libro «Fantasía y realidad: una excursión por la ciencia y la literatura», Broad y Wade afirman: «Según la opinión convencional, la ciencia es un proceso estrictamente lógico, la objetividad es la esencia de la actitud del científico ante su trabajo, y las afirmaciones científicas son rigurosamente comprobadas por escrutinio de los colegas y repetición de los experimentos. Mediante este sistema de autoverificación, los errores de todo tipo son rápida e inexorablemente echados fuera». No obstante la realidad parece dar la razón a Bacon, «la verdad es la hija no de la autoridad, sino del tiempo». La persistencia de los errores en la obra de Aristóteles en el ámbito de la filosofía natural por casi dos mil años es un ejemplo en que el respeto del maestro mezclado con la autoridad religiosa se combinaron para mantener el equívoco. El médico húngaro Semmelweis, descubrió que la fiebre puerperal, cuya tasa de mortalidad oscilaba entre el 10 y el 30 por ciento en los hospitales europeos, podía ser reducida a cero si los médicos se lavaban las manos en una solución de cloro antes de examinar a la madre. Sus colegas no se mostraron dispuestos a aceptar una nueva idea con facilidad. Despedido del hospital y tras veinte años de esfuerzos

Los errores poseen su valor, aunque sólo en alguna ocasión. No todo el mundo que viaja a la India descubre América. Erich Kastner

Tenemos que mencionar también la negligencia científica, esto es, la desviación de las normas metodológicas de la ciencia, que da lugar a resultados erróneos pero obtenidos sin intención premeditada de defraudar. Hablamos de errores y no de faltas. Suele estar relacionada con la publicidad de los resultados de una investigación, presentada prematuramente y de forma sensacionalista en los medios de comunicación antes de que los resultados sean avalados por la comunidad científica. Aquí podemos hablar de las «investigaciones» sobre el flogisto, sobre los rayos mitogenéticos y sobre el «Bathybius haeckelli» protoplasma básico y viscoso

102

infructuosos ingresó en un hospital mental. «En cuestiones de ciencia, la autoridad de mil no vale lo que el humilde razonamiento de un solo individuo» (Galileo). Un caso más reciente lo protagoniza Bruce Voeller, que, desde 1984, había sugerido a las autoridades científicas encargadas de la investigación del SIDA, James Curran y Donald Francis, que ciertos espermicidas eran capaces de matar el virus del SIDA. Curran rehusó verificar esta hipótesis. Un poco después Voeller obtuvo apoyo de otros investigadores de los Centers for Disease Control, tuvo éxito en probar su idea y envió un artículo con Donald Francis como coautor. Pero Curran bloqueó la publicación durante varios meses. Apareció en The Lancet en diciembre de 1985. Según algunos testimonios, la investigación fue saboteada: se robaron cultivos y otros fueron contaminados deliberadamente. Una encuesta del CDC dictaminó que no había pruebas del sabotaje, pero hay datos sospechosos y ciertos críticos dijeron que se estaba tratando de tapar el escándalo

Ninguna ciencia, en cuanto a ciencia, engaña; el engaño está en quien no la sabe. (Historia de los trabajos de Persiles y Sigismunda) Cervantes En algunos países se han creado organismos para controlar el fraude, como el Office for Research Integrity (ORI), desde 1989, perteneciente al National Institute of Health, de EEUU. También en Alemania se creó en 1998 la Agencia Alemana de Investigación contra el Fraude (DFG). Muchas universidades en EEUU tienen un departamento que se encarga básicamente de detectar la mala conducta en ciencia. Siendo impensable desarrollar mecanismos que aseguren una protección absoluta contra el fraude en la ciencia se impone tanto la inclusión de la ética e honestidad como ingrediente fundamental en el proceso de formación no sólo de estudiantes y futuros investigadores en carreras biomédicas como la aproximación de la ciencia al conjunto de los alumnos aun en estudios ajenos al mundo de la ciencia.

La investigación honesta es absolutamente imposible en el ámbito de cualquier iglesia, en razón de que, si uno cree que la iglesia está en lo correcto, no investiga, y si cree que está errada, la iglesia lo investiga a uno. Robert Ingersol

BIBLIOGRAFÍA La Biología como arma social. Edi. Alhambra. Los fraudes científicos. Pablo C. Schulz1 e Issa Katime. Revista Iberoamericana de Polímeros Volumen 4. Abril 2003. Los fraudes científicos. M. Blanc, G. Chapouthier, A. Danchin Mundo Científico. Las mentiras de la ciencia, F. Di Trocchio. Alianza Editorial, Madrid 2002.

Siguiendo con la lectura del libro «Fantasía y realidad: una excursión por la ciencia y la literatura», Broad y Wade afirman ahora, de la forma en que muchos científicos hacen y perciben la ciencia, da la impresión de que «la ciencia ha reemplazado a la religión, hasta un grado probablemente insano, como la fuente fundamental de verdad y valores en el mundo moderno». Así Murray Gell-Mann afirma «Hay una diferencia mayor entre un ser humano que sabe mecánica cuántica y otro que no, que entre un ser humano que no sabe mecánica cuántica y los otros grandes simios». Por estar hablando probablemente de lo mismo, quizás sea aquí el lugar más adecuado para mencionar al quehacer de aquellos que consideran las creencias religiosas como evidencias científicas. Baltasar Rodríguez Salinas, catedrático jubilado de Análisis Matemático de la Universidad Complutense de Madrid, escribió un artículo, en 2003, en la revista de la Real Academia de Ciencias Exactas, Físicas y Naturales, de España, en el que prueba mediante formulación matemática la existencia de Dios y compara los resultados con los cinco argumentos de la Summa Teológica que aluden a la divinidad. Una evaluación posterior del artículo concluye que todo es pura fantasía, impregnada de mística cristiana.

Salvador Cordero Rodríguez

I.E.S. «VALLE DEL GENAL»

103

Divulgación cientifíca en la época de Faraday Rafael López Valverde

Durante el siglo XIX, la ciencia que arrancó en el renacimiento, se fortaleció a lo largo del siglo XVII con la creación de las academias de ciencia y la publicación de las primeras revistas científicas, continuó su proceso de desarrollo y de aceptación social; en ese proceso influyeron considerablemente las ideas de la ilustración, del enciclopedismo y de la revolución industrial. El resultado fue que interés social por la ciencia llegó a ser muy importante y, como consecuencia, proliferaron las sociedades científicas con el objetivo de fomentar el desarrollo y la divulgación del conocimiento tanto entre la clase burguesa como entre los profesionales y artesanos; a todos ellos fueron dirigidas muchas charlas y conferencias con la finalidad de actualizar su formación en las nuevas tecnologías de entonces. En realidad, éste era uno de los motivos por el que se sentían atraídas por la ciencia las personas que asistían a dichas conferencias, ya que el perfeccionamiento de su formación prometía mejores perspectivas de trabajo, especialmente en Gran Bretaña que se encontraba en pleno proceso de industrialización. Pero existían otros más como la creencia generalizada de que la ciencia conducía al perfeccionamiento mental y moral de los individuos. Las sociedades científicas, por humildes que fueran, se regían por unos estatutos. Sus miembros se elegían a propuesta de otros y en virtud de los méritos alcanzados. Por lo general, los socios abonaban una cuota en concepto de mantenimiento de la sociedad. En algunas sociedades la asistencia a las conferencias costaba un chelín y la recaudación se invertía en sufragar gastos de funcionamiento y otras inversiones. La prensa londinense a menudo publicaba noticias sobre las conferencias impartidas y los adelantos mostrados en ellas, muy habitual en la época. En la década de 1830, el tropel de carruajes que acudía a las Charlas de los Viernes por la tarde a la Royal Institution fue tan grande que el ayuntamiento de Londres tuvo que declarar la calle Albemarle de dirección única. Era la primera vez que se tomaba una medida de este tipo.

Figura 1. Frontispicio de la Royal Institution en Albemarle Street 21.

Para la década de 1850 el estado de bienestar e industrialización alcanzados desbordó aún más la asistencia a las charlas en la Royal Institution, alcanzándose aforos de unas ochocientas personas; este número de asistentes da una idea de la amplitud de la sala de conferencia y de la repercusión social de esos acontecimientos. De hecho, esta situación general estuvo tan extendida que existía la profesión de conferenciante y entre los consagrados a ella circulaba una especie de compendio sobre el arte de impartir charlas y conferencias científicas, en virtud del auditorio. Los conferenciantes de primera fila eran generalmente hombres de ciencia de reconocido prestigio que a menudo se veían en el compromiso de asesorar científicamente en los numerosos juicios sobre apropiación indebida de patentes y plagios tecnológicos que continuamente producía el crecimiento industrial. Asimismo, colaboraban con los gobiernos y las compañías industriales en el perfeccionamiento de los procesos de fabricación, en el mantenimiento de las instalaciones navales y en la investigación de las causas de accidentes laborales de cierta envergadura. Un curioso personaje de la época, que tuvo mucho que ver con este ambiente, fue Benjamín 104

Thomson (1753-1814), más conocido por el conde Rumford. Nacido inglés en EE.UU., la guerra de independencia le creó serios problemas, fue acusado de espionaje y tuvo que huir a Europa. Allí, en 1784 fue ministro en Baviera: modernizó el ejército, construyó escuelas y casas para familias humildes, introdujo la patata en la agricultura, diseñó una estufa prototipo de las actuales y hasta fue el creador de la conocida sopa rumford con la que, a base de ingredientes económicos, intentó mitigar las deficiencias nutritivas de las clases desfavorecidas. En ciencia, Rumford es especialmente conocido por ser el introductor del equivalente mecánico del calor. A este concepto llegó al relacionar el calor desprendido por el taladro de unos cañones en una fábrica de Baviera con el trabajo realizado para ello. También es conocido por ser el fundador de la Royal Institution of Great Britain. Personaje muy dinámico, en 1799, establecido ya en Londres, compró tres casas adyacentes en la calle Albemarle street y, junto con el botánico Joseph Banks, presidente de la Royal Society, fundó la Royal Institution con los objetivos de difundir la ciencia entre el público, dar a conocer los últimos inventos y aplicaciones mecánicas e impartir ciclos de conferencias. Para ello era necesario que la sede de la institución gozara de una Sala de Tertulia para charlar y tomar café, un Salón de Actos para las conferencias y unos buenos Laboratorios. Pero lo más sorprendente es que todo ello sería sufragado por las aportaciones de los socios, quienes tenían la oportunidad de charlar y tomar el té con los más ilustres hombres de ciencia del momento. El primer director de la recién fundada Royal Institution fue Thomas Young (1773-1829), eminente lingüista y científico. Young es conocido por su experimento de la doble rendija con el que estableció definitivamente la naturaleza ondulatoria de la luz, a pesar de la teoría newtoniana, muy extendida, que proponía la naturaleza corpuscular. Sin embargo, en otros ambientes Young es también conocido por aportar en ingeniería el módulo de elasticidad que lleva su nombre, por descubrir el astigmatismo y también por estar a punto de adelantarse a Champollion en el desciframiento de los jeroglíficos egipcios de la piedra de Roseta. Los sucesores de Young en la dirección de la Royal Institution no fueron menos ilustres: Humphry Davy (1778-1829) fue el descubridor del mayor número de elementos químicos: sodio, potasio, calcio, magnesio, estroncio y yodo; y fue también el inventor del arco voltaico y de la linterna de las minas. Con dicha linterna logró evitar las explosiones de grisú y fue condecorado por las numerosas vidas que salvó.

Los sucesores de Davy fueron Faraday, al que nos dedicaremos después, Tyndall, al que se debe el descubrimiento del efecto que lleva su nombre, el cual permite distinguir una disolución verdadera de una dispersión coloidal, y Dewar, sin cuya aportación más conocida no serían posible los llamados termos para conservar los alimentos calientes o fríos. Siguiendo la corriente social extendida en Gran Bretaña, en 1801, dos años después de su fundación, Davy inauguró los primeros ciclos de conferencias en la Royal Institution con el propósito de cubrir los objetivos de la institución y de aumentar el número de socios. De formación autodidacta (huérfano a los 16 años, se trazó un sólido plan de estudios que incluía siete idiomas), sus descubrimientos y conferencias le proporcionaron una fama excepcional que le aportó títulos nobiliarios y le llevó a alcanzar la presidencia de la Royal Society, la más alta distinción científica de entonces. En 1812 Davy impartió sus últimas cuatro conferencias en la Royal Institution y a ellas asistió el joven Michael Faraday (1791-1867), un aprendiz de encuadernador al que un cliente le había regalado las entradas a las conferencias. La formación inicial de Faraday era muy elemental, sólo lectura, escritura y aritmética pues, por motivos económicos, tuvo que dejar la escuela muy joven. Sin embargo, gracias a su afán personal, a su trabajo de encuadernación de libros y al ambiente de la época fue adquiriendo una formación muy completa en conocimientos científicos. A esta formación contribuyeron especialmente las conferencias de la City Philosophical Society, una sociedad científica fundada en 1808 por un joyero llamado John Tatum. A estas charlas de la City asistió Faraday con regularidad desde 1810, pero como su sueldo de aprendiz no lo permitía, era su hermano Robert quien aportaba el chelín que costaba la asistencia a cada charla. En este ambiente de la City Philosophical Society fue donde Faraday entabló sus primeros contactos con la ciencia y también donde impartió sus primeras charlas científicas, una vez elegido miembro de la sociedad en 1815. A pesar de su origen humilde (las charlas se impartían los jueves por la tarde en la propia casa de Tatum), la City Philosophical Society emulaba a las grandes sociedades eruditas y sus miembros, elegidos en reuniones organizadas por el secretario, eran distinguidos por las siglas MCPS. Desde 1815 y hasta 1819 Faraday impartió en la City un total de veinte conferencias. La vida del joven Faraday cambió a raíz de un hecho singular, propio de una persona resuelta: las notas que tomó en las cuatro conferencias de Davy, 105

detallaba suficientemente los resultados experimentales y cómo había llegado a establecerlos, disolviendo toda duda sobre la autoría de su descubrimiento. Estos duros comienzos iniciaron a Faraday en la investigación científica, pero le costaron su relación con Davy.

junto con sus contribuciones personales, las encuadernó en un lujoso librito y se las envió al mismo Davy acompañada de una carta en la que pedía un puesto de ayudante de química en el laboratorio. Davy quedó sensiblemente impresionado y, meses después, tras quedar temporalmente ciego por un accidente de laboratorio, solicitó para Faraday el nombramiento de ayudante de laboratorio y el de amanuense, pues en fechas próximas tenía que realizar un viaje de año y medio por el viejo continente y sus ojos no estaban recuperados. Este fue el inicio de una buena relación que le llevó en 1815 al puesto de «ayudante y superintendente de los aparatos de Laboratorio y la colección de minerales de la Royal Institution», con un sueldo semanal de 30 chelines.

En 1823, algunos amigos de Faraday le inscribieron para ser elegido miembro de la Royal Society, cuya presidencia desempeñaba Davy. Fue inevitable que volviera a surgir entre ellos el tema de las rotaciones electromagnéticas y Davy sugirió a Faraday que retirara su candidatura, pero éste no llegó a hacerlo y respondió que la retiraran quienes la habían presentado. Meses después, en 1824, Faraday fue elegido finalmente miembro de la Royal Society. No obstante, Davy procuró tenerlo especialmente ocupado y le encargó una tediosa investigación sobre vidrios pesados de borosilicato de plomo.

En el año 1821, Faraday, entregado a la búsqueda de nuevos descubrimientos y nuevas leyes en la recién creada electrodinámica, descubrió un fenómeno que le aportó fama y también los primeros conflictos personales. Descubrió que un conductor, suspendido verticalmente, describe circunferencias en torno a un imán situado debajo de él, parcialmente sumergido en mercurio. El fenómeno, conocido por rotaciones electromagnéticas, constituye el primer motor eléctrico y es una prueba experimental más, junto con el experimento de Oersted, de la estrecha relación entre electricidad y magnetismo.

Figura 3. Faraday

En 1825 Faraday fue elegido director del Laboratorio de la Royal Institution y un año después, ante las dificultades económicas por las que pasaba la sociedad, creó dos ciclos de conferencias para captar nuevos socios: las Charlas de los Viernes por la tarde y las Conferencias Juveniles de Navidad, que aún hoy día continúan. Conforme aumentaban las investigaciones y las contribuciones de Faraday en la ciencia, su fama fue también en aumento, al igual que la asistencia a las charlas. En la década de 1830, los fondos económicos de la institución permitieron remodelar la fachada con las catorce columnas corintias que distinguen el número 21 de Albemarle Street.

Figura 2. Davy

Después de que Faraday publicara el resultado de su experimento sobre las rotaciones electromagnéticas, fue acusado de no reconocer la contribución de Davy ni el trabajo de Wollaston, que había usado según sus acusadores. Para limpiar su honor, Faraday elaboró una extensa memoria que presentó públicamente ante un tribunal. En ella 106

El éxito de Faraday en sus charlas era debido a su magníficos dotes de conferenciante, adquiridos en su juventud gracias a su entusiasmo por el conocimiento. Acostumbraba a deleitar al público con sus últimos descubrimientos, especialmente preparados para las charlas, en los que no escatimaba recursos para perfeccionarlos y hacerlos grandes y aparatosos. Una muestra de ello es su conocida jaula de tres metros de lado y otros tres de altura, con la que demostraba la falta de influencia de una carga eléctrica, encerrada dentro de ella, sobre otra externa. En la década de 1850 algunos miembros de la familia real acudieron con frecuencia a sus charlas; este fue el caso de Alberto, príncipe consorte de la reina Victoria, y su hijo Arturo, heredero al trono. En una de estas visitas, en el año 1854, Faraday, en el transcurso de su conferencia, arremetió con fuerza contra la corriente de espiritismo, procedente de Norteamérica, que alimentaba la creencia de las gentes en ciertos supuestos poderes para mover vasos y mesas. Faraday argumentó que sólo una formación científica adecuada podría evitar que el pueblo cayera en tales deformaciones y solicitó de las autoridades más apoyo a la formación científica de la sociedad. Tras su disertación, el príncipe consorte felicitó a Faraday por lo acertado de su discurso, aunque la conferencia no pudiera evitar la propagación de la creencia en el espiritismo de las mesas y los vasos móviles. Figura 4. Faraday en una de sus conferencias de 1954 con miembros de la Familia Real.

científicas en dos series, la anterior y la Experimental Researches in Chemistry and Physics. Estas publicaciones fueron la base y el punto de partida que llevó a Maxwell a establecer su teoría electromagnética. En ellas aparecen por primera vez los conceptos de líneas de fuerza, cuyo significado Maxwell supo captar bien en términos matemáticos, electrólisis, electrolito, iones, anión, catión, etc. Resulta especialmente interesante el modo en que Faraday llegó a establecerlos, en particular la nomenclatura que llegó a usar. Asociado con Whewell, científico experto en lenguas clásicas, éste era el que ponía nombre de origen griego a la descripción que Faraday hacía del fenómeno físico. Así se llegó a fijar, incluso, el término diamagnetismo, después de una consulta a Whewell. Además de esta monumental obra de publicación y conceptualización científica, Faraday está considerado el mayor divulgador de la ciencia de su época gracias a su entrega en los ciclos de conferencias en los que participó y los que fundó. Faraday es también uno de los grandes experimentalistas del siglo XIX y hoy día, sólo por sus descubrimientos más importantes le hubieran correspondido hasta seis Premios Nobel: por la inducción electromagnética, el descubrimiento del benceno, las leyes de la electrólisis, el efecto magnetoóptico, el descubrimiento del diamagnetismo, la licuación del cloro y otros gases y el descubrimiento de la permitividad eléctrica. En sus investigaciones era muy meticuloso; solía anotarlo todo en su Diary, publicado posteriormente en siete gruesos volúmenes, a base de notas, dibujos y una doble numeración de párrafos y experimentos. El último párrafo registrado en su Diary lleva el número 16401. La clave de su éxito personal la reducía al siguiente aforismo: El secreto consiste en trabajar, terminar y publicar. La investigación científica en aquellos tiempos no fue sencilla. Hoy día puede parecernos trivial demostrar que todas las electricidades conocidas son sólo una y tienen el mismo origen. Sin embargo, esto no resultó así para Faraday que llegó a demostrar experimentalmente, y de modo meticuloso, que la electricidad galvánica que suministran las pilas, la magneto-electricidad generada por las dinamos, la electricidad animal producida por las ancas de rana, la electricidad estática debido a la fricción y la piezoelectricidad, generada al presionar un cristal de cuarzo debidamente tallado, eran la misma. Faraday vivió durante muchos años en la Royal Institution, junto con su mujer, hasta que en 1857 fueron obsequiados con una casa por parte del

En 1831, en ocasión de su descubrimiento de la inducción electromagnética, Faraday inició la serie de publicaciones científicas Experimental Researches in Electricity, que se ha publicado en nuestro tiempo en tres volúmenes. En total se le atribuyen a Faraday unas cuatrocientas publicaciones 107

Figura 5. Suspensión de oro realizada por Faraday y que se mantiene sin precipitar. Primera muestra de benceno obtenida por Faraday (Museo Royal Institution).

gobierno de la reina Victoria. Pertenecían a la religión de los sandemanianos, una secta que no les permitía acaparar títulos ni riquezas en vida, les obligaba a visitar y cuidar de enfermos y a acudir todos los sábados a misa. En esta secta, Faraday luchó por llegar a ser Notable, un puesto de alto cargo que tuvo que alternar con todos sus compromisos de asesor científico del Estado, miembro activo de más de setenta sociedades científicas, director y conferenciante de la Royal Institution, hombre de ciencia de primera línea, prolífico autor de casi cuatrocientas publicaciones, etc. No obstante, en cierta ocasión fue rebajado de Notable en la secta y expulsado de ella por no llegar a tiempo al Sabah. Meses después consiguió su readmisión en la secta aunque ya no volvió a ser Notable.

BIBLIOGRAFÍA 1.- TATON, R. Historia general de las ciencias. 1988. Orbis. 2.- CANTOR, G., GOODING, D., JAMES, F.A.J.L. Faraday. 1991. Alianza Universidad. 3.- HARMAN, P.M. Energía, fuerza y materia. 1982. Alianza Editorial. 4.- http://www.rigb.org/rimain/heritage/ faradaypage.jsp Rafael López Valverde I.E.S. PABLO PICASSO.

Durante el periodo que comprende la vida de Faraday, la ciencia se desarrolla espectacularmente en Europa, especialmente en Gran Bretaña. El desarrollo de la industrialización llevó a las primeras exposiciones universales, a tender los primeros cables submarinos para la comunicación telegráfica entre el continente europeo y el americano, a los primeros trenes, los primeros barcos de acero, etc., etc., y, sobre todo, a una pasión social por la ciencia que hacía que personas de todas las formaciones y profesiones apoyaran económicamente y solicitaran su inscripción en las sociedades científicas que se creaban al amparo de la demanda social.

108

LEONARDO TORRES QUEVEDO Mª Luisa Aguilar Muñoz y José E. Peláez Delgado

INTRODUCCIÓN

Tras finalizar el bachillerato en 1868, cursó dos años más en un colegio religioso de París. A su regreso, Leonardo ingresó en la Escuela Oficial del Cuerpo de Ingenieros de Caminos, concluyendo sus estudios en 1876.

Leonardo Torres Quevedo puede considerarse nuestro ingeniero más universal, aunque él prefería autodefinirse como inventor. Y lo fue en gran medida. Su obra abarcó campos tan dispares como la mecánica, la aeronáutica, las máquinas de cálculo o la automática, obteniendo en todos ellos resultados de gran relevancia internacional y contribuyó en gran medida al progreso mundial de la técnica. Además, sus inventos no surgieron únicamente de su intuición, sino que fueron el resultado de meticulosas investigaciones siempre cimentadas en una sólida preparación científica y tecnológica.

Ejerció durante unos pocos meses como ingeniero en trabajos ferroviarios y emprendió un viaje (de estudios) por Europa (Francia, Italia, Suiza…) donde se puso al día del progreso científico y los adelantos tecnológicos de una época en la que comenzaba el desarrollo de las aplicaciones de la electricidad. A su vuelta a España, pasó una década entre Madrid, Bilbao, el Valle de Iguña y París, dedicado a sus estudios, sin que aparentemente obtuviese resultados tangibles. Es muy posible, que en este período iniciase sus primeras investigaciones referente a las máquinas de cálculo y los transbordadores.

Leonardo Torres Quevedo gozó en vida de un enorme prestigio científico y técnico gracias sobre todo, a la gran resonancia internacional que alcanzaron sus trabajos, en particular los llevados a cabo en los campos de las máquinas algebraicas y la automática, hasta el punto que son citados en la bibliografía como precursores de los computadores y la cibernética. A continuación se describen cronológicamente y de forma resumida sólo sus inventos más importantes, agrupándolos por temática y destacando lo más innovador de cada uno de ellos.

PRESENTACIÓN Leonardo Torres Quevedo nació el 28 de diciembre de 1852 en Santa Cruz de Iguña (pequeña aldea cántabra). Vivió con sus padres en Bilbao donde hizo el bachillerato, pero debido a los continuos desplazamientos que por motivos laborales realizaba su padre (también ingeniero de caminos), residió temporadas con unas parientas, las señoritas Barrenechea. Estos familiares le dejaron como herencia todos sus bienes, proporcionándole una situación de independencia económica que le permitió renunciar al ejercicio de su profesión y poder dedicarse plenamente a pensar en sus cosas (según sus palabras).

Leonardo Torres Quevedo

El 16 de abril de 1885 se casó con Luz Polanco y Navarro, instalándose en Portolín. Tuvieron ocho hijos, uno de ellos, Gonzalo, también sería ingeniero y colaboró estrechamente con su padre. En 1889 se 109

trasladó a Madrid, donde fijó definitivamente su residencia, salvo cortas temporadas que pasaría en Bilbao o en el extranjero.

Logra unas condiciones de seguridad ejemplares. Incluso en el hipotético caso de rotura de uno de los cables, el sistema se equilibraría automáticamente descendiendo la barquilla y subiendo los contrapesos hasta restablecerse nuevamente el equilibrio. Así, los restantes cables apenas incrementarían la tensión. Por primera vez en el mundo se concibe un transbordador apto para el transporte público de personas.

Con 41 años publicó su primer trabajo científico, una memoria sobre máquinas algebraicas. Este trabajo marcó el comienzo de una fecunda actividad creativa que se prolongaría sin interrupción, hasta poco antes de su fallecimiento, el 18 de diciembre de 1936, en plena guerra civil. La noticia de su desaparición pasó prácticamente desapercibida, celebrándose el funeral en la intimidad familiar.

En 1890 viajó a Suiza con la idea de presentar su proyecto de transbordador. Sin embargo, éste fue rechazado de plano lo que supuso un duro golpe para su amor propio que le llevó a abandonar el tema de los transbordadores. Aunque sólo fue un abandono temporal, pues sería retomado más tarde para construir el transbordador del Monte Ulía en San Sebastián. Fue inaugurado el 30 de septiembre de 1907 y está considerado como el primero en el mundo destinado al transporte público de personas. Estuvo operativo hasta 1916.

LOS TRANSBORDADORES Entre los años 1885 y 1887 se ocupó de los transbordadores. La primera noticia que se tiene (su primer invento, tal vez) hace referencia a los denominados transbordadores iguñeses. Probablemente concebidos a raíz de su paso por los Alpes. El primer transbordador que construyó fue el conocido como transbordador de Portolín. Lo realizó en el entorno de su casa, entre dos valles próximos. Tenía una longitud de aproximadamente 200 m y salvaba un desnivel de 40 m. Era de tracción animal y permitía el transporte de una persona.

Años más tarde, abordó la construcción de un transbordador en Canadá, cerca de las famosas cataratas del Niágara. Se trata del mundialmente conocido Spanish Niagara Aerocar, que se inauguró oficialmente el 9 de agosto de 1916 y todavía sigue en funcionamiento, sin que en todo este tiempo se haya registrado ningún incidente que destacar.

Posteriormente, construyó otro de mayor envergadura y con tracción mecánica. Fue el llamado transbordador del río León, también en el Valle de Iguña. Tenía una longitud de unos 2000 m con un desnivel de unos 300 m. Estuvo dedicado exclusivamente al transporte de material. Podemos considerar que, en realidad estos dos proyectos constituyeron pruebas ingenieriles iniciales. En 1887 (el 17 de septiembre) solicitó una patente en España con la memoria: Un sistema de camino funicular aéreo de alambre múltiple. En ella sentaba las bases de un novedoso sistema transbordador de cables múltiples. Spanish Niagara Aerocar

Las innovaciones que aportó en su proyecto pueden resumirse en las siguientes:

No debemos pasar por alto que fue una obra de ingeniería cien por cien española. La empresa constructora, el capital, la tecnología y la explotación inicial fueron españoles. Y ello en una época donde aún resonaban las desafortunadas palabras de Unamuno: que inventen ellos. Ni que decir tiene que con estos dos transbordadores, Torres Quevedo se

Emplea un sistema múltiple de cables-soportes, liberando los anclajes de un extremo que sustituye por contrapesos. Así consigue que la tensión de los cables-soportes sea prácticamente constante, independiente de la carga o de la posición de ésta. 110

saca definitivamente la espina que supuso el rechazo suizo.

fórmula. Pensaba que si ello fuese posible, la idea de máquina algébrica sería, al menos en teoría, muy simple y la ilustró con el siguiente ejemplo:

LAS MÁQUINAS ALGÉBRICAS

Sea f(A1,A2,A3,…X) = 0 una ecuación de una sola incógnita, cuyas raíces se pretenden calcular; bastaría para lograrlo establecer entre dos desplazamientos Yd y Xd la relación:

La década desde 1891 a 1901 la dedicó a las máquinas de cálculo analógico. En ellas, los números son representados mediante magnitudes físicas tales como longitudes, rotaciones, potenciales eléctricos, intensidades de corriente, etc. La idea es transformar una ecuación matemática en un proceso operacional de cantidades físicas que resuelven un problema físico análogo, cuyo resultado numéricamente coincide con la solución matemática buscada. Se trata en suma, de resolver el problema matemático por analogía con un modelo físico.

Yd= (A1,A2,A3,…Xd) y hacer funcionar la máquina en la que esta fórmula esté construida. Cada vez que Yd pase por cero, el valor de Xd será igual a una raíz de la ecuación propuesta. Desde un punto de vista práctico, estableció dos condiciones generales que habrían de seguirse para construir dicha máquina:

Según esto, en principio, todo aparato que permita reproducir a voluntad un fenómeno físico cuyas leyes estén formuladas matemáticamente es susceptible de llamarse máquina de cálculo analógico. Sin embargo, Torres Quevedo consideró que las analogías físicas más adecuadas para este propósito eran las mecánicas y en este ámbito, en 1893 presentó su primer trabajo científico.

Las transmisiones han de ser puramente geométricas, es decir, dependerán sólo de la forma de los mecanismos por lo que las relaciones entre los desplazamientos se mantendrán invariables (siempre que los mecanismos no se rompan). Prescinde de transmisiones de contacto que pueden resbalar y ocasionar errores.

Se trató de la Memoria sobre una máquina para resolver ecuaciones, que dirigió al Gobierno español en demanda de ayuda, con el fin de buscar en el extranjero los medios necesarios para construir una máquina algebraica. La Administración delegó en la Real Academia de Ciencias el estudio de dicha memoria, donde el autor describía los principios teóricos de una máquina de su invención capaz de hallar las raíces reales de un polinomio de cualquier grado. La Academia informó favorablemente y la ayuda le fue concedida.

Sólo han de emplearse mecanismos sin fin, para así representar variables que puedan oscilar entre límites muy amplios. La máquina que propuso estaba compuesta de tres partes esenciales: El generador de cantidades o aritmóforo, sirve para representar los números. Torres Quevedo recurrió a una representación logarítmica utilizando dos discos. El principal con una graduación logarítmica de 1 a 10 que proporcionaba todas las mantisas posibles (en él se leerían las cifras significativas). El secundario se trataba de un disco contador de vueltas y servía para conocer la característica (y por consiguiente la posición de la coma). Estaba dividido en 2n partes iguales, de forma que avanzaría una subdivisión al completar el disco principal una vuelta, lo que equivale a multiplicar por diez la cantidad indicada en el índice de la rueda principal.

En 1895, Torres Quevedo publicó esta misma memoria con ligeras modificaciones y con la adición de dos apéndices. Se tituló: Memoria sobre las máquinas algébricas. En ella definía máquina algébrica como un instrumento que enlaza varios móviles e impone mecánicamente ciertas relaciones entre los valores simultáneos de sus desplazamientos, precisamente las relaciones expresadas matemáticamente en la fórmula analítica. Se hace evidente que al construir la máquina se construyen las ecuaciones que relacionan los valores de los desplazamientos considerados. Torres Quevedo fue consciente de ello y planteó por primera vez la cuestión de si se podrá construir cualquier

El generador de monomios o tren epicicloidal, es un mecanismo que convierte en

111

sumas las operaciones necesarias para construir un monomio. Lleva a cabo el siguiente proceso: AXn ------------- log A + nlogX El generador de sumas o generador del polinomio, conocido como husillo sin fin. Es la pieza fundamental de la máquina y la más original. Tras operar el tren epicicloidal, el polinomio se ha transformado en una suma de logaritmos. Se hace necesario hallar el logaritmo de la suma a partir de los logaritmos de los sumandos (y no existe una relación algebraica que lo permita). Torres Quevedo consiguió, mediante su husillo sin fin, resolver el complejo problema de representar mecánicamente el logaritmo de una suma.

Máquina algébrica

Esta etapa de máquinas analógicas de cálculo la cerró con su discurso de ingreso en la Real Academia de Ciencias Exactas, Físicas y Naturales el 19 de mayo de 1901.

Estos tres generadores mecánicos establecen las relaciones adecuadas entre sus movimientos para representar las correspondientes operaciones algebraicas. Esta memoria supuso realmente la base de esta etapa y fue presentada también a la Academia de Ciencias de París, que la publica el 29 de julio de 1895. Sus investigaciones posteriores son generalizaciones, ampliaciones y aplicaciones sucesivas de esta memoria. El período de 1896 a 1900 los dedicó a perfeccionar y concebir detalladamente sus máquinas y a construir alguna de ellas, al tiempo que publicó varios artículos. En 1900, presentó a la Academia de Ciencias de París, la memoria titulada Máquinas de calcular, donde precisa, detalla y generaliza sus ideas sobre las maquinas de cálculo. La comisión que realizó el informe de esta memoria afirmó que Torres Quevedo había dado con una solución teórica, general y completa del problema de la construcción de relaciones algebraicas y transcendentes mediante máquinas. Asimismo, la comisión concluía con el ruego a la Academia para que incluyera la Memoria en el Repertorio de Sabios Extranjeros. Esta Memoria se acompañó de varios modelos de máquinas para el ensayo de algunos mecanismos, entre ellos el de una máquina capaz de hallar las raíces reales de ecuaciones trinomias.

EL TELEKINO Al comenzar el s XX, Torres Quevedo centró su atención preferente en los dirigibles. En 1902 presentó a las Academias de Ciencias española y francesa un anteproyecto de globo dirigible que recibió informes muy positivos de Echegaray y de Appell respectivamente. Al mismo tiempo se ocupó de otro proyecto. Se trataba de un autómata que ejecutaba las órdenes que se le enviaban por radiotelegrafía y que denominó telekino. No referimos al primer mando a distancia del mundo. La idea parece que surge con el propósito de hacer pruebas con los globos dirigibles sin exponer vidas humanas. En 1903 lo presentó a la Academia de Ciencias de París, acompañado de una memoria explicativa y haciendo una demostración experimental de su funcionamiento. Éste se basaba en la transmisión, a través de ondas de radio, de señales telegráficas. Cada una de ellas hacía avanzar un paso en un conmutador rotativo y dependiendo del número de señales recibidas se actuaba, mediante dicho conmutador, en un circuito determinado ejecutándose la maniobra correspondiente.

En 1901 publicó también en Francia, el artículo Sobre la construcción de máquinas algébricas donde describía detalladamente la construcción de una máquina para resolver ecuaciones de ocho términos. Dicha máquina la empezó a construir en 1910 y fue concluida en 1920 (actualmente se conserva en la Escuela de Ingenieros de Caminos, Canales y Puertos de Madrid).

Hasta ese momento, todos los intentos de efectuar operaciones a distancia habían fracasado. Estos ensayos anteriores se habían limitado a una 112

acción en una sola dirección, un único cambio. Operaciones del tipo encendido/apagado. En ningún modo se había logrado un aparato capaz de dirigir las diferentes maniobras necesarias para gobernar a distancia un móvil. Torres Quevedo lo consiguió, mediante un original mecanismo de invención propia, llamado contacto retrasado o retardado que permitía la recepción de las señales necesarias para la ejecución de los diferentes mandatos.

dirigible. Torres Quevedo proyectó colocar en el interior del globo el armazón, que iba de un extremo al otro, constituyendo la quilla interior rígida y situó la barquilla muy próxima al globo. Para mantener el equilibrio de la quilla y la estabilidad de la forma del globo, ideó poner unos tirantes en forma de triángulos isósceles invertidos a lo largo del eje. Así, la estructura interior quedaba compuesta, además de la quilla, por un conjunto de barras y tirantes que hacen que unos triángulos sean rígidos y otros flexibles (estos últimos adquirían su rigidez por la presión interior del gas), manteniéndose todos unidos entre sí mediante cables, en una estructura semirrígida que conservaba invariable la forma del globo. La barquilla quedaba sujeta al globo fijada a la viga interior mediante un sistema rígido situado en la parte central inferior.

Los primeros ensayos se llevaron a cabo con un triciclo que tras repetidas pruebas se optimizó para aplicarlo a una embarcación. La prueba oficial se efectuó en Bilbao en 1906, ante una gran multitud y con la presencia del Rey Alfonso XIII, teniendo un impresionante éxito popular. Torres Quevedo animado por este logro, propuso al Ministerio de Marina que se le permitiese realizar pruebas para aplicar su telekino al gobierno y dirección de torpedos. El Ministerio rechazó fríamente su propuesta y el telekino quedó abandonado. No fue usado ni industrial ni comercialmente, ni siquiera para el ensayo de sus dirigibles.

El globo tomaba una forma trilobulada (debido a la estructura interna triangular) y disponía de un sistema de bolsas de aire que permitía regular los ascensos y descensos de manera parecida a como controlan la profundidad los submarinos. Dejando escapar el aire, y por tanto dando más espacio al hidrógeno, aumentaba la fuerza ascensional del globo y éste subiría. Por el contrario, inyectando aire en esas bolsas, aumentaría el peso y el globo descendería. También, este sistema permitía en cierta medida, compensar la pérdida de lastre que suponía el consumo de combustible en los motores.

DIRIGIBLES Como antes se dijo, en 1902 Torres Quevedo presentó un nuevo proyecto a las Academias de Ciencias de Madrid y París. Se trataba en este caso de un dirigible. Centró su análisis en el estudio de las condiciones de equilibrio de estos globos, pues consideraba que los problemas más importantes que afectaban a estas aeronaves eran más de estabilidad que de propulsión, ya que estos últimos quedaron resueltos con la llegada del motor de combustión.

El proyecto recibió informes muy favorables de las Academias de Ciencias española y francesa, y fue apoyado por el Gobierno español que en 1904, bajo la dirección de Torres Quevedo, creó el Centro de Ensayos de Aeronáutica, dependiente de la dirección General de Obras Públicas, ubicado inicialmente en Guadalajara.

Llevó a cabo un estudio de las fuerzas que actúan sobre el sistema globo propulsado por una hélice con la barquilla suspendida a bastante distancia de aquél. Advirtió que la fuerza propulsora y la resistencia del aire, si bien actuaban en la misma dirección, sus rectas directrices no coincidían, ocasionando un par de fuerzas que tiende a inclinar el globo y la barquilla. Los efectos de este par se hacían más patente al aumentar la velocidad. Este hecho era, a juicio de Torres Quevedo, el principal obstáculo para lograr velocidades mayores en el dirigible, y propuso la coincidencia de la directriz en ambas fuerzas. Dirigible España

Los globos entonces utilizados eran alargados y llevaban la barquilla sostenida por medio de un armazón que solía ser casi tan larga como el propio

Ese año presentó un nuevo proyecto, que sería su primer dirigible, bautizado con el nombre de 113

la travesía fue llevada a cabo con éxito por un dirigible R-34 británico.

España que se empezó a construir en 1905 con la colaboración del ingeniero militar Kindelán. Tendría una capacidad de 950 m3 y se ensayó en 1907 en el Parque Aeronáutico Militar de Guadalajara, detectándose la necesidad de cambiar la tela por problemas de excesiva permeabilidad al gas. El cambio de envolvente incrementó el volumen hasta 1050 m3 y se ensayó de nuevo en 1908 con total éxito.

AUTOMÁTICA La era de la automática la inició con el telekino (1903-1906), donde aplica por primera vez la electromecánica. Pero es en enero de 1914 cuando publicó en la Revista de la Real Academia de Ciencias su trabajo más importante: Ensayos sobre automática. Su definición. Extensión teórica de sus aplicaciones. En este artículo pionero, no sólo estableció los fundamentos de una nueva ciencia, la Automática, sino que introdujo dicho término. Si hacemos un rápido repaso de esta memoria nos encontramos que:

El 11 de julio de 1906 solicitó la patente acompañada de la memoria: Un nuevo sistema de globos fusiformes, que incorporaba algunas modificaciones respecto de los proyectos iniciales. Entre ellas señalar: El empleo de una viga flexible funicular, formada por tres cordones-cables unidos en los extremos del globo y que a intervalos de 10 cm son atados entre sí por medio de tirantes a modo de triángulos invertidos. El conjunto se mantiene en tensión por efecto de la presión del gas interior. También utilizó un novedoso sistema de unir la viga a la envolvente y a los cables de sujeción de la barquilla, garantizando la hermeticidad. Posteriormente, añadió otras mejoras con sucesivos certificados de adición a dicha patente.

Clasifica los autómatas atendiendo a las circunstancias que regulan su acción, en dos categorías: Los que actúan en modo continuo, en ellos se establecen enlaces mecánicos invariables. Y los que actúan por intermitencias, donde los automatismos pueden ser alterados bruscamente cuando las circunstancias lo exigen.

Una serie de dificultades, administrativas y de otra índole, le obligaron una vez más a tomar el camino a París. La prestigiosa casa francesa Astra solicitó al ingeniero que le cediese la exclusiva para la explotación de las patentes del globo. Con la autorización del Ministerio de Fomento español se firmó el contrato con la sociedad francesa, cediéndosele los derechos de explotación para todos los países excepto España, a fin de posibilitar la construcción del dirigible en nuestro país.

Hoy en día hablaríamos de sistemas analógicos y sistemas digitales, respectivamente. Introduce y define el término Automática como el estudio de los procedimientos que pueden aplicarse a la construcción de autómatas dotados de una vida de relación más o menos complicada.

Así se inició la fabricación de los dirigibles conocidos como Astra-Torres. En 1911 se probó el que sería el primer dirigible Astra-Torres con 1600 m3 de volumen. Poco después consiguió alcanzar la velocidad de 80 km/h con el Astra-Torres XIV de 8000 m3. En 1914, se construyó el Astra-Torres XV, de 23000m3, dimensiones análogas a los Zeppelines alemanes y que logró velocidades próximas a los 100 km/h.

Para dotar a los autómatas de una vida de relación, propone que éstos contarían con: Sentidos, esto es aparatos sensibles a las circunstancias que puedan influir en su marcha. Por ejemplo: termómetro, manómetro, dinamómetro, etc. Miembros, es decir, aparatos capaces de ejecutar operaciones. Fuente de energía. Capacidad de discernimiento, lo que significa que sus acciones estarían condicionadas a las

Sus últimas aportaciones en este campo se refieren al proyecto Hispania, patentado el 18 de octubre de 1919. Se trataba del diseño que realizó en 1918, en colaboración con el ingeniero militar Emilio Herrera, de un dirigible transatlántico con objeto de abordar desde España la primera travesía aérea del Atlántico. Los problemas de siempre, falta de apoyo y de financiación, demoraron el proyecto. Y en 1919, 114

impresiones que reciben o incluso que han recibido antes.

Los aparatos más reseñables construidos en esta etapa son: el telekino, los autómatas ajedrecistas y el aritmómetro electromecánico. Del telekino ya hemos hablado, tratemos los otros dos a continuación.

Afirma que desde una perspectiva puramente teórica, siempre sería posible construir un autómata cuyos actos, todos, dependan de ciertas circunstancias más o menos numerosas, obedeciendo a reglas que se pueden imponer arbitrariamente en el momento de la construcción. En términos actuales se está refiriendo a dotarlos de inteligencia artificial.

Ajedrecistas Es en definitiva, un intento logrado de máquina que juega al ajedrez. La primera en su género. Construyó dos, en ambas resuelve un final de partida en el que torre y rey blancos, jugados por la máquina, dan jaque a rey negro movido libremente por un adversario humano. El juego está predeterminado algorítmicamente porque jugado bien, las piezas blancas consiguen dar siempre mate al rey negro. Torres Quevedo implementó en este autómata las reglas a seguir para conseguir este resultado.

Demostrar esta última afirmación es precisamente, el objetivo de este ensayo y lo verdaderamente innovador. Hasta ese momento se creía que a lo sumo sería posible automatizar las operaciones mecánicas puramente manuales de un obrero y que nunca podrían ejecutarse mecánicamente las que exijan la intervención de facultades mentales. Tras reflexionar sobre soluciones puramente mecánicas de este problema, incluyendo los trabajos que en esta dirección desarrolló Babbage con sus máquinas analíticas, opta definitivamente por el sistema electromecánico, empleando circuitos de conmutación mediante relés. Para exponer más claramente sus ideas, decidió ilustrarlas aplicándolas a las máquinas analíticas, entendiendo por tales, las que pueden ejecutar todo tipo de cálculo sin ayuda de nadie. Con esta intención describe los mecanismos para:

Segundo ajedrecista

El primer jugador fue construido en 1912 y presentado en París, en el Laboratorio de Mecánica de la Sorbona, causando gran sensación.

Anotar valores. Realizar operaciones aritméticas: suma, resta, multiplicación y división. Comparar cantidades. Imprimir los valores dados o calculados.

El segundo fue proyectado y construido en 1920 por Gonzalo (su hijo) bajo la dirección de Torres Quevedo. Se presentó en el Congrès de Cybernétique celebrado en el Conservatoire des arts et des métiers de París en 1922.

Y como ejemplo proyecta un autómata capaz de calcular el valor a de la fórmula:

Incluía ciertas mejoras entre las que destacar:

α = a·x·( y − z ) 2

Una presentación más cuidada y técnicamente más perfeccionado. Tablero horizontal. Aviso luminoso y sonoro (gramófono) de los jaques. Movimiento magnético de las piezas. Dispositivo que advertía de las infracciones que pudiese cometer el

Esta máquina contaría con una unidad aritmética, una unidad de control, una pequeña memoria y un dispositivo de entrada de datos y salida de los resultados. Aunque no llegó a construirse, sí es de destacar que su diseño se aproxima mucho a las actuales calculadoras. 115

adversario, avisando hasta en dos ocasiones e interrumpiendo el suministro eléctrico al tablero y, por tanto, dejando de jugar en el caso de cometer una tercera falta.

ocasiones construyó varios aparatos ilustrativos, incluyendo dos calculadoras más, una balanza automática y una máquina para jugar al Nim. Sin embargo, todo apunta a que la construcción de una máquina analítica completa estaba a su alcance, lo que habría supuesto adelantarse en más de 25 años a la Mark I, realizada por Aiken en la Universidad de Harvard entre 1937 y 1944.

Evidentemente, la tesis planteada en sus Ensayos de que es posible construir autómatas dotados de inteligencia artificial, queda demostrada con la realización de los ajedrecistas. El aritmómetro electromecánico

BIBLIOGRAFÍA Es una máquina analítica completamente automática en la que se teclean los números y las operaciones en el orden en que se van a ejecutar y el cálculo se efectúa sin intervención humana. Al finalizar éste, la máquina imprime el resultado.

GONZÁLEZ DE POSADA, F. Leonardo Torres Quevedo. Biblioteca de la Ciencia Española. Fundación del Banco Exterior, Madrid. 1992. GONZÁLEZ DE POSADA, F. Leonardo Torres Quevedo. Investigación y Ciencia. No 166, 80-87. 1990. GONZÁLEZ DE POSADA, F. y GONZÁLEZ REDONDO, F.A. Leonardo Torres Quevedo (18521936) 1ª Parte. Las máquinas algébricas. La Gaceta de la RSME, Vol. 7.3, 787-810. 2004. GONZÁLEZ DE POSADA, F. y GONZÁLEZ REDONDO, F.A. Leonardo Torres Quevedo (18521936) 2ª Parte. Automática, máquinas analíticas. La Gaceta de la RSME, Vol. 8.1, 267-293. 2005. RANDELL, B. From analytical engine to electronic digital computer: the contributions of Ludgate, Torres and Bush. Annals of History of Computing, Vol. 4, No. 4, October 1982. SANTESMASES, J.G. Obra e inventos de Torres Quevedo. Instituto de España. Madrid. 1980. TORRES QUEVEDO, L. Memoria sobre las máquinas algébricas.Imprenta de la Casa de Misericordia. Bilbao. 1985. TORRES QUEVEDO, L. Ensayos sobre automática. Su definición. Extensión teórica de sus aplicaciones. Revista de la Real Academia de Ciencias Exactas, Físicas y Naturales, XII, 391-419. 1914.

En 1920 se presentó en París con motivo del centenario del primer aritmómetro práctico de Thomas de Colmar.

Aritmómetro electromecánico

En esta máquina se pone de nuevo en evidencia la facultad de decisión señalada por su inventor: este autómata actúa como una persona circunspecta y reflexiva: examina las circunstancias en que se encuentra para decidir lo que debe hacer y lo hace. Facultad de decisión que se aplica continuamente en las computadoras actuales, por lo que estos trabajos sitúan a su autor como pionero de la Automática y precursor de los computadores.

Mª Luisa Aguilar Muñoz José Eugenio Peláez Delgado Centro de Ciencia PRINCIPIA

El aritmómetro electromecánico, fue un modelo concebido para demostrar que la construcción de una máquina analítica electromecánica era completamente factible. Aunque nunca llegó a realizar una máquina analítica completa, sí diseñó y en 116

Get in touch

Social

© Copyright 2013 - 2024 MYDOKUMENT.COM - All rights reserved.