Temas de Física. La ciencia de la luz: en la frontera entre la Física y la Química. Juan José Serrano Pérez I

Temas de Física La ciencia de la luz: en la frontera entre la Física y la Química Juan José Serrano PérezI El estudio de la naturaleza de la luz se h

2 downloads 78 Views 493KB Size

Recommend Stories


La innovación, entre la ciencia, la ficción y la política
Portafolio CTS Abril 2010 La innovación, entre la ciencia, la ficción y la política Jesús Sebastián* El artículo plantea una reflexión sobre la evo

Reunidos, a las 11h 20m en la Sala de Grados de lafacultad de Fsica de la Universidad
SEA 1 e SOCIEDAD ESPANOLA DE ASTRONOMIA ACTA DE LA ASAMBLEA CONSTITUYENTE CELEBRADA EL DIA 20 DE NOVIEMBRE DE 1992. Reunidos, a las 11h 20m en la S

LA FILOSOFIA ENTRE LA IDEOLOGIA Y LA CIENCIA. LA CONCEPCION DE LA FILOSOFIA DE L. ALTHUSSER
LA FILOSOFIA ENTRE LA IDEOLOGIA Y LA CIENCIA. LA CONCEPCION DE LA FILOSOFIA DE L. ALTHUSSER G. Amengual Situar a L. Althusser en el panorama del pens

Objetivos. Impactos de la ciencia y la tecnología en la sociedad. Temas. Cátedra CTS +I de Panamá
Impactos de la ciencia y la tecnología en la sociedad Cátedra CTS +I de Panamá OEI/Consejo de Rectores Luis Javier Jaramillo Panamá. Octubre 1-3/03

Story Transcript

Temas de Física

La ciencia de la luz: en la frontera entre la Física y la Química Juan José Serrano PérezI El estudio de la naturaleza de la luz se halla inextricablemente unido al mismo desarrollo de la Mecánica y del Electromagnetismo. Las aplicaciones de la Espectroscopía son vitales en muchos campos, como por ejemplo para identificar los elementos presentes en la materia y determinar sus concentraciones. Además, la vida en la Tierra depende de la influencia que la luz tiene sobre la materia: el efecto de la radiación electromagnética (dentro de la cual la luz visible abarca sólo un pequeño rango) se puede extender desde simple calentamiento hasta procesos fotoquímicos complejos (algunos fundamentales para la vida, como la fotosíntesis o la producción de vitamina D, y otros dañinos, como las mutaciones), ya que una molécula en estado excitado (por absorción de luz) puede ser más propensa a experimentar un determinado cambio químico. La comprensión de los mecanismos fotofísicos y fotoquímicos es clave en muchas aplicaciones tecnológicas de gran importancia. Estamos ante un campo interdisciplinar en el cual la frontera entre la Física y la Química se difumina. 1. Los primeros pasos Durante la Edad Antigua y la Edad Media, la luz, la electricidad y el magnetismo eran considerados tres fenómenos independientes [1-3]. Los filósofos griegos consideraban la luz como una emisión de los cuerpos luminosos, aunque había cierta confusión sobre si el rayo de luz partía del ojo (teoría geométrica o extramisionista) o del cuerpo iluminado (teoría fisiológica o intromisionista). Con Euclides y otros autores griegos se formaliza y aplica la Geometría a las leyes de la Óptica, independientemente de sus ideas sobre la naturaleza de la luz. Siguiendo esta línea, Pierre de Fermat presentó, en 1657, el principio que hoy lleva su nombre, como una generalización de una observación realizada por Herón de Alejandría hacia el año 125 antes de la era común: la trayectoria seguida por la luz al propagarse de un punto a otro es aquella para la cual el tiempo empleado es un mínimo [2, 4, 5] (de forma más general, el tiempo empleado es estacionario respecto a posibles variaciones de la trayectoria, ya que a veces puede ser también un máximo). Así, cuando observamos la reflexión de un rayo de luz sobre un espejo, decimos que la trayectoria del rayo es tal que el ángulo de entrada es igual al ángulo de salida, porque éste es el camino de tiempo mínimo. Sin embargo, en realidad existen infinitos caminos de reflexión que van de un foco luminoso a un detector, tras reflejarse. Lo que ocurre es que, si bien hay reflexión a lo largo de todo el espejo, sólo los caminos próximos al camino de tiempo mínimo son relevantes, porque el resto se cancelan por interferencia [6]. 2. La gran polémica Con los autores modernos se divide la consideración de la naturaleza de la luz en dos corrientes [1, 2]: algunos, como Descartes, Huygens y Hooke, la consideraban un fenómeno ondulatorio; y otros, como Gassendi y Newton, que consideraban la luz como formada por partículas luminosas emitidas por los cuerpos. i  Instituto de Ciencia Molecular (ICMol), Universitat de València, c/ Catedrático José Beltrán, 46980 Paterna, España,[email protected] REF | 27-3 | Julio-septiembre 2013

La autoridad de Newton motivó la preponderancia de la teoría corpuscular sobre la ondulatoria en un principio (pese a la oposición de importantes científicos posteriores como Bernouilli y Euler), pero poco a poco fue imponiéndose la teoría ondulatoria, especialmente durante el siglo xix, en gran medida por los trabajos de Fresnel. Además, Foucault demostró a mediados de ese siglo que la velocidad de la luz en el agua era menor que en el aire, en franca contradicción con la teoría corpuscular. Esto suponía la existencia de un sustrato material como un fluido muy sutil denominado éter luminoso que llenaba el espacio vacío. El éter [1, 2] ya había sido propuesto por Huygens y se remontaba a las ideas griegas y medievales sobre la naturaleza de los cuerpos celestes. Igual que el sonido se propaga por el aire, la luz se propagaba por el éter, cuyas vibraciones constituían la luz. Sin embargo, para entender la naturaleza de la luz los físicos tuvieron que empezar a relacionar los fenómenos ópticos con otras áreas. En 1819 Oersted demostró experimentalmente las acciones mutuas entre corrientes eléctricas e imanes, observando que una aguja magnética se desviaba de su posición inicial al situarse en la proximidad de un conductor por el que circulaba una corriente eléctrica. Experiencias posteriores, realizadas por Faraday1, Ampère y Henry, dieron origen al Electromagnetismo [2, 5, 8]. La unificación de la electricidad y el magnetismo ya se vislumbraba en los resultados de Oersted y Faraday. Pero fue J. C. Maxwell quien publicó una serie de trabajos decisivos a este respecto (A dynamical theory of the electric field, 1864; Treatise on Electricity and Magnetism, 1873). Sus investigaciones le llevaron a afirmar que la luz era una perturbación en forma de ondas propagadas a través del campo electromagnético, unificando la Óptica y el Electromagnetismo. Maxwell predijo la existencia de ondas elec1  Michael Faraday introdujo conceptos teóricos fundamentales, como las nociones de líneas de fuerza y de campo electromagnético. Fue esencial entender el concepto de campo de fuerzas, que actúa como un agente intermedio entre dos cuerpos, de modo que dichos cuerpos pueden ejercerse una fuerza mutua sin estar en contacto directo a través de los campos generados por cada uno de ellos.

35 

Temas de Física

La ciencia de la luz: en la frontera entre la Física y la Química

Tabla 1. Descubrimientos y estudios que parecían apoyar una u otra teoría a lo largo de los siglos [1, 2] Teoría ondulatoria

Teoría corpuscular

Siglo xvii: Francesco Grimaldi estudia con detalle la difracción de la luz. Robert Hooke postula que el fenómeno de la refracción se explica mejor con la teoría ondulatoria. Erasmus Bartholin estudia el fenómeno de la doble refracción en el espato de Islandia.

Siglo xiv: Nicolás de Autrecourt, que adoptó el modelo del atomismo epicúreo, creyó que la luz era un movimiento de partículas con velocidad finita [3].

1801-1806: Thomas Young explica los conceptos de interferencia constructiva y destructiva [7] y enuncia la ley general de la interferencia de la luz. También explica su famoso experimento de la doble rendija y la aberración estelar desde la teoría ondulatoria en su memoria On the nature of light and colours.

1660: Se publica póstumamente la obra de Pierre Gassendi, en la cual se propone una teoría corpuscular de la luz.

1808: Etienne Louis Malus descubre la polarización de la luz.

1672: Explicación de Isaac Newton de la dispersión de la luz.

1826: Augustine Fresnel, utilizando el principio de Huygens y las ideas de Young, propone una teoría cuantitativa de la difracción que aparece publicada en Mémoire sur la diffraction de la lumiere (“Memoria sobre la difracción de la luz”). Este trabajo es definitivo en la instauración de la teoría ondulatoria.

1728: James Bradley descubre el fenómeno de la aberración estelar (diferencia entre la posición observada de una estrella y su posición real, debido a la combinación de la velocidad del observador y la velocidad de la luz), que entiende como análogo a la situación que se da cuando caen gotas de lluvia (el movimiento de caída vertical de la lluvia y el horizontal de un observador en movimiento se componen vectorialmente, de modo que, desde su punto de vista, la lluvia cae con una inclinación contraria al sentido de su movimiento).

tromagnéticas con frecuencias por debajo y por encima de las correspondientes al espectro de luz visible. El éter luminoso se convertía ahora en el éter electromagnético. Las ecuaciones de Maxwell [5, 8-10] relacionan los vectores de campo eléctrico y magnético con sus fuentes (las cargas eléctricas, las corrientes y los campos variables). Maxwell demostró que estas ecuaciones podían combinarse para originar una ecuación de onda que debían satisfacer los vectores campo eléctrico y magnético, y que la velocidad de las ondas electromagnéticas en el vacío debía valer aproximadamente 3·108 m/s, igual que la velocidad de la luz. Por tanto, la luz es la superposición de dos campos oscilantes, uno eléctrico y otro magnético, de idéntica frecuencia y que se encuentran en fase (ambos pasan por un máximo o por un mínimo simultáneamente), perpendiculares entre sí y con respecto a la dirección de propagación de la radiación. El primer paso hacia una teoría moderna de la luz se dio en las postrimerías del siglo xix. En 1887, Albert Michelson y Edward Morley decidieron medir la velocidad de la Tierra respecto al éter mediante un ingenioso experimento [8, 11] en el cual la velocidad de la luz respecto a la Tierra se comparaba entre dos haces luminosos, uno en la dirección del movimiento de la Tierra relativo al Sol y otro perpendicular a la dirección del movimiento terrestre. Dado que se suponía que la Tierra se movía a través del éter en su órbita alrededor del Sol, la velocidad de la luz medida en la dirección del movimiento de la Tierra a través del éter (cuando nos estuviéramos moviendo hacia la fuente luminosa) debería ser mayor que la velocidad de la luz en la dirección perpendicular. Sin embargo, nunca se pudo detectar la menor diferencia: el movimiento absoluto de la Tierra respecto al éter no pudo ser detectado. En otras palabras, el éter no existía2. 2  Sin embargo, tan arraigado concepto tardó en desaparecer de la cultura popular. Verbigracia: Sir Arthur Conan Doyle, en su cuento La zona envenenada (The Poison Belt, 1913), publicado años después de este experimento, nos narra cómo los protagonistas de El mundo perdido se

36

En 1905, Albert Einstein publicó su artículo revolucionario sobre la relatividad especial [5, 8, 12], donde tomaba como postulado la constancia de la velocidad de la luz para cualquier sistema de referencia (dicho de otro modo, todo observador mide el mismo valor para la velocidad de la luz con independencia del movimiento relativo del foco y del observador). En este artículo postulaba que el movimiento absoluto no podría detectarse por ningún tipo de experimento, por lo que era de esperar el resultado nulo del experimento de Michelson-Morley. 3.  La Mecánica Cuántica entra en escena Una de las primeras indicaciones de que la evolución de la Física no había ni mucho menos llegado a su apogeo [1, 3, 13] surgió del estudio de la radiación del cuerpo negro (cuerpo que puede emitir y absorber todas las frecuencias de radiación uniformemente). Las observaciones experimentales no pudieron ser explicadas por la Mecánica Clásica (que incluso predecía erróneamente que los objetos fríos tendrían que irradiar en la región ultravioleta-visible y resplandecer en la oscuridad). Max Planck sugirió en 1900 que la radiación no podía ser emitida en cantidades arbitrarias, sino sólo en ciertos paquetes de energía o cuantos, convirtiéndose así en el pionero de la Mecánica Cuántica y llegando a su célebre fórmula para la energía de cada cuanto de radiación: E = h · ν, siendo h la constante que hoy lleva su nombre y ν la frecuencia. Éste es un concepto fundamental: dado un sistema físico, existen restricciones acerca de la energía que pueden tener sus diferentes estados. Aunque en el mundo cotidiano podemos suponer que la energía cinética de un coche puede adquirir cualquier valor posible, ya que puede avanzar a cualquier velocidad dentro de los límites que le impone su motor, esta aproximación no es válida en el mundo microscópico, cuando estudiamos átomos y moléculas. En 1905 Einstein publicó otro artículo [12] en el que suponía que la energía de la luz estaba distribuida espacialmente enfrentan al fin del mundo cuando la Tierra entra en la “zona venenosa del éter”. REF | 27-3 | Julio-septiembre 2013

Juan José Serrano Pérez

de forma discontinua, formada por partículas independientes llamadas fotones, de energía E = h · ν. Así explicó el efecto fotoeléctrico, que consiste en la emisión de electrones de la superficie de un metal al hacer incidir un rayo de luz. Aunque otros fenómenos sólo se podían explicar entendiendo la luz como una onda continua, el efecto fotoeléctrico no puede ser explicado con un modelo ondulatorio3, sino que hay que considerar que la luz está constituida por fotones. Otro trabajo publicado por Einstein en 1907 mostraba que la teoría de la radiación conduce a una modificación de la teoría cinético-molecular del calor, indicando que la radiación presenta un comportamiento dual de onda y partícula. Para entender cómo esta dualidad se podía extender también a la materia, debemos remontarnos al siglo xviii, cuando se desarrolla la Mecánica Analítica. Las ecuaciones de movimiento en la forma newtoniana son más apropiadas para resolver problemas físicos que quedan descritos adecuadamente en coordenadas cartesianas, pero es conveniente encontrar ecuaciones de movimiento independientes del sistema de coordenadas [1, 14, 15]. Basándose en las ideas de Leonhard Euler, Joseph-Louis Lagrange formuló sus ecuaciones de movimiento a partir de las expresiones analíticas de la energía expresadas en función de un sistema de coordenadas arbitrario (coordenadas generalizadas), definiendo la función lagrangiana (diferencia entre energía cinética y energía potencial de un sistema). Las ecuaciones de Lagrange se derivan del principio de mínima acción, enunciado en 1744 por Pierre Louis Moreau de Maupertuis: entre todos los caminos posibles, con los mismos estados inicial y final fijos, el camino que sigue el sistema es aquel que hace mínima (en general, estacionaria) la acción (integral a lo largo del camino de la función lagrangiana). Este principio pone de manifiesto la íntima correspondencia entre el movimiento de un cuerpo material y el movimiento de un rayo de luz (recordemos el principio de Fermat), conectando la Mecánica con la Óptica. En cierto sentido, tanto el rayo de luz como el cuerpo material siguen el camino más “fácil” disponible. En 1924, Louis de Broglie extendió la dualidad onda-partícula de la luz a la materia, asociando a cada partícula material una longitud de onda. De Broglie estudió las analogías existentes ente la Mecánica Clásica y la Óptica Geométrica, relacionando el principio de mínima acción con el principio de Fermat. Consideró que el problema de que la partícula “eligiese” el camino de acción mínima podía resolverse del mismo modo que con la luz, atribuyendo a la partícula una onda asociada [4, 13, 16, 17]: las ondas asociadas con la partícula explorarían todos los caminos posibles entre dos puntos, y sólo los correspondientes a la línea recta sufrirían interferencia constructiva. De Broglie mostró que las ondas que siguen la misma trayectoria que las partículas a las cuales están asociadas cumplen la relación de que su longitud de onda es igual al cociente entre la constante de Planck y el momento lineal de la partícula. 3  Los cálculos indican que ningún electrón podría adquirir la suficiente energía para su expulsión si la radiación se distribuyera uniformemente por toda la superficie del electrodo como sucede en el modelo ondulatorio; ni podría acumular tan rápidamente la energía suficiente para originar las corrientes casi instantáneas que se observan. REF | 27-3 | Julio-septiembre 2013

Temas de Física Como conclusión, la antigua polémica sobre la naturaleza de la luz se zanjó considerando que presenta una naturaleza dual. La dualidad onda-partícula es un concepto de la Mecánica Cuántica según el cual no hay diferencias fundamentales entre partículas y ondas: las partículas pueden comportarse como ondas y viceversa. 4. Espectroscopía La interacción entre la radiación y la materia es una de las aplicaciones más importantes de la Mecánica Cuántica. La formulación de la Mecánica Cuántica moderna [1, 2] se debe a Werner Heisenberg (1925) y Erwin Schrödinger (1926), concibiendo que el comportamiento de un sistema físico se puede describir mediante una función de onda que es solución de la ecuación que hoy lleva el nombre de este último. En contraposición con la visión determinista clásica (en la que el estado del sistema se define especificando las fuerzas que actúan y las posiciones y momentos de las partículas), la Mecánica Cuántica se basa en una visión estadística de la naturaleza: las partículas se encuentran en un estado cuántico descrito por una función de onda, cuyo módulo al cuadrado estima la probabilidad de encontrar la partícula en una cierta región del espacio. La teoría de Schrödinger enlaza con los fundamentos matemáticos de la Mecánica Analítica desarrollados por Lagrange y William Hamilton. La Espectroscopía [18-23] estudia la energía absorbida o emitida por un átomo o molécula cuando interacciona con el campo electromagnético de la radiación. Los fenómenos derivados de dicha interacción dependerán del tipo de radiación empleada, pero principalmente de la estructura atómica y molecular. Podemos considerar que Newton es el fundador de la Espectroscopía. Su genial intuición fue considerar que la luz no era homogénea, como se admitía hasta entonces, sino compuesta por tantos “rayos” coloreados como ángulos de refracción diferentes hubiera. Así, hacia 1672, llevó a cabo su famoso experimento de dispersión (su experimentum crucis [7]) en el cual hizo pasar la luz blanca a través de un prisma de vidrio, formando un cierto ángulo con su superficie, con lo que la luz se descomponía en colores, produciendo un espectro. Recíprocamente, comprobó que al componer esos colores se recuperaba la luz blanca. Newton supuso que los corpúsculos de la luz eran poseedores de unos estados periódicos que llamó fits [24], fruto de su interacción con el éter. Este modelo fue rebatido con posterioridad por científicos como Young o Fresnel, que apoyaban la teoría ondulatoria de la luz. A partir de Newton se abolió la diferencia entre color y luz, puesto que la luz contenía todos los colores, y la confusión entre color y claridad, que provocaba que los colores se clasificaran en función de un criterio acromático (la claridad) desde los tiempos de Aristóteles, y no por su grado de refrangibilidad [25]. Además, sus trabajos permitieron explicar el fenómeno del arcoíris, como fruto de la reflexión y la refracción de la luz al atravesar las gotas de agua [26]. Los diferentes colores que puede percibir el ojo humano se hallan en la zona visible del espectro electromagnético, entre 400 y 700 nanómetros de longitud de onda4, con zonas definidas para cada color. 4  Como la longitud de onda λ es inversamente proporcional a la energía de la radiación (E = h · ν = h · (c/λ), siendo c la velocidad de la luz en el vacío), cada color está caracterizado por un rango concreto de energía.

37 

Temas de Física

La ciencia de la luz: en la frontera entre la Física y la Química

de la adecuada frecuencia6. En otras palabras, la relación ΔE = h · ν (condición de resonancia7 necesaria para que tenga lugar una transición entre dos estados, con absorción o emisión de fotones) permite que podamos estudiar la separación entre los diferentes niveles energéticos de un sistema midiendo la frecuencia de la luz absorbida o emitida por dicho sistema. El análisis espectroscópico puede cristalizar en información muy útil acerca de la materia irradiada [30, 31], y existen diferentes métodos para analizar las muestras, tal y como se aprecia en la tabla 2.

Fig. 1. Dispersión de la luz por un prisma: la luz de longitud de onda más corta, al refractarse (cambio de dirección que experimentan las ondas al pasar oblicuamente de un medio a otro en el que se propagan con diferente velocidad), se desvía más que la luz de longitud de onda más larga, ya que el índice de refracción depende de la longitud de onda.

En 1752, Thomas Melvill [1] hizo pasar por un prisma la luz emitida por una llama producida por sodio, y observó un espectro continuo surcado por una serie de líneas brillantes: fue la primera observación de un espectro de emisión. En 1802, Wollaston advirtió que en el espectro de la luz procedente del Sol aparecían unas pocas líneas oscuras. En 1814, Fraunhofer descubrió cerca de 600 de tales rayas oscuras, que a partir de entonces se conocieron como “líneas de Fraunhofer”. En 1859, Kirchhoff sugirió que un método muy preciso para analizar la composición de sustancias era a través del espectro que producían éstas al quemarlas con un mechero de Bunsen, y enunció sus leyes de la Espectroscopía [27]. Como fruto de sus investigaciones dedujo que en la atmósfera del Sol existía sodio, y así se hacía posible estudiar por vez primera la composición de los cuerpos celestes con sólo analizar la luz procedente de los mismos. Finalmente, en 1913 Niels Bohr propuso su modelo atómico [28]. Suponiendo que los electrones describían órbitas circulares estacionarias (sin emitir energía) y que no todas las órbitas estaban permitidas (introduciendo una expresión que cuantizaba el momento angular de las mismas), consideró que la energía liberada por un electrón al saltar de una órbita a otra se emitía en forma de fotones de frecuencia proporcional a la diferencia de energía entre las dos órbitas. Pese a las deficiencias de su modelo atómico5 quedaba patente que la Espectroscopía era una parte de la Mecánica Cuántica. Por tanto, las propiedades macroscópicas de una molécula (en este caso, sus propiedades espectroscópicas) son fruto de su estructura microscópica, y para entenderla debemos recurrir a la Mecánica Cuántica [5, 29]. Teniendo en cuenta la cuantización de la energía, existen sólo ciertos valores posibles para la energía de los estados en que puede encontrarse un sistema físico (verbigracia: un átomo o una molécula). Para pasar de un nivel molecular a otro (cuya diferencia de energía es ΔE) se requiere un aporte de energía externo, que puede llegar a través de la interacción con una radiación 5  De hecho, la naturaleza dual onda-partícula del electrón elimina el concepto de trayectoria, y este modelo planetario de órbitas presenta graves deficiencias. En la actualidad, consideramos que lo máximo que podemos estimar es la probabilidad de que el electrón se encuentre en una región determinada del espacio, llamada orbital.

38

5. Fotofísica y Fotoquímica La absorción de luz provoca que una molécula pase de su estado fundamental (el de menor energía, el más estable) a un estado excitado de energía definida. Es complicado diferenciar entre procesos fotofísicos y fotoquímicos, ya que están muy relacionados entre sí, pero podríamos simplificar diciendo que se diferencian en los diversos caminos que la energía puede seguir para que la molécula vuelva a su situación más estable: emitiendo luz, disipando la energía en exceso en forma de calor o transfiriéndola a otra molécula (fotofísica) o experimentando un cambio químico (fotoquímica). Al estudiar la interacción radiación-materia se suele emplear un tratamiento semiclásico [18, 19], en el cual la materia se trata cuánticamente (con niveles cuantizados de energía), mientras que la radiación electromagnética se trata clásicamente como una onda que obedece las ecuaciones de Maxwell. Cada estado electrónico engloba distintos estados vibracionales, más próximos en energía y asociados a la energía de las vibraciones interatómicas (esto es, cómo vibran los enlaces). Y cada estado vibracional, a su vez, engloba distintos estados rotacionales, lógicamente aún más próximos en energía unos de otros, que provienen de la rotación de las moléculas alrededor de sus centros de gravedad. Así, al absorber radiación se puede poblar inicialmente un estado vibracional excitado de un estado electrónico excitado, y podemos seguir el camino que sigue la energía y los cambios moleculares que puede provocar esa excitación. Los campos eléctrico y magnético de la radiación interaccionan con los electrones del átomo o molécula dando lugar a una perturbación dependiente del tiempo [18, 19], que provocará las transiciones espectroscópicas, esto es, un cambio en la población de los niveles de energía cuantizados del sistema implicando la absorción, emisión o dispersión de 6  Recordemos que la energía asociada a la radiación electromagnética de una determinada frecuencia solamente puede tener valores que son múltiplos de un cuanto elemental que es proporcional a la frecuencia de la radiación. 7  Los fenómenos de resonancia son comunes en la vida cotidiana: si dos magnitudes tienen la misma frecuencia, la transferencia de energía entre ambas es máxima (resonancia) y, por consiguiente, la amplitud aumenta drásticamente. Así, al sentarnos en un columpio y hacerlo oscilar, suministramos energía al sistema moviendo el cuerpo y las piernas hacia delante y hacia atrás, de forma que se convierte en un oscilador forzado (cuya oscilación irá amortiguándose con el tiempo si dejan de empujarnos o dejamos de movernos, porque las fuerzas de rozamiento disipan su energía mecánica). Todo niño aprende intuitivamente a mover el cuerpo con la misma frecuencia que la natural del columpio (así la transferencia de energía es máxima) para poder llegar más alto y alcanzar una mayor amplitud en el movimiento. REF | 27-3 | Julio-septiembre 2013

Temas de Física

Juan José Serrano Pérez

Tabla 2. Algunos métodos analíticos espectrométricos basados en la medida de la intensidad de la radiación mediante un detector fotoeléctrico o con otro tipo de dispositivo electrónico Propiedades

Métodos instrumentales

Emisión de la radiación.

Espectroscopía de emisión (rayos X, UV, visible, de electrones, Auger); fluorescencia, fosforescencia y luminiscencia (rayos X, UV y visible).

Absorción de la radiación.

Espectrofotometría y fotometría (rayos X, UV, visible, IR); Espectroscopía fotoacústica; resonancia magnética nuclear y Espectroscopía de resonancia de espín electrónico.

Dispersión de la radiación.

Turbidimetría; nefelometría; Espectroscopía Raman.

Refracción de la radiación.

Refractometría; interferometría.

Difracción de la radiación.

Métodos de difracción de rayos X y de electrones.

Rotación de la radiación.

Polarimetría; dispersión rotatoria óptica; dicroísmo circular.

radiación electromagnética. Por ejemplo, la perturbación puede corresponder al efecto de la interacción entre un campo eléctrico oscilante y el momento dipolar eléctrico8 de la molécula. Los estados moleculares se pueden representar mediante superficies de energía potencial [32, 33], pudiendo ser descritas por medio de cálculos químico-cuánticos [29, 34-37], y que constituyen el terreno de juego donde tienen lugar las transformaciones fotoquímicas [38-43]. El concepto de superficie de energía potencial viene de la aproximación de Born-Oppenheimer [18, 34], en la cual consideramos que podemos separar el movimiento electrónico del movimiento nuclear, dada la gran diferencia de masa entre núcleos y electrones. Como los núcleos son mucho más pesados, se mueven más lentamente, y podemos considerar que los electrones de una molécula se mueven en un campo de núcleos fijos (con energía cinética nula, de ahí la denominación de superficie de potencial). Esto nos permite resolver por un lado la ecuación de Schrödinger electrónica, que proporciona la descripción del movimiento de los electrones, y por otro la ecuación de Schrödinger nuclear, que nos informa de la rotación, vibración y traslación de la molécula. La solución de la ecuación de Schrödinger electrónica es la energía de una configuración nuclear particular, y el valor de esta energía potencial para cada posible configuración nuclear constituye la superficie de energía potencial. Cuando la energía irradiada es absorbida por la molécula se puebla un estado electrónico excitado y la energía se transforma en energía potencial con el sistema molecular listo para evolucionar a lo largo de la superficie de potencial del estado excitado hacia conformaciones moleculares más estables, de menor energía. 8  Un dipolo eléctrico está formado por dos cargas eléctricas iguales de signo opuesto situadas a una cierta distancia. Esta distribución de cargas se representa mediante un vector, el momento dipolar eléctrico, dirigido por convenio desde la carga negativa a la positiva. Debido a las cargas parciales de los átomos generadas por diferencias de electronegatividad, muchas moléculas son polares y presentan un momento dipolar permanente. REF | 27-3 | Julio-septiembre 2013

Fig. 2. Representación de las superficies de potencial correspondientes a tres estados y de los posibles caminos (indicados mediante flechas) de la energía absorbida en forma de luz. La caracterización de los puntos estacionarios, donde las derivadas primeras de la energía respecto a las coordenadas son nulas (gradiente nulo), son la base para entender los fenómenos fotofísicos y fotoquímicos. La naturaleza de estos puntos estacionarios (si se trata de un mínimo o de un punto de silla) se determina analizando la matriz de derivadas segundas de la energía. Se ha representado la energía (E) frente a los cambios en distancias y ángulos de enlace en la geometría molecular (Q), correspondientes a las diferentes regiones y estados. Por ejemplo, un determinado estado excitado puede tener distancias y ángulos de enlace diferentes a los del estado fundamental, y su mínimo aparecerá en una zona distinta.

En realidad, dada su elevada dimensionalidad, se trata de hipersuperficies de energía potencial: para una molécula de N átomos, hay 3N coordenadas cartesianas o 3N-6 coordenadas internas (una menos si la molécula es lineal). Así, un sistema de 10 átomos posee 24 grados de libertad o variables a determinar. Sin embargo, no es necesario hallar una expresión analítica de las hipersuperficies, sino que basta con determinar los puntos estacionarios en las zonas de menor energía, ya que serán las zonas con mayor interés químico. Existen diferentes métodos matemáticos para optimizar funciones de varias variables y obtener los puntos críticos en las hipersuperficies [44, 45]. En general, el estudio teórico de una reacción química requiere en primer lugar encontrar los puntos estacionarios relevantes (mínimos y puntos de silla) y luego establecer las conexiones o caminos entre los mismos. De este modo, los cruces entre diferentes superficies y las barreras a lo largo de las mismas determinarán a qué regiones podrá llegar la molécula excitada, del mismo modo que un vagón de una montaña rusa sólo supera una cima si tiene suficiente energía cinética en su base (para superar esa barrera de potencial o pico y seguir avanzando9), o seguirá un camino u otro según cómo estén situados los cruces entre los diferentes tramos. Los valles o pozos son mínimos y representan situaciones estables (como los reactivos y los productos de una reacción química), y el sistema no puede escapar de ellos sin un aporte externo de energía (que puede proceder de la luz, que aporta 9  En esta analogía clásica, el vagón necesita suficiente energía cinética inicial para transformarla en energía potencial y subir la colina de la montaña rusa. Una vez el vagón llega al pico, el camino va hacia abajo sin ninguna barrera y la energía cinética adquirida ya no se invierte en energía potencial (y no notaríamos ningún decremento de velocidad si el rozamiento fuese nulo).

39 

Temas de Física la energía necesaria para superar la barrera y dar lugar a un nuevo producto, llegando el sistema a un nuevo valle). Los picos son estructuras llamadas “puntos de silla”, ya que su topología recuerda a una silla de montar, y pueden ser relacionados químicamente con el estado de transición (una configuración particular a lo largo de la coordenada de reacción, que representa un progreso en la reacción química, marcando la transición entre dos valles). Se pueden visualizar mejor estos conceptos con un ejemplo sencillo de reacción térmica (no fotoquímica, esto es, que no precisa de la luz para tener lugar), como la que se representa en la figura 3. El punto clave es que, analizando la forma de dichas superficies, esto es, caracterizando sus valles, picos y cruces, sabremos qué caminos serán más probables, que, en general, presentarán los picos más bajos para pasar de un valle a otro, donde puede haberse formado un nuevo enlace, puede haber migrado un átomo de hidrógeno de una parte a otra de la molécula (tautomerización)… De este modo podemos predecir, por ejemplo, qué moléculas serán más efectivas para dar lugar a un determinado fotoproducto, o si una molécula presentará emisión de luz o no. Por ejemplo, muchos procesos fotoquímicos tienen lugar en tiempos del orden del femtosegundo (1 · 10–15 s). La Femtoquímica [46-49] estudia los procesos químicos que tienen lugar en esta escala de tiempo, como, por ejemplo, la fotoisomerización cis-trans de la base de Schiff protonada del retinal [38, 49], que es la etapa inicial del proceso de la visión y que ocurre en menos de 200 fs merced a un cruce o intersección cónica entre superficies de potencial. Otro ejemplo lo constituye la desexcitación ultrarrápida de las bases del ADN y ARN, las cuales pasan muy rápidamente del estado excitado poblado al fundamental. Merced a técnicas experimentales basadas en el láser [5052] y a la Química Cuántica [53, 54], hoy sabemos que es precisamente la existencia de un cruce entre dos superficies de potencial lo que permite que se disipe eficientemente la

Fig. 3. Representación del cambio en energía potencial durante una reacción química térmica. Se puede ver que la energía de los reactivos (R) es mayor que la de los productos (P), y por tanto la reacción es exotérmica (desprende energía en forma de calor) desde el punto de vista termodinámico. Sin embargo, desde el punto de vista cinético, es la diferencia de energía entre los reactivos y el estado de transición (ET), que matemáticamente es un punto de silla, lo que marcará la velocidad de la reacción. Si la energía de activación Ea (barrera de potencial) es elevada, la reacción será lenta pese a ser termodinámicamente favorable (en realidad, para determinar esto último deberíamos tener en cuenta la temperatura y las variaciones de entalpía y entropía). En la reacción representada aquí, la coordenada de reacción es la distancia relativa entre el ión ioduro y uno de los átomos de carbono de la molécula de 2-bromobutano, y a lo largo de la misma se forma 2-iodobutano e ión bromuro.

40

La ciencia de la luz: en la frontera entre la Física y la Química

Fig. 4. Bases naturales del ADN y ARN.

radiación absorbida, antes de que se produzcan fotorreacciones perjudiciales que podrían ocasionar mutaciones. De hecho, esta propiedad debió ser crucial para el desarrollo de la vida en nuestro planeta, ya que existen indicios de que ésta comenzó millones de años antes del desarrollo de la capa de ozono, que nos protege de la radiación ultravioleta procedente del Sol (con energía suficiente para provocar lesiones en el ADN y dar lugar a enfermedades como el melanoma). De este modo, la desexcitación ultrarrápida permitió garantizar la estabilidad genómica, y un proceso evolutivo adecuado, de los primeros seres vivos, hasta el desarrollo de la capa de ozono y de complejos mecanismos celulares para reparar el material genético dañado [55]. El hecho de presentar una intersección cónica muy accesible (que da lugar a una relajación eficiente) pudo favorecer la elección de estas cinco bases fotoestables frente a otras moléculas estructuralmente muy similares (sustituyendo un átomo de hidrógeno por uno de flúor, o simplemente un tautómero de las mismas) pero fotoquímicamente más reactivas, a modo de selección natural [56], para ser la clave del código genético. Por otro lado, la investigación sobre nuevos compuestos electroluminiscentes orgánicos está en boga, centrándose en dispositivos electrónicos y optoelectrónicos usando moléculas orgánicas como compuestos activos [57-60], como diodos emisores de luz orgánicos (OLED), dispositivos orgánicos fotovoltaicos (OPV), transistores orgánicos de efecto de campo (OFET)… Algunos de estos “metales orgánicos” ya se utilizan en la fabricación de pantallas en todo tipo de dispositivos electrónicos (móviles, televisores planos, portátiles…), células solares, baterías recargables, sensores (narices y lenguas electrónicas). También encontramos dispositivos electrocrómicos (que cambian de color reversiblemente mediante una reacción electroquímica al aplicarles un potencial eléctrico, y se aplican por ejemplo en espejos retrovisores antirreflectantes, que se oscurecen cuando es necesario evitando deslumbramientos, o en ventanas que regulan la luz que pasa a su través, haciendo más confortables los habitáculos y controlando el calentamiento producido por los rayos solares) y dispositivos de óptica no lineal (para almacenamiento óptico de datos con alta densidad, holografía y limitadores ópticos) en los que se utilizan materiales orgánicos. Básicamente se buscan materiales que combinen las propiedades eléctricas y ópticas de los metaREF | 27-3 | Julio-septiembre 2013

Juan José Serrano Pérez

Fig. 5. Algunos “metales orgánicos”.

les y los semiconductores con las interesantes propiedades mecánicas de los plásticos. En definitiva, la Fotofísica y la Fotoquímica son áreas interdisciplinares con importantes aplicaciones tecnológicas (en Medicina, Nanotecnología, Fotobiología, Ciencia de Materiales…). Si entendemos la topología de las superficies de potencial, conoceremos los mecanismos de los procesos fotofísicos y fotoquímicos, lo cual puede cristalizar en importantes descubrimientos y adelantos tecnológicos. Referencias [1] J. Ordóñez, V. Navarro y J. M. Sánchez Ron, Historia de la Ciencia, 4.ª ed. (Espasa-Calpe, 2005). [2] A. Udías Vallina, Historia de la Física. De Arquímedes a Einstein (Síntesis, 2004). [3] J. Moncho, La estructura atómica (Santillana, 1998). [4] P. Atkins, El dedo de Galileo. Las diez grandes ideas de la ciencia (Espasa-Calpe, 2003). [5] P. A. Tipler, Física para la ciencia y la tecnología, 4.ª ed. (Reverté, 2001). [6] R. P. Feynman, Electrodinámica cuántica. La extraña teoría de la luz y la materia (Alianza Editorial, 1988). [7] R. P. Crease, El prisma y el péndulo. Los diez experimentos más bellos de la ciencia (Crítica, 2003). [8] J. A. Fidalgo y M. R. Fernández, Física General, 8.ª ed. (Everest, 2000). [9] J. Catalá, Física (Fundación García Muñoz, 1988). [10] M. N. O. Sadiku, Elements of Electromagnetics, 3.ª ed. (Oxford University Press, 2001). [11] S. W. Hawking, El Universo en una cáscara de nuez (Crítica, 2001). [12] G. Delgado y A. E. Dobado, Annus Mirabilis de Einstein 1905 (Secretaría General del Senado [Dirección de Estudios y Documentación/Departamento de Publicaciones] y Real Sociedad Española de Física [RSEF], 2007). [13] S. W. Hawking, Historia del tiempo. Del big bang a los agujeros negros (Crítica, 1988). [14] G. F. Simmons, Ecuaciones diferenciales. Con aplicaciones y notas históricas, 2.ª ed. (McGraw-Hill, 1993). REF | 27-3 | Julio-septiembre 2013

Temas de Física [15] L. Pauling y E. B. Wilson Jr., Introduction to Quantum Mechanics with Applications to Chemistry (Dover Publications, 1985). [16] F. L. Pilar, Elementary Quantum Chemistry (Dover Publicantions, 2001). [17] P. W. Atkins y R. S. Friedman, Molecular Quantum Mechanics, 3.ª ed. (Oxford University Press, 1997). [18] P. W. Atkins, Química Física, 6.ª ed. (Omega, 1999). [19] I. N. Levine, Espectroscopia Molecular (AC, 1980). [20] R. S. Mulliken, “Band Spectra and Chemistry”. Chemical Review 6(4), 503 (1930). [21] K. Wittel y S. P. Mcglynn, “The orbital concept in molecular spectroscopy”. Chemical Review 77(5), 745 (1977). [22] D. C. Harris y M. D. Bertolucci, Symmetry and Spectroscopy: An Introduction to Vibrational and Electronic Spectroscopy (Dover Publications, 1989). [23] J. L. McHale, Molecular Spectroscopy (Prentice-Hall, 1999). [24] F. Sotres y A. Moreno, “Experimentum Crucis de Óptica Física en la Enseñanza Secundaria”. Revista Española de Física 21(3) (2007). [25] G. Roque, “Color y luz”. Investigación y Ciencia, Temas 27 “El Color”, 4 (2002). [26] H. Moysés Nussenzveig, “Teoría del arco iris”. Investigación y Ciencia, Temas 6 “La ciencia de la luz”, 2 (2001). [27] F. Aragón de la Cruz, Historia de la Química. De Lavoisier a Pauling (Síntesis, 2004). [28] J. Casabó, Estructura atómica y enlace químico (Reverté, 1996). [29] J. Bertrán, V. Branchadell, M. Moreno y M. Sodupe, Química cuántica (Síntesis, 2000). [30] D. C. Harris, Análisis Químico Cuantitativo (Grupo Editorial Iberoamérica, 1992). [31] D. Skoog, F. James y T. Nieman, Principios de Análisis Instrumental, 5.ª ed. (McGraw-Hill, 2000). [32] G. M. Fernandez, J. A. Sordo y T. L. Sordo, “Analysis of potential energy surfaces”. Journal of Chemical Education 65(8), 665 (1988). [33] N. J. Turro, “Geometric and Topological Thinking in Organic Chemistry”. Angewandte Chemie International Edition 25(10), 882 (1986). [34] A. Szabo y N. S. Ostlund, Modern Quantum Chemistry: Introduction to Advanced Electronic Structure Theory (Dover Publications, 1996). [35] T. Helgaker, P. Jorgensen y J. Olsen, Molecular ElectronicStructure Theory (John Wiley & Sons, 2004). [36] L. Serrano-Andrés y M. Merchán, “Quantum chemistry of the excited state: 2005 overview”. Journal of Molecular Structure (Theochem) 729(1-2), 99-108 (2005). [37] J. Andrés y J. E. Bertrán, Química Teórica y Computacional (Publicacions de la Universitat Jaume I, 2000). [38] L. Serrano-Andrés y M. Merchán, “Vida y luz: una perspectiva químico-cuántica”. Anales de Química 100(3), 16 (2004). [39] M. Klessinger, “Conical Intersections and the Mechanism of Singlet Photoreactions”. Angewandte Chemie International Edition 34(5), 549 (1995). [40] F. Bernardi, M. Olivucci y M. A. Robb, “Potential energy surface crossings in organic photochemistry”. Chemical Society Reviews 25(5), 321 (1996). [41] L. Serrano-Andrés y M. Merchán, “Spectroscopy: Applications”, en Encyclopedia of Computational Chemistry (John Wiley & Sons, 2004). [42] M. J. Bearpark y M. A. Robb, “Conical Intersection Species as Reactive Intermediates”, en Reviews of Reactive Intermediate Chemistry (John Wiley & Sons, 2006), pp. 379-414.

41 

Temas de Física [43] T. J. Martinez, “Physical chemistry: Seaming is believing”. Nature 467(7314), 412 (2010). [44] H. B. Schlegel, “Exploring potential energy surfaces for chemical reactions: an overview of some practical methods”. Journal of Computational Chemistry 24(12), 1514 (2003). [45] H. B. Schlegel, “Geometry optimization”. Wiley Interdisciplinary Reviews: Computational Molecular Science 1(5), 790 (2011). [46] A. H. Zewail, “Laser femtochemistry”. Science 242(4886), 1645 (1988). [47] A. H. Zewail, “Femtosecond transition-state dynamics”. Faraday Discussions of the Chemical Society (91), 207 (1991). [48] L. Bañares y L. González, “Química bajo control”. El País (07/01/2004), p. 31. [49] R. de Nalda y L. Bañares, “El láser en las ciencias de la vida”. Revista Española de Física 21(3), 36 (2007). [50] J. M. L. Pecourt, J. Peon y B. Kohler, “DNA Excited-State Dynamics:  Ultrafast Internal Conversion and Vibrational Cooling in a Series of Nucleosides”. Journal of American Chemical Society 123(42), 10370 (2001). [51] J. M. L. Pecourt, J. Peon y B. Kohler, “Ultrafast Internal Conversion of Electronically Excited RNA and DNA Nucleosides in Water”. Journal of American Chemical Society 123(21), 5166 (2001). [52] C. E. Crespo-Hernandez, B. Cohen, P. M. Hare y B. Kohler, “Ultrafast Excited-State Dynamics in Nucleic Acid”. Chemical Reviews 104(4), 1977 (2004). [53] M. Merchán y L. Serrano-Andrés, “Ultrafast Internal Conversion of Excited Cytosine via the Lowest ππ* Electronic Singlet State”. Journal of American Chemical Society 125(27), 8108 (2003).

42

La ciencia de la luz: en la frontera entre la Física y la Química

[54] M. Merchán et ál., “Unified Model for the Ultrafast Decay of Pyrimidine Nucleobases”. The Journal of Physical Chemistry B 110(51), 26471 (2006). [55] L. Stryer, J. M. Berg y J. L. Tymoczko, Bioquímica, 5.ª ed. (Reverté, 2003). [56] L. Serrano-Andrés y M. Merchán, “Are the five natural DNA/ RNA base monomers a good choice from natural selection?: A photochemical perspective”. Journal of Photochemistry and Photobiology C 10(1), 21 (2009). [57] L. S. Hung y C. H. Chen, “Recent progress of molecular organic electroluminescent materials and devices”. Materials Science and Engineering: R: Reports 39(5-6), 143 (2002). [58] Y. Shirota y H. Kageyama, “Charge Carrier Transporting Molecular Materials and Their Applications in Device”. Chemical Reviews 107(4), 953 (2007). [59] K. Walzer, B. Maennig, M. Pfeiffer y K. Leo, “Highly Efficient Organic Devices Based on Electrically Doped Transport Layers”. Chemical Reviews 107(4), 1233 (2007). [60] B. C. Thompson y J. M. J. Frechet, “Polymer–Fullerene Composite Solar Cells”. Angewandte Chemie International Edition 47(1), 58 (2008). Juan José Serrano Pérez Instituto de Ciencia Molecular (ICMol), Universitat de València.

REF | 27-3 | Julio-septiembre 2013

Get in touch

Social

© Copyright 2013 - 2024 MYDOKUMENT.COM - All rights reserved.