Modulo 3.- La sociedad en que vivimos. Ética en la relación hombre-sociedadnaturaleza

Modulo 3.- La sociedad en que vivimos Ética en la relación hombre-sociedadnaturaleza Contenidos • Respecto a las diferentes acepciones del concepto

6 downloads 228 Views 2MB Size

Recommend Stories


EL MUNDO EN QUE VIVIMOS. Caracterización de la asignatura
EL MUNDO EN QUE VIVIMOS. Caracterización de la asignatura En cuarto grado la asignatura El mundo en que vivimos tiene, como propósito, integrar y sist

Modulo 3: FACTORES DE RIESGO EN SISO
Modulo 3: FACTORES DE RIESGO EN SISO FACTORES DE RIESGO OCUPACIONAL. ¿En qué le haría pensar esta advertencia? Podemos decir que las causas de riesgo

Story Transcript

Modulo 3.- La sociedad en que vivimos

Ética en la relación hombre-sociedadnaturaleza

Contenidos • Respecto a las diferentes acepciones del concepto de “naturaleza” • Introducción: ética, ecología, política • Ecología como pensamiento de los límites • Inconsistencias, disonancias y bloqueos (atisbos psicológicos sobre la crisis ecológica) • La industria de las manos y la nueva naturaleza (sobre naturaleza y artificio en la era de la crisis ecológica global)



Hacia una ética menos excluyente: los límites de la comunidad global



Ética y ecología: una cuestión de responsabilidad (hacia la biosfera, los seres vivos que la habitan y las generaciones futuras de seres humanos)



Responsabilidad hacia las generaciones futuras (en el contexto de la crisis ecológica)



Dos cuestiones de ética aplicada: comer carne y desplazarse en automóvil privado



La experimentación con animales



Acerca de la clonación humana



Sobre prestidigitación con riesgos y gestión de Apocalipsis

Respecto a las diferentes acepciones del concepto de “naturaleza” • Dado que en todo tipo de análisis científico, filosófico o de otra índole, se utiliza la palabra “naturaleza”, y en torno a ella se desarrollan desde las más simples hasta las más complejas conjeturas, se define el concepto bajo los cuatro sentidos siguientes: – i) Naturaleza como conjunto de todas las cosas existentes – ii) Naturaleza como conjunto de todas las cosas que existen o suelen existir, sin la intervención humana – iii) Naturaleza como origen y causa de todo lo existente, su explicación última y su razón de ser – iv) Naturaleza como Biosfera; sistema organizado de los ecosistemas



En lo que respecta al resto del documento, cuando se mencione la palabra naturaleza, ésta irá acompañada con el número respectivo al tipo de naturaleza definida.

Introducción: ética, ecología, política • La moral, como forma de conducta del ser humano frente a su entorno, se refleja en las decisiones que se toman frente al modo de actuar sobre dicho entorno. • La motivación del actuar de una u otra manera esta dado por el interés sobre elementos, situaciones y seres que comprenden el entorno de la humanidad. • Sobre este punto, se establece el “principio de consideración igualitaria de los intereses”, en el cual se considera que al aceptar que los juicios éticos deben ser formados desde un punto de vista universal, estoy aceptando que mis propios intereses no pueden, por el sólo hecho de que son mis intereses, contar más que los intereses de cualquier otro”. • Los intereses para cada “ser” estarán dados de acuerdo a la función natural de dicho ser, es decir su “Telos”, que se define como las capacidades, necesidades y vulnerabilidades propias de cada especie, de las cuales resulta posible determinar el bien propio2 de cada una de ellas.

• La particularidad de la relación que se produce entre los diferentes seres de la tierra, es que frente al hombre todos son “Pacientes morales”, mientras que el hombre es el único “Agente moral”. • Esto dada su condición de “fuerza geológica planetaria”, es decir, su capacidad de modificar en forma parcial o permanente al resto de los seres y sus entornos. • Por lo tanto no solo existen relaciones recíprocas entre los seres del planeta si no que además ocurren relaciones direccionales. • Al existir direccionalidad, los actos que realizan unos (los Agentes morales) afectan para bien o para mal a los otros (Pacientes morales). • Si la ética se restringe sólo a las relaciones de reciprocidad, entonces se esta frente a un pensamiento Reduccionista, que lleva entre otras cosas, a eliminar la posibilidad de un mundo sustentable.

• Esto se explica, por ejemplo, en la relación direccional que existe entre las generaciones actuales y las generaciones futuras; lo que las primeras hacen afectan a las otras, pero no así al revés. • La relación unidireccional entre los seres humanos y el resto de los seres pueden darse desde una manera Antropocéntrica, en la cual el resto de los seres humanos son tratados como un medio, o una manera Biocéntrica en la cual todos los elementos de la naturaleza son un fin en sí mismos. • Se plantea entonces la posibilidad de un “Biocentrismo equilibrado”. Este tipo de relación particular define a los seres vivos como valiosos en sí mismos pero que se clasifican de acuerdo a una jerarquización de los intereses, y al medio abiótico bajo una valoración instrumental. • En este contexto, se entenderá entonces la moral como la valoración de nuestros propios intereses.

Segundo arranque: ecología como pensamiento de los límites • Dentro del contexto del libro cabe la siguiente pregunta: ¿por qué reflexionar sobre ética ecológica? • Una primera respuesta está dada con otra pregunta; ¿por que no? •

Claramente esta respuesta no contesta la formulada originalmente



Hay tres razones que justifican tratar sobre ética ecológica: – la relación con la naturaleza esta en crisis, – vivimos en un mundo lleno – la abundancia de bienes y servicios es una quimera.

• El pensamiento ecológico se entenderá como aquel que piensa en el antes y en el después de un acto y que piensa en los límites de cada acción • Nuestra forma de vida como un todo -nuestra forma de trabajar, producir y consumir- no es perdurable en el tiempo, ni tampoco generalizable a todos los habitantes del planeta. • Esta frase contextualizada en la filosofía kantiana nos lleva al “criterio de universalidad”: un principio restrictivo que nos permita “Descartar como moralmente incorrectas aquellas acciones cuya practica generalizada sea incompatible con la preservación de una biosfera habitable”.

• Una vez que se acepta el hecho de que es necesario establecer una ética ecológica que establezca las bases morales para el accionar individual y social de tal modo de lograr un bien común, es necesario plantearse cuales son los cambios necesarios que hay que hacer a la situación actual. • Como respuesta a esta cuestión, se establecen las siguientes rutas de acción: 1º Una transformación interior en cuanto a dejar de actuar en forma pasiva, es decir, en necesario abandonar la pasividad. 2º Una transformación personal en lo que respecta a cambiar el modo de vida de consumismo desbordado (uso innecesario de la energía, transporte individual, utilización de productos de vida corta que no se reutilizan, consumo de productos que afecten a los ecosistemas en forma masiva, etc.). 3º Una transformación de nuestras relaciones sociales, que actualmente implica pasar de un estado de acción individual a una acción colectiva.

• Lo anterior se desarrolla bajo los siguientes supuestos morales básicos: -Universalismo moral: Los intereses de todos y cada uno cuentan lo mismo -Cuestionamiento del antropocentrismo excluyente: Los intereses del ser humano no son los únicos que cuentan moralmente -Responsabilidad especial de los seres humanos: respecto al resto de los seres vivos del planeta y la integridad de al biosfera.

• Los supuestos recién mencionados se establecen dentro de las siguientes dimensiones de integración moral: -Humanidad actual / Generaciones futuras -Norte / Sur (del mundo) -Humano / Animal

Inconsistencias, disonancias y bloqueos • Actualmente el tema medioambiental “esta de moda”. – Los jefes de estado se juntan a discutir intenciones de cambio para mejorar el medio ambiente. – Se desarrollan textos llenos de frases hermosas que evocan un mundo mejor, sin embargo la tierra y sus ecosistemas continúan destruyéndose. – Casi todo el mundo habla de ecología, pero pocas veces se hace algo para proteger la biósfera. – Hay una ruptura entre el discurso y la acción de las personas. – Frente al problema ecológico, se establecen algunas razones de por que las personas reaccionan de manera tan discrepante.

• Las distintas maneras de reaccionar se agregan a nivel del individuo y a un nivel de sociedad. A nivel de individuo, las conductas se explican mediante el uso de la psicología cognitiva. En términos generales, se plantea que las personas: – – – –

Creen tener la razón Aislan los problemas de su contexto global (segregación) Se quedan con una primera idea Aumentan el valor relativo a lo que les da más seguridad, aceptan los problemas tal cual se los plantean (adquiciencia) – Tienen una capacidad limitada de asimilar y manejar información

• Los tres últimos puntos son interesantes de analizar desde el hecho de sobre esas conductas actúan los medios masivos de comunicación como método de control y direccionamiento de los individuos. • A nivel de la sociedad, se plantea que siendo esta muy compleja, se produce una disminución de la responsabilidad moral de los individuos. Esta disminución relativa se explica mediante: – El efecto de dilución: la acción de uno tiende a cero dentro de una sociedad de millones – El efecto engranaje: la división del trabajo en sistemas tan complejos hace que el individuo tienda a ignorar por completo el funcionamiento del sistema –maquina- global – El efecto anonimato: las personas “sin rostro” disueltas en una multitud tienden a ser menos concientes de sí mismas.

• Es necesario entonces generar cambios en las actitudes de las personas. Al parecer, resulta más fácil partir por modificarlas conductas antes que modificar actitudes. Para lograr lo anterior, primero se necesita incrementar la disposición al cambio entre la gente. Para lograr esto se deben cumplir las siguientes condiciones: – Consenso nacional en torno a definir la situación (ecológica) como algo realmente crítico – Sentimiento crítico de responsabilidad moral – Empatía para con las personas más directamente afectadas – Convicción de que la acción tendrá efectos positivos y tangibles.

La industria de las manos y la nueva naturaleza •

Dentro de la actual crisis medioambiental que se recibe como herencia del siglo XX, más que plantearse la ya frecuente pregunta ¿como hacer habitable la tierra?, debería formularse el ¿cómo dejar de hacer para que la tierra sigua siendo habitable?



La crisis medioambiental, dada la dependencia de los seres humanos a los ciclos biológicos que permiten la existencia de oxígeno, agua, suelo orgánico, etc. (recursos naturales en general) pasa a ser una crisis de la civilización.



Algunos de los problemas cuya interacción causan dicha crisis son: – La creciente degradación de la biosfera y la degradación de muchos ecosistemas que socavan las bases materiales de la existencia humana. – En el proceso de degradación de la biosfera, preocupa el rápido empobrecimiento de la biosfera, con una perdida enorme de biodiversidad en la segunda mitad del siglo XX. – Los enfrentamientos militares dirimidos con el uso o la amenaza de uso de armas de destrucción masiva ya algunas de las que todavía se clasifican como “convencionales”.



El ensanchamiento de las desigualdades sociales a escala mundial.



La extensión incontrolable de las ciudades, en especial en los países pobres del sur del planeta.



La destrucción de las culturas campesinas, y el desarraigo y aculturización de masas.



La subalimentación crónica de una sexta parte de la humanidad.



La crisis de las instituciones políticas y del llamado “estado de bienestar”.



La burocratización de la sociedad y la pérdida de control de la gente sobre sus vidas.



El desempleo, el subempleo, el empleo precario y la fragmentación de la clase trabajadora.



La alienación, la crisis de personalidad, la generalización de la anomia y la desagregación social.



La quiebra de los antiguos sistemas de valores, el malestar cultural.

• En este contexto, se establecen las dos razones morales fundamentales del porque no hay que dañar la biosfera: – (i) ponemos en peligro millones de vidas humanas y su bienestar – (ii) compartimos la biosfera con centenares de millones de seres vivos que son dignos de consideración moral por sí mismos.

• Sin embargo existe un vector en contra de querer cambiar la conducta moral y es la tecnociencia moderna, base de la naturaleza (3) social actual. •

En los análisis de esta ciencia las razones morales mencionadas anteriormente sí están presentes, la diferencia se encuentra en la manera de enfrentar el problema.

• Una de las cosas más discordantes entre la posición antropocéntrica (articulada por la tecnociencia) y la manera de actuar desde dicha posición es que la destrucción del ecosistema en el límite amenaza la existencia de la vida humana, pero no de la vida como tal. • Las bacterias seguirán existiendo y probablemente de ellas, millones de años mas adelante (en caso de una destrucción total del ecosistema tal cual lo conocemos) evolucionaran nuevas especies adaptadas a las nuevas condiciones creadas. • El conflicto moral aparece ya que bajo el paradigma de esta ciencia, desde el punto de vista de su Ethos (que vendría siendo un positivismo lógico) – “Todo puede hacerse. Lo imposible hoy es posible mañana gracias a la técnica” – “Todo aquello que puede hacerse (técnicamente) esta justificado (moralmente)”

• Esta naturaleza técnica hace que la vida social esté dominada por la razón instrumental (como hacer las cosas) y no por una razón sustantiva (si debemos o no hacerlas).

• Se plantea entonces que para reconstruir el mundo (tecnósfera, economía y sociedad) de manera ecológica se requiere utilizar una metodología que se base en la “biomímesis”, que es la imitación de la naturaleza (4). • El origen de la estabilidad y perdurabilidad que exhiben los ecosistemas se hallan sobre seis rasgos principales: – – – – – –

a) Equilibrio dinámico b) Inercia c) Capacidad de absorción d) Retroalimentación negativa e) Variedad f) Reparto de riesgos

Hacia una ética menos excluyente: los límites de la comunidad global •

El mundo se encuentra en una crisis ecológica global debido exclusivamente a las acciones conjuntas del ser humano, dada la condición de fuerza geológica planetaria adquirida desde los inicios como la revolución industrial.



Por lo tanto, si no nos enfrentamos a las fuerzas destructivas nos es porque no podamos hacerlo, si no porque no queremos.



Se establece entonces que el actual comportamiento del ser humano debe ser modificado mediante la ampliación de la comunidad moral, para que el resto de los seres y sus entornos pasen a ser pacientes morales.



En esta situación, se definen círculos de responsabilidad moral, que son los niveles de acción moral de acuerdo a escalas de agregación progresivas.



Se tienen entonces: Individuo, grupos pequeños (familias), nacionalismo, humanidad (del presente), antropocentrismo, ética de los primates, ética de los seres sintientes, ética biocéntrica, egocéntrica.

• En un arreglo jerárquico de intereses, se establecen tres principios morales básicos que regulan pautas de conducta justificables tanto desde una posición antropocéntrica como una biocéntrica: – Principio de la defensa humana: las acciones de autodefensa, y de defensa de otros seres humanos frente a agresiones dañinas, están justificadas incluso si implican matar o dañar a animales o plantas – Principio de preservación humana: las acciones para satisfacer las necesidades básicas de uno mismo u otros seres humanos están justificadas, incluso cuando implican atentar contra las necesidades básicas de animales y plantas. – Principio de desproporción: se prohíben las acciones para satisfacer las necesidades no esenciales o superfluas de seres humanos, cuando estas implican atentar contra las necesidades básicas de animales y plantas.

Ética y ecología: una cuestión de responsabilidad • La acción humana se caracteriza por la artefactualidad y por la sociabilidad. • Este esquema de funcionamiento actual, derivan en una creciente dificultad de percepción de la relación real entre la acción individual y sus consecuencias y resultados. • Desde la revolución industrial y cada vez mas hasta llegar a inicios del siglo XXI, el proceso de artefactualizar la vida de los individuos ha llevado a éstos a “retrasarse con respecto a sí mismos”, es decir, los seres humanos realizamos actos que están por delante de nuestras capacidades. • Utilizamos a diario tecnologías que no entendemos. En este desfase nace la necesidad de realizar una labor de aprendizaje.

• La sociedad industrial, mediante el uso de combustibles fósiles, se ha acelerado e independizado respecto a los tiempos cíclicos de la naturaleza. • Para poder reestablecer un sistema de vida humana que permita la sustentabilidad, se necesita aceptar ciertas responsabilidades (como fuerza geológica planetaria, como agente moral) • En la sociedad actual las decisiones son tomadas principalmente por criterios económicos (de maximizar los beneficios hoy), se requiere pasar de un sistema económico lineal a un sistema económico circular, de tal manera que se internalicen los costos y de esta manera aproximarse al funcionamiento de la naturaleza (4), que garantiza el uso y flujo de los recursos actuales sin sacrificar la disponibilidad futura (ni en cantidad ni en calidad).

Responsabilidad hacia las generaciones futuras • La asimetría que existe en la relación intergeneracional, es decir, el poder causal en un único sentido, el de la “flecha del tiempo” (PASADO → PRESENTE → FUTURO) lleva necesariamente a la exploración de posibles futuros, acción que se establece como parte del “deber ser” dentro del contexto de la ética. • El futuro se condiciona (para bien o para mal) mediante las llamadas “estructuras pesadas” de la sociedad del presente. • Dichas estructuras son principalmente la enseñanza, la investigación, los sistemas de transporte y la producción de energía. • La actual manera de relacionarse con el futuro, y por lo tanto con las futuras generaciones humanas, es mediante la depredación (sobre consumo de los recursos renovables y no renovables, acumulación de residuos radiactivos y químicos tóxicos, calentamiento global, deterioro de la capa de ozono, desertificación, destrucción de la biodiversidad).

• Este tipo de relación esta dada, dentro de principios morales del actuar en conjunto de la sociedad, por una irrelevancia moral a la pertenencia a una especie biológica y a una irrelevancia moral del factor temporal. • Es por esto que se postula el principio del “igualitarismo diacrónico”, en el cual los intereses que hayan de tenerse en cuanta moralmente cuentan lo mismo, con independencia del momento temporal en que vivan los portadores de esos intereses. • Para lograr esto, es decir, una manera de actuar que no perjudique a las generaciones futuras, más que “tratar de hacer el bien” bastaría con “dejar de hacer el mal”.

• Se plantean dos propuestas fundamentales para incluir en la comunidad moral a las generaciones futuras: – (i) representación política de las generaciones futuras – (ii) establecimiento de un fondo de compensación para las generaciones futuras.

• Existe una gran vector condicionante para la calidad del medio ambiente futuro y que liga en forma directa a las generaciones hoy y del mañana: el militarismo (se calcula que entre el 10-30% de la destrucción del medio ambiente se debe al sector militar en forma directa o indirecta). • Por lo tanto, al establecer una moral del tipo ecologista (desde el punto de vista de la naturaleza 4), necesariamente se establece una actitud pacifista, que desde el punto de vista del hacer en vez de la inacción, pasa a ser una “carrera desarmamentista”.

Dos cuestiones de ética aplicada: comer carne y desplazarse en automóvil privado • Volviendo al principio kantiano de la univerzalización, se puede decir que ninguna pauta de consumo puede considerarse moralmente aceptable si es intrinsicamente imposible de universalizar, es decir, si sólo pueden disfrutar de ella una minoría. • Sólo los productos que todos los seres humanos pudiesen consumir de manera sustentable, sin dañar al resto de la sociedad ni al medio ambiente, son aceptables para seres humanos preocupados por un “consumo justo”. • Pues bien: de acuerdo con esta norma mínima, ni las dietas altamente cárnicas ni el transporte motorizado que prevalecen en los países del norte son moralmente aceptables.

• Las dietas ricas en carne se basan en la industria ganadera intensiva, ya que para que las personas de los países ricos puedan consumir carne de manera constante y a un precio alcanzable, se necesita utilizar métodos de alta “eficiencia” en la producción. • En base a esto, se presentan cuatro razones para renunciar a la ganadería intensiva: – (i) Las cuestiones morales que plantea el bienestar animal, la consideración de los propios intereses animales – (ii) En un mundo donde millones de humanos están subalimentados o mueren de hambre, ¿se debiera desperdiciar tanta comida criando animales como se hace hoy? – (iii) Los sistemas agropecuarios actuales producen ya hoy impactos ecológicos inaceptables, y si se proyectan al futuro, son ecológicamente insostenibles – (iv) Está científicamente establecido que las dietas demasiado carnívoras producen problemas cardiacos, hipertensión, obesidad, diabetes y varios tipos de cáncer.



Por otra parte, el automóvil se convierte cada vez más en un “auto-inmóvil”. Cada vez es mas lento trasladarse de un lugar a otro en una ciudad mediante el uso del vehículo individual. Los principales efectos nocivos del uso del automóvil son: – 1.- Mortalidad, morbilidad y discapacidades generadas por lesiones de tráfico – 2.- Aumento de la mortalidad general y de la incidencia de diversas enfermedades debido a la contaminación ambiental – 3.- Desarrollo de sedentarismo y obesidad – 4.- Degradación de la ciudad y de la convivencia urbana (lo cual favorece la marginación y la desintegración social) – 5.- Desarrollo de una infraestructura vial que detrae enormes recursos públicos, provoca un gran deterioro ambiental y perjudica la rentabilidad económica de otros medios de transporte (como metros, tranvías y trenes) – 6.- Emisión masiva de dióxido de carbono con la consiguiente contribución al efecto invernadero.



De hecho, el libro sobre el transporte que aprobó la comisión europea en diciembre de 1995 establece que “se comprueba crecientemente que, con las políticas vigentes, las tendencias del transporte son insostenibles”.

La experimentación con animales • El trato que se les da a los animales en las sociedades industrializadas, incluida la experimentación con animales, causa una preocupación moral creciente. • Si bien ciertos avances en las técnicas biomédicas pueden requerir la experimentación con animales, gran parte de las pruebas que se realizan en la actualidad son inútiles. • Aunque a nivel genético la deferencia entre los humanos y mamíferos tales como ratas, gatos, conejos y chimpancés puede ser de unos pocos genes, a nivel de respuesta frente a medicamentos y siuaciones de estrés la distancia es considerablemente grande como para permitir el sacrifico de dichos seres en pos del beneficio humano.

• Dejando de lado el especieísmo o prejuicio de especie, la experimentación con animales no parece moralmente justificable. • Es necesario recocer esta práctica como un mal, que podría catalogarse como “menor” con respecto a otros problemas actuales de la humanidad, pero que sigue siendo un mal. • Por lo tanto, existe el deber moral de minimizar el número de experimentos con animales, el número de animales involucrados y el sufrimiento de cada uno de ellos. Sobre lo anterior se cita el “principio de las tres erres”: – (i) reemplazar los animales por métodos in Vitro y otros métodos alternativos – (ii) reducir mediante técnicas estadísticas avanzadas la cantidad de los animales empleados en experimentos – (iii)refinar los procesos experimentales de modo que causen menos sufrimiento a los animales involucrados

Acerca de la clonación humana •

“Con el clon, la técnica permitiría rehacer (al fallecido) mejor, más rápido, con más seguridad: un desdichado doble del desaparecido…condenado a desempeñar el papel del hermano o hermana perdidos: como si uno pudiese ahorrarse el duelo gracias a la técnica.



Se trata de un engaño evidente. Viene a las mientes la frase de Jean Rostand para denunciar actitudes semejantes: “La ciencia nos ha convertido en dioses antes de habernos transformados en seres humanos”

• Primero es necesario establecer que la clonación humana se experimenta principalmente en con dos ámbitos: con fines reproductivos y con fines no reproductivos de investigación, diagnostico y terapia, tales como regeneración de órganos, y tratamiento de enfermedades (tales como cáncer y enfermedades congénitas). • Se planteas cuatro razones de oposición a la clonación humana con fines reproductivos: – (i)La reproducción sexual ha sido un gran invento de la evolución biológica para garantizar una variabilidad genética en aumento. – (ii)La clonación de cualquier animal supone un tremendo avance en los procesos de cosificación y mercantilización de la materia viva y los seres vivos. – (iii)Desigualdad que va enteramente en perjuicio del clon.

• Si una experimentación ni puede llevarse acabo si producir errores monstruosos, entonces hay que renunciar a esa experimentación.

Sobre prestidigitación con riesgos y gestión de Apocalipsis •

Los diferentes problemas con los que como seres humanos nos enfrentamos hoy: – – – –

injusticia social, daño medioambiental en muchos casos irreversible, clonación humana, investigación y uso de tecnologías potencialmente devastadoras (como la nuclear o la nanotenología)

no tienen en ningún caso una certeza de los efectos en las generaciones tanto presentes como futuras. •

Todas las sociedades humanas a través de la historia se han enfrentado a amenazas y contingencias.

• Sin embargo, en la sociedad moderna, que podía denominarse “la sociedad del riesgo” se presenta un carácter irreversible y “apocalíptico” de muchos daños posibles, dependencia en demasía a las decisiones humanas (los peligros ecológicos, el envenenamiento químico o los accidentes biotecnológicos) y un carácter oligárquico de los procesos de toma de decisiones que distribuyen los riesgos. • A diferencia de otros períodos de la historia del hombre, nos enfrentamos a riesgos que no son compensables, o más bien, que son irreversibles. • En situaciones de riesgo no compensable, es necesario tomar actitud de resguardo.

• En este contexto se definen los siguientes principios de racionalidad para actuar en condiciones de riesgo y/o incertidumbre: – En condiciones de incertidumbre es racional actuar como si lo peor fuese a pasar, y en consecuencia, limitarse a maximiza la mínima utilidad, es decir, escoger aquel curso de acción que lleva al resultado menos malo de todos los resultados malos posibles. – En situaciones de incertidumbre y ambivalencia tecnológica es racional actuar minimizando el máximo arrepentimiento: tomar la decisión que menos podamos lamentar. – Ante el escenario de posibles catástrofes con alto nivel de riesgo irreparable, es imprescindible actuar bajo el principio de precaución, es decir, actuar bajo el viejo dicho de que “mas vale prevenir que curar”. La esencia del principio se basa en la necesidad de actuar anticipándose a los problemas incluso en ausencia de una prueba concluyente del daño.

RELEXIÓN CRÍTICA • El ecosistema se entiende como el conjunto de sistemas que existen en la naturaleza y que están interrelacionados entre sí mediante flujos de energía y materiales que circulan una y otra vez por los distintos procesos creación y reciclaje de estructuras. • La naturaleza ha tardado millones de años en producir las condiciones necesarias para que un organismo como la especie humana pueda existir. •

Existe un sistema climático, que permite la existencia de una homeostasis climática, es decir, una variación de temperaturas lo suficientemente pequeña como para permitir que estructuras vivas se desarrollen, que ha evolucionado siendo modificado por la retroalimentación existente entre las estructuras vivas y su entorno.

• Es así como se sabe, mediante la simple observación de pequeños ecosistemas que se desarrollan en torno a erupciones volcánicas en las profundidades del mar, que en los principios de la tierra como planeta geológico cierto tipo de bacterias fijadoras de SO2 liberaron oxigeno a la atmósfera.



Esto a su vez modificó la estructura de la atmósfera lo que permitió la evolución de otras especies, que en una época bastante más cercana que al de las mencionadas bacterias, dio origen a unos de los primeros organismos capaces de captar la energía proveniente del sol: la comunidad vegetal.



Esta a su vez estabilizo el clima liberando altas concentraciones de oxigeno y fijando CO2. Junto con esto, las plantas transformaron la energía solar en energía química, permitiendo así la evolución de miles de especies (insectos, reptiles, aves y mamíferos), de las cuales, millones de años después, surgió el hombre.



Nosotros, los seres humanos, llegamos al planeta tras un sinnúmero de ciclos de prueba y error naturales que nos situó al final de la cadena trófica.



Esta condición del ser que está en la parte más alta de la pirámide evolutiva, implicó entre otras cosas, el grado de dependencia con respecto a los recursos naturales y a los ecosistemas, es decir, el hecho de comerse al pez que se como al pez que se come al pez (y así innumerables veces en muchos casos).



El homo sapiens, con su capacidad de autoconciencia, empezó a tecnificar su entorno de acuerdo a sus necesidades energéticas básicas.

• En un comienzo los primeros establecimientos humanos siempre se situaron en zonas de alta energía disponible en forma de productos acabados (praderas, deltas de ríos, orillas del mar, bosques). • El hombre, y todas las especies de acuerdo a la teoría de sistemas ecológicos, siempre han modificado el medio ambiente. • La libertad de acción del ser humano siempre se vio regulada por la disponibilidad energética, es decir, el hombre generaba un extra energético apenas un poco más grande que la energía que gastaba para obtenerla. • Dicho “beneficio” energético se tradujo en la capacidad para manipular ciertos elementos de interés de la naturaleza (el fuego y algunas especies vegetales y animales) naciendo así la agricultura, es decir, el proceso de domesticación de la naturaleza. • A dicho proceso el sobrevino el lenguaje, la escritura, las artes, la filosofía, etc.



Desde esa época hasta el presente, la civilización humana no ha dejado de crecer tanto en tamaño como en capacidad de modificar su entorno.



La diferencia entre esa modificación entre el “antes” y el “ahora”, es que antiguamente la capacidad de modificación del sistema externo era menor que la capacidad de resistencia y elasticidad del medio ambiente natural.



Con el inicio del uso de los combustibles fósiles en la revolución industrial, se produce un efecto de subsidio energético de proporciones geológicas, es decir, el hombre comienza a utilizar recursos que la naturaleza había demorado hacer durante millones de años.



Lo anterior implicó que, a diferencia del resto de la historia, el hombre invierte muy poca energía y obtiene miles de veces la energía obtenida. Desde este punto en adelante se rompen los límites naturales típicos del hombre de la “capacidad de hacer”.



Ahora nos situamos en el presente. El ser humano ha creado una infraestructura tecnológica de una complejidad que a nivel del individuo es prácticamente imposible dimensionar.



El uso de combustibles fósiles ha permitido una ruptura a la dependencia de los recursos naturales a medianas escalas (ya que aún mantenemos la dependencia por oxígeno, los ciclos hídricos, la protección contra los rayos solares, etc.).



Ahora nos situamos en el presente. El ser humano ha creado una infraestructura tecnológica de una complejidad que a nivel del individuo es prácticamente imposible dimensionar.



El uso de combustibles fósiles ha permitido una ruptura a la dependencia de los recursos naturales a medianas escalas (ya que aún mantenemos la dependencia por oxígeno, los ciclos hídricos, la protección contra los rayos solares, etc.).



Nos alimentamos, vestimos, comunicamos, desplazamos, calentamos y dormimos gracias al uso directo o indirecto de combustibles fósiles. La desconexión progresiva con los elementos de la naturaleza nos han llevado a desvalorizarla como un fin en sí misma, y actualmente se “evalúa” de acuerdo a si cumple o no una función de carácter material para el ser humano.



Los movimientos ecologistas nacen frente a la alerta de que el sistema basado en combustibles fósiles no puede continuar ya que es un recurso que tarde o temprano se acabará, y que por lo tanto no se debe prescindir de los servicios de los ecosistemas mediante la acción destructora de éstos.

• Sin embargo la destrucción continúa, y con ella, comienza el deterioro irreversible de la naturaleza: desaparición de miles de especies tanto vegetales como animales, aumento de la concentración de CO2 más la liberación de otros gases que nunca antes existieron en la atmósfera, contaminación de las aguas. • Este materialismo antropocéntrico está construido sobre una estructura tecnócrata basada en el método científico, es decir, se necesita pruebas para poder concluir relaciones del tipo causaefecto. • El problema reside en que este tipo de análisis requiere de datos pasados para concluir en el presente, pero no sirve para proyectar el futuro a partir de una situación actual. • Este ha sido el argumento mas utilizado en defensa de todo tipo de actividad destructora del entorno. Sin embargo, hoy ya se tienen evidencias acerca de los daños que pueden provocar cierto tipo de actividades y de los efectos acumulativos en los que podrían resultar.

• El problema reside en que hoy en día la estructura tecnócrata social esta tan “desarrollada” que la inercia que consigo lleva va más allá de razonamientos del tipo materialista-práctico. • Cada vez que se tocan los temas de ingerencia ecológica o medio ambiental siempre surge la afirmación de que “es imposible cambiar el sistema”. • El hombre nunca había tenido que plantearse -dentro del contexto de la supervivencia- el tipo de vida a seguir. La superestructura sobre la cual estamos montados ha crecido y sigue creciendo mediante la digestión de recursos naturales renovables y no renovables, que dado el uso que se les da, pasan a ser no renovables como un todo. • En este crecimiento la maquina consumidora desecha materiales que el ecosistema no puede reciclar tal como lo hace con el resto de las estructuras naturales, ya sea porque la tasa de eliminación de desechos es miles de veces más elevada que la tasa de captura natural, o porque los materiales liberados simplemente no tienen una estructura natural que los degrade.

Escuela Familiar Agrícola (EFA) La Noria Curso: “ENERGÍA, MEDIOAMBIENTE Y SOCIEDAD” Expositor: Gonzalo Reyes S. Ingeniero Forestal Master en Energías Renovables [email protected] Patrocina: Cooperativa de Energías Alternativas (COENA)

Modulo 1 La energía en nuestro universo Objetivos: • Conocer las principales teorías en torno al origen y funcionamiento del universo al que pertenecemos • Realizar una aproximación sucesiva a las diferentes escalas tiempo-espacio dentro de las cuales ocurren los fenómenos que como seres humanos hemos sido capaces de observar del universo que nos rodea.

Sesión 1: Historia del universo y de la energía •

Nuestra imagen del universo



Espacio y tiempo



El universo en expansión



El principio de incertidumbre



Las partículas elementales y las fuerzas de la naturaleza



Los agujeros negros



Los agujeros negros no son tan negros



El origen y el destino del universo



La flecha del tiempo



La unificación de la física

Nuestra imagen del universo • A lo largo de toda la Historia, el hombre se ha hecho preguntas sobre nuestro mundo y todo lo que rodea, llegando, aunque no siempre, a encontrar la respuesta. • En el 340 a.C., Aristóteles en su obra De los Cielos, ya explicó sus argumentos para pensar que la Tierra era redonda en vez de plana. Pensó que era una esfera redonda, ya que la sombra que hacía sobre la Luna era redonda y no elíptica y alargada; y también porque la estrella Polar se observaba en diferentes posiciones si se estaba en el Polo Norte o en el Sur. En lo que se equivocó fue en que la Tierra era estacionaria, y el Sol, Luna, planetas y estrellas giraban a su alrededor. • Ptolomeo en el siglo II d.C., aceptó la misma idea y la amplió. Aunque tuvo una gran contradicción al predecir las posiciones de cuerpos celestes, fue aceptada por la Iglesia ya que esta teoría geocéntrica estaba de acuerdo con lo que se decía en las Escrituras.

• Con Copérnico, en 1514, se introdujo la teoría heliocéntrica, por la que el Sol está en el centro y los planetas giran entorno a él. Un siglo después, Kepler y Galileo Galilei, apoyaron su teoría e incluso Kepler dijo que las órbitas de los planetas eran elípticas.

• En 1687, Isaac Newton publicó Philosophiae Naturalis Principia Mathematica, donde explica como se mueven los cuerpos en el espacio y tiempo, con su matemática correspondiente; también expone la ley de la gravitación universal: "cada cuerpo en el universo es atraído por cualquier otro cuerpo con una fuerza que es tanto mayor cuanto más masivos sean los cuerpos y cuanto más cerca estén el uno del otro". F = k . (M . m) / d² Con esta ley, se explicó porqué los objetos caen y porqué los planetas tienen órbitas elípticas alrededor del Sol, y la Luna alrededor de la Tierra. Newton pensó según su teoría, que las estrellas al atraerse unas a otras, llegarían a aglutinarse en un punto; a no ser que éstas fueran infinitas en una región infinita de espacio, ya que en este caso no existiría un punto central de aglutinamiento.



A pesar de conocer la ley de Newton, no se llegó a creer que el universo se expandiera o se contrajera. Pero esta teoría de que el universo es estático, fue rebatida por muchos después de Newton; por ejemplo, en 1823, Heinrich Olbers, demostró que esto no era posible, ya que sino todo el cielo nocturno debería ser tan brillante como la superficie del Sol, porque las estrellas habrían iluminado siempre.



Ya desde la época de los filósofos griegos, en concreto de Aristóteles, se discutía sobre el principio del universo. Éstos pensaban que incluso la raza humana, había existido y existiría siempre. Sin embargo, San Agustín (La ciudad de Dios) opinaba que había sido creado en un momento de un pasado no muy lejano.



Posteriormente, en 1781, Kant propuso sus cuestiones antinomias, en las que decía que era tan convincente creer que el universo tenía un principio como que había existido siempre. En cualquier caso habría habido un período de tiempo infinito anterior a cualquier hecho.



En 1929, Edwin Hubble, con sus estudios, nos hizo ver que el universo se está expandiendo, por lo que en algún momento los objetos estaban más cerca; hasta estar en el mismo punto, llegando a la conclusión de que hubo un principio, el BIG BANG, con un universo infinitésimamente pequeño e infinitamente denso. Esta idea no tiene porque excluir la idea de un creador.

¿Qué es una teoría científica? •

Una teoría es buena si tiene estas características: - Describir con precisión un amplio conjunto de observaciones sobre la base de un modelo que contenga sólo unos pocos parámetros arbitrarios. - Ser capaz de predecir positivamente los resultados de observaciones futuras.



Una teoría física, es una hipótesis, no se puede probar. Si encontramos una observación que la contradiga, podemos rechazar la teoría o modificarla.



Lo que pretende la ciencia es encontrar una teoría que describa todo el universo, aunque algunos opinan que no hay que estudiar el estado inicial, porque Dios lo creó como quiso. Esto es muy complicado (crear una teoría general), por lo que se optó por inventar teorías parciales.



Hoy en día el estudio del universo se divide en dos teorías parciales; que no pueden ser correctas a la vez: - Relatividad general: basada en la fuerza de la gravedad, y en la estructura a gran escala del universo (hasta un billón de billones). - Mecánica cuántica: estructuras a escalas muy pequeñas (una billonésima de centímetro).



El objetivo de la física es buscar una nueva teoría; la teoría cuántica de la gravedad.

Espacio y tiempo •

La opinión de Aristóteles sobre el movimiento consistía en que el estado natural de un cuerpo era el reposo, y que se movía si lo empujaba una fuerza o impulso; por lo que cuanto más pesado era un cuerpo, más rápido caía.



Esta idea se mantuvo sin discusión hasta que llegó Galileo Galilei y la negó, después de experimentar en un plano inclinado. Llegó a la conclusión de que la masa no influía, sino que la velocidad dependía de la resistencia que pone el aire en la bajada.



Estas ideas de Galileo, le sirvieron a Newton para formular sus leyes del movimiento: a) Primera ley de Newton: si no actúa ninguna fuerza sobre un cuerpo, éste se mantiene moviéndose en una línea recta con la misma velocidad. b) Segunda ley de Newton: un cuerpo se acelera a un ritmo proporcional a la fuerza, y la aceleración disminuirá al aumentar la masa del cuerpo.

• También descubrió la ley de la gravedad: "todo cuerpo atrae a los demás con una fuerza proporcional a la masa de cada uno de ellos; por lo que la aceleración en la caída es igual para todos los cuerpos. También dice que cuanto más separados estén los cuerpos, menor será la fuerza gravitatoria entre ellos. • La gran diferencia que hay entre Newton y Aristóteles, es que este último creía que en un estado de reposo; que en realidad no existe, ya que no hay un estándar absoluto. Pero ambos creían en el tiempo absoluto, y que éste estaba separado del espacio. Hoy en día, sabemos que esto no es cierto, porque no se cumple cuando hablamos de velocidades como la de la luz, descubierta en 1676 por Ole Christensen Roemer. • En 1865, Maxwell unificó las reorías de la fuerza de la electricidad y el magnetismo. Predijo que existían unas ondas de campo electromagnético combinado, que tenían una velocidad constante. Dependiendo de su longitud de onda, serían: ondas de radio (un metro o más), microondas (unos pocos centímetros), infrarrojas (más de una diezmilésima de centímetro), radiación ultravioleta, rayos X, rayos gamma.



Según Maxwell, las ondas de radio y las luminosas viajarían con una velocidad fija determinada. Se sabía que la luz tenía una velocidad finita, y en el caso de que fuera fija, tenía que serlo respecto a un sistema de referencia. Por ello, se escogió una sustancia, el "éter", que estaba presente incluso en el espacio vacío.



En 1887, Albert Michelson y Edward Morley, compararon la velocidad de la luz en la dirección del movimiento de la Tierra; con la velocidad de la luz en dirección perpendicular a dicho movimiento. Supuestamente, tendría que ser mayor la primera, pero en sus cálculos encontraron que ambas velocidades eran iguales.



En 1905, llegó Albert Einstein con su teoría de la relatividad, revolucionando la física. Lo que nos quiere decir con su teoría, es que las leyes de la ciencia deben ser las mismas para todos los observadores en movimiento libre, independientemente de su velocidad. De esta idea, sacó su famosa ecuación: E= mc2 (E - energía, m – masa, c – velocidad de la luz). • C = 3 1010cm/s es

• Por esta ecuación, sabemos que ningún objeto puede viajar a la velocidad de la luz, ni mayor. Esta nueva teoría, acabó con la idea de tiempo absoluto de Newton; ya que ahora ambos, espacio y tiempo, eran relativos. • Con la teoría de la relatividad, tampoco es preciso introducir la idea de un éter, ya que tampoco se detecta; y debemos aceptar la idea del objeto espacio – tiempo, ya que ambos no son tan independientes. Sabemos que la posición en el espacio de un punto se determina por tres coordenadas. • Un suceso es algo que ocurre en un punto particular del espacio y en un instante específico de tiempo; por lo que en este caso se utilizan cuatro coordenadas. • Estas cuatro coordenadas originan un espacio cuadridimensional, que es imposible de imaginar, por lo que se dibujan diagramas bidimensionales, en los que interviene el tiempo, y una de las dimensiones espaciales; las otras dos se ignoran o se ponen en perspectiva.



Cuando la luz se expande desde un suceso, forma un cono tridimensional en el espacio – tiempo cuadridimensional. Este cono se llama cono de luz futuro del suceso. También puede aparecer el cono de luz pasado, que es el conjunto de sucesos desde los que un pulso de luz es capaz de alcanzar el suceso dado. Estos conos de luz de suceso P, dividen al espacio – tiempo en regiones: 1) Región interna del cono de luz futuro de P: futuro absoluto (sucesos que pueden ser afectados por lo que sucede en P). 2) Región interna del cono de luz pasado: pasado absoluto (sucesos que pueden afectar a lo que sucede en P). 3) Región del espacio – tiempo fuera de los conos de luz: resto (estos sucesos no pueden ni afectar ni ser afectados por los sucesos de P).



Esta idea de los conos de luz, nos indica que lo que nosotros vemos cuando miramos al universo,es en realidad su pasado.



Einstein y Poincaré ignoraron los efectos gravitatorios, llegando a la teoría de la relatividad especial, con la que se puede construir un cono de luz para cada suceso en el espacio – tiempo, y serán todos iguales en la misma dirección. Todo objeto se representa como una línea que cae en el cono de luz, ya que nada puede viajar a mayor velocidad que la luz. Pero con esta teoría, no se podían explicar los efectos gravitatorios, ya que éstos viajarían con velocidad infinita, y no cuadraba con la teoría.



Por ello, Einstein, después de muchos estudios, propuso la teoría de la relatividad general. Dijo que la gravedad es una consecuencia de que el espacio – tiempo no sea plano. Los cuerpos no se mueven en órbitas curvas por la fuerza de la gravedad, sino que siguen una trayectoria más o menos recta en el espacio curvo; una geodésica.



Esta idea, concuerda con las órbitas de los planetas. También nos indica que los rayos de luz no viajan en líneas rectas en el espacio, sino que es desviada, cambiando la posición, por ejemplo de las estrellas cercanas al Sol.



También la teoría de la relatividad general predijo que el tiempo transcurre más lentamente cerca de un cuerpo de gran masa, debido a la relación entre la energía de la luz y su frecuencia (cuanta más energía, más frecuencia).



En la relatividad general, el espacio y el tiempo afectan, y son afectados por lo que sucede en el universo, en contra de lo que se pensaba en las teorías anteriores. Este concepto, implicaba que el universo tuvo un principio y posiblemente tendrá un final.

El universo en expansión •

La mayoría de las estrellas que vemos en nuestro cielo concentradas en una banda, las llamamos Vía Láctea. Estas estrellas se encuentran a varios años luz de nosotros. Esta Vía Láctea, es una galaxia supuesta espiral, pero no es la única, sino que Edwin Hubble demostró que existían muchas otras con espacio vacío entre ellas.



En 1929, el mismo Hubble, después de seguir experimentando con los espectros, llegó a la conclusión de que la mayoría de las galaxias se alejaban de nosotros (corrimiento hacia el rojo), y que además lo hacían de una forma proporcional a la distancia que nos separa de ellas. Esta idea revolucionó la física, ya que implicaba que el universo se expande y aumenta.



Si el universo se expande lentamente, la fuerza de la gravedad lo frenaría, y comenzaría a contraerse; pero si se expande con una velocidad mayor a un valor crítico, la gravedad no lo pararía y seguiría expandiéndose por siempre. Ni Newton, ni Einstein se dieron cuenta de esto; incluso Einstein introdujo una fuerza "antigravitatoria" en sus ecuaciones para demostrar que el universo era estático.

• Mientras Einstein continuaba con su idea de un universo estático, Friedmann en 1922 predijo la idea de Hubble con sus suposiciones: "El universo parece el mismo desde cualquier dirección desde que se le observe, y desde cualquier otro lugar que se le observe". • Estas suposiciones se confirmaban en 1965 con Penzias y Wilson mientras realizaban un experimento con un microondas. Por la misma época, Dicke y Peebles, siguiendo la idea de Gamow, (el universo en un principio fue muy caliente y denso, acabando blanco e incandescente), supusieron que deberíamos ver el resplandor del inicio desplazada hacia el rojo como radiación de microondas. Esto era lo que habían descubierto Penzias y Wilson y por lo que se llevaron el Nobel en 1978. • La suposición de Friedmann de que el universo parece el mismo en cualquier dirección desde la que lo miremos, nos hace creer que somos el centro del universo, o lo más probable, que es igual en todas las direcciones.



Existen tres tipos de modelo que obedecen a las suposiciones de Friedmann. En el primero, el universo se expande lentamente, y la atracción gravitatoria frena y detiene la expansión; las galaxias se acercan y el universo se contrae. En el segundo, la atracción gravitatoria no consigue detener la expansión, sólo frenarla un poco. Y en el tercero, el universo se expande con una velocidad justa para no colapsarse, pero sin llegar a ser nula. En el primer tipo de modelo, el espacio es finito; al contrario que en los otros dos, que es infinito.



Sabemos que nuestro universo se está expandiendo, y que debe contener gran cantidad de "materia oscura"; y también es probable que exista alguna otra forma de materia desconocida por nosotros que sea capaz de detener la expansión. Por tanto, por los datos que hoy tenemos, se supone que el universo seguirá expandiéndose por siempre, y que si se colapsa algún día, será dentro de miles de millones de años.



Todas las soluciones de Friedmann, opinan que en un pasado, la distancia entre galaxias fue cero; en el big bang, teniendo el universo densidad y curvatura del espacio – tiempo, infinitas. Como no se pueden manejar números infinitos realmente, la teoría de la relatividad general predice un punto en el universo donde la teoría se colapsa. Este punto será una singularidad.



Se dijo que el tiempo empezaba en el big bang, ya que lo que sucedió anteriormente no influye. Pero esta idea no gustó mucho, y por ello Bondi, Gold y Hoyle, propusieron en 1948 la teoría del estado estacionario (mientras las galaxias se alejaban, nuevas galaxias se formaban); pero después de muchas investigaciones, esta teoría quedó abandonada. Lifshitz y Khalatnikov tampoco estaban de acuerdo con la idea del big bang y del principio del tiempo, así que argumentaron que las galaxias también tienen velocidades laterales, por lo que no tuvieron porque estar totalmente juntas, sino simplemente muy cercanas. Después de sus estudios, ellos mismos rechazaron su teoría.



En 1965, Penrose, demostró que una estrella que se colapsa en su propia gravedad, queda atrapada en una región cuya superficie se reduce a tamaño y volumen cero con el tiempo; siendo su densidad y curvatura espacio – tiempo infinitas; esto será una singularidad llamada agujero negro.



Utilizado este teorema, Hawking dedujo que si invertimos el tiempo, cualquier universo en expansión, del tipo de Friedmann, comenzó en una singularidad. Ya en 1970, entre Hawking y Penrose, llegaron a la conclusión de que debió haber una singularidad como el big bang, si la teoría de la relatividad general era correcta y si el universo tuviera tanta materia como vemos.

ESPECTRO DE LA LUZ BLANCA • Para clasificar a las estrellas, sólo lo podemos hacer por el color de su luz, ya que no apreciamos ni la forma ni el tamaño, debido a la gran distancia que nos separa. Para ello, se utilizó el método de Newton para observar el ESPECTRO de una luz al pasar por un prisma. También, gracias a este método, podemos averiguar la temperatura y los elementos de la atmósfera de la estrella, por los colores que adopta el espectro.



Las estrellas de otras galaxias tenían los mismos conjuntos característicos de colores ausentes que las de la nuestra, aunque desplazados en la misma cantidad relativa hacia el extremo del espectro correspondiente al color rojo.



Esto se explica por el efecto Doppler; cuanto más se estén alejando de nosotros las estrellas, más tendrán su espectro desplazado hacia el extremo rojo; y cuanto más se acerquen, más estarán desplazados al extremo azul; debido a la frecuencia de la luz.

El principio de incertidumbre • A principios del siglo XIX, Laplace dijo que el universo era determinista (se podía predecir todo lo que sucediera en el universo al conocer unas leyes científicas). Esta idea comenzó a ser rechazada después de los estudios de lord Rayleigh y sir James Jeans, en los que sugirieron que un cuerpo caliente debería irradiar energía a un ritmo infinito; y esto iba en contra de lo que se pensaba en la época. • Planck, en 1900, para evitar el resultado anterior (infinito), creó los "CUANTOS". Cada cuanto posee una cantidad de energía (cuanta más alta la frecuencia de ondas, más energía). • En 1926, Heisenberg, formuló su principio de incertidumbre, que dice que cuanto con mayor precisión se trate de medir la posición de la partícula, con menor exactitud se podrá medir su velocidad. A partir de sus estudios relacionados con este principio, introdujo la constante de Planck.

• En 1920, Heisenberg, Schrödinger y Dirac, formularon la teoría llamada la mecánica cuántica, en la que las partículas están en un estado cuántico (combinación de posición y velocidad). La mecánica cuántica, predice un número de resultados posibles con sus probabilidades, existiendo una incapacidad de predicción. • La mayoría de los científicos aceptaron esta teoría, hoy en día la base de nuestra tecnología; a excepción de Einstein, que llegó a decir: "Dios no juega a los dados". • En la mecánica cuántica, al hablar de las ondas y partículas de la luz, a veces se piensa en las partículas como ondas, y otras en las ondas como partículas; observándose el fenómeno de interferencia entre dos conjuntos de ondas o partículas. • Este fenómeno de interferencia, nos ha servido para comprender la estructura de los átomos.

MODELO DE BOHR •

Al principio se pensaba que los electrones cargados negativamente, giraban entorno al núcleo cargado positivamente, pero lo que sucedería era que los electrones perderían su energía y caerían en espiral al núcleo.



Entonces, Bohr en 1913, propuso que los electrones sólo podían girar a ciertas distancias del núcleo, y que sólo uno o dos electrones pudieran orbitar a cada una de esas distancias. Esto explicó la estructura del átomo de hidrógeno, que es muy sencilla; pero no de otros más complicados.

• La mecánica cuántica resolvió este problema: un electrón girando alrededor del núcleo, podría imaginarse como una onda, con una longitud de onda que dependía de su velocidad. • Hay algunas órbitas, cuya longitud de onda del electrón es un número entero, cuyas crestas de las ondas estarían en la misma posición en cada giro; sumándose las ondas. • En aquellas órbitas cuya longitud de onda no es un número entero, cada cresta sería cancelada por un valle; no estando permitidas las órbitas cuando el electrón pasara de nuevo. Según Feynman, la partícula sigue varios caminos posibles en el espacio – tiempo; no sólo uno.

Las partículas elementales y las fuerzas de la naturaleza •

Aristóteles pensaba que todo estaba formado por tierra, agua, aire y fuego, que se veían afectados por la fuerza de la gravedad (tendencia del agua y la tierra a hundirse), y por la tendencia del aire y el fuego a ascender. También pensaba que la materia se podía dividir din límite. En esto no estuvieron de acuerdo algunos griegos como Demócrito, que opinaba que la materia estaba formada por átomos (indivisibles).



Dalton, en 1803, apoyó la teoría de los átomos, y dijo que éstos a su vez, se agrupaban para formar moléculas.



Más tarde, Thomson, demostró que los átomos no eran tan indivisibles como se pensaba, y probó la existencia de electrones en ellos.



Ya en 1911, aparece un modelo atómico, el de Rutherford. Explicó que los átomos estaban formados por un núcleo muy pequeño, cargado positivamente; y a su alrededor giran los electrones.



En 1932, Chadwick, descubrió que en el núcleo, a parte de las partículas ya conocidas como protones hasta entonces, también había otras partículas que no tenían carga eléctrica, y las llamó neutrones.



Hasta hace veinte años, se creía que los protones y los neutrones, eran indivisibles, pero se descubrió que eran divisibles en unas partículas que Murray Gell – Mann, llamó quarks.



Hoy en día se piensa que existen como mínimo seis flavours (sabores): up, down, strange, charmed, bottom, y top (arriba, abajo, extraño, encanto, fondo y cima); y cada uno de éstos puede tener uno de los siguientes colores: rojo, verde y azul (que aunque posean ese nombre, no poseen el color). Por ejemplo, un protón está formado por dos quarks up y uno down; y un neutrón, dos down y uno up.

•Para medir las energías de estas partículas usamos la unidad electrón – voltio (energía ganada por un electrón en un campo eléctrico de un voltio). •Si tenemos en cuenta la dualidad onda – partícula, vemos que todo lo podemos describir como partículas. Éstas tienen una propiedad, llamada espín, que nos dice cómo se muestra la partícula desde distintas direcciones. Una partícula con espín 0, parece la misma en todas direcciones, como un punto; con espín 1, parece diferente si cambio de dirección, como una flecha, sólo es la misma con un giro de 360 grados; con espín 2, es como una flecha con dos cabezas, parece la misma con un giro de 180 grados. En el caso de que haya que girarlas dos vueltas completas para que parezca la misma, son partículas de espín ½. •Las partículas del universo se dividen en aquellas con espín ½ que forman la materia del universo, y las de espín 0, 1 y 2 que forman las fuerzas entre las partículas materiales.



Estas partículas materiales, siguen el principio de exclusión de Pauli (1925), que dice que dos partículas similares no pueden existir en el mismo estado (la misma posición y velocidad) dentro de los límites fijados por el principio de incertidumbre. Si este principio no existiera, las partículas se colapsarían formando una "sopa" densa.



Dirac, en 1928, explicó matemáticamente por qué el electrón tenía espín ½. Dijo también, que el electrón tiene una pareja, el antielectrón o positrón. Hoy en día, ya sabemos que toda partícula tiene su antipartícula, las cuáles se aniquilan entre sí (partícula/antipartícula).



Las partículas portadoras de fuerza (emitidas por una partícula material como un quark), no siguen el principio de exclusión. Estas partículas, que se intercambian entre sí las partículas materiales, son virtuales porque no pueden ser descubiertas directamente por un detector de partículas como las reales.

• Las partículas portadoras de fuerza se pueden clasificar de acuerdo con la intensidad de la fuerza, y con el tipo de partículas con las que actúan; en cuatro categorías: La fuerza gravitatoria: – Es universal. Esta gravedad es la más débil, actúa a grandes distancias y siempre es atractiva. Hay que destacar a la partícula de espín 2, el gravitón. La fuerza electromagnética: – Interactúa con partículas cargadas eléctricamente (electrones, quarks), no con las que están sin carga (gravitón). Mucho más intensa que la gravitatoria. Al existir dos cargas, la positiva y la negativa; la fuerza puede ser repulsiva (entre cargas del mismo signo), o atractiva (entre diferentes cargas). Las partículas virtuales de espín 1, que se intercambian se denominan fotones.

La fuerza nuclear débil: – Actúa sobre las partículas materiales de espín ½, pero no sobre las de espín 0, 1 y 2. En 1967, Abdus Salam y Steven Weinberg, sugirieron que además del fotón, había otras tres partículas de espín 1, los bosones vectoriales masivos; que son W+, W- y Z0 y cada uno tiene una masa de 100GeV (gigaelectrón – voltio). – Esta teoría que propusieron, también incluye una propiedad, la ruptura de simetría espontánea, que dice que a bajas energías, lo que parece un determinado número de partículas diferentes, es en realidad, el mismo tipo de ellas sólo que en estados diferentes. Y a altas energías, las partículas actúan de una forma parecida. La fuerza de la interacción nuclear fuerte: – Mantiene a los quarks unidos en el protón y el neutrón, y éstos, juntos en los núcleos de los átomos. Se piensa que es el gluón, de espín 1, que sólo actúa consigo misma y con los quarks, la que transmite esta fuerza. Esta interacción posee una propiedad, la confinación; por la que liga a al partículas en combinaciones, que no tiene color. – La combinación de un quark con un antiquark, es un mesón, y es inestable porque se pueden aniquilar. La colección de gluones que unen para dar el color blanco, se denomina glueball (bola de gluones). La interacción posee otra propiedad, la libertad asintótica.

Los agujeros negros • En 1969, John Wheeler introdujo el término de agujero negro. • Se sabía que si la luz estaba formada por partículas, sería afectada por la gravedad; pero si estaba formada por ondas, no se conocía como actuaría la gravedad sobre ella. Hoy en día sabemos que ambas afirmaciones son ciertas. • Roemer descubrió que la luz viaja a una velocidad finita, por lo que la gravedad afectaría a la luz. • John Michell, explicó que si una estrella es muy compacta, tendría un campo gravitatorio muy intenso, donde la luz no podría escapar, siendo arrastrada al centro por la gravedad. A estas estrellas no las vemos, pero sí que sentimos su atracción gravitatoria. Laplace, también sugirió posteriormente una teoría parecida.



Chandrasekhar después de diversos estudios sobre las estrellas, introdujo el límite de Chandrasekhar. Este límite es la masa aproximada de une vez y media la del Sol; la cual al estar la estrella fría, no sería capaz de soportar su propia gravedad. Entonces si una estrella tiene una masa menor que el límite de Chandrasekhar, no se contrae más en un estado final, por ejemplo una "enana blanca". Ésta se sostiene por el principio de exclusión entre los electrones de su materia.



Landau, dijo que había otro estado final para una estrella, con una masa una o dos veces la del Sol, pero más pequeña que una enana blanca. Éstas estrellas se mantienen por el principio de exclusión de neutrones y protones; son estrellas de neutrones.



Aquellas estrellas cuya masa es mayor al límite de Chandrasekhar, cuando se les acaba el combustible, o explotan o desprenden materia y reducen su peso por debajo del límite, evitando el colapso gravitatorio.

REPRESENTACIÓN DE UN AGUJERO NEGRO •

Oppenheimer después de diversos estudios, llegó a la conclusión de que los conos de luz de la estrella se van inclinando hacia dentro por el campo gravitatorio, mientras se contrae; hasta que llega un momento en el que la luz no puede escapar.



Como ésta, ningún objeto puede escapar, todo es arrastrado por su campo gravitatorio. La frontera es el horizonte de sucesos, que coincide con el camino de los rayos de luz que están a punto de escapar, sin conseguirlo. Esto es lo que llamamos un agujero negro.



Si observamos una estrella que se colapsa, y forma un agujero negro; tenemos que tener en cuenta que no hay un tiempo absoluto y que la gravedad disminuye cuanto más se aleja uno de la estrella.



Según los estudios de Penrose y Hawking, cuando un cuerpo se colapsa, llega al final del tiempo, fallando las leyes y nuestra capacidad de predecir el futuro. Por esto, Penrose propuso la hipótesis de la censura cósmica; por la que las singularidades de un colapso gravitatorio ocurren solamente en sitios (agujeros negros), ocultos por un horizonte de sucesos que no son vistos desde fuera. La versión de la hipótesis de la censura nos dice que las singularidades de un colapso gravitatorio estarán siempre en su futuro o en su pasado (big bang).



Cuando una estrella se colapsa para formar un agujero negro, cada vez los movimientos son más rápidos y la emisión de energía mayor; llegando pronto a un estado estacionario.



En 1967, Werner Israel, señaló que según la relatividad general, los agujeros negros sin rotación eran esféricos y que su tamaño dependía de su masa; y que sólo podía ser el resultado de una estrella esférica colapsada.



Penrose y Wheeler interpretaron esto de otra forma. Ellos dijeron que los rápidos movimientos en el colapso, hacen que la estrella se haga más esférica debido a las ondas gravitatorias hasta que llega a un estado estacionario, siendo una esfera perfecta. Esta teoría es la aceptada hoy en día, por la que todo agujero negro, independientemente de su forma y estructura, es esférico, y con un tamaño que depende de su masa.



En 1963, Roy Kerr, estudió los agujeros negros en rotación. Argumentó que éstos giran a un ritmo constante, y que el tamaño y la forma dependen de la velocidad de rotación y de la masa. El agujero negro es redondo sino existe rotación, y si existe, éste se deforma hacia fuera cerca de su ecuador. Cuanto más rápido gira, más se deforma.



En 1970, Carter demostró esta idea de Kerr, con la condición de que el agujero negro tuviera un eje de simetría.



En 1971, Hawking, demostró que un agujero negro siempre tiene un eje de simetría.



En 1973, Robinson, juntó ambas demostraciones para llegar a la solución de Kerr. Probó que después del colapso gravitatorio, un agujero negro puede rotar, pero no tener pulsaciones. Su tamaño y forma dependen de la velocidad y la masa (teorema de la "no existencia de pelo").



En 1963, Maarten Schmidt, estudiando el corrimiento hacia el rojo de un objeto parecido a una estrella, llegó a la conclusión, de que éste había sido causado por la expansión del universo (no por la gravedad), lo que implicaba que el objeto estaba muy lejos, que tenía que ser muy brillante emitiendo una gran cantidad de energía. Y todo esto sólo podía ser el colapso gravitatorio de toda una región de una galaxia ("objetos cuasi – estelares" o quasars).



En 1967, Jocelyn Bell, encontró objetos celestes que emitían pulsos regulares de ondas de radio, a los que llamó pulsars, que al final resultaron ser estrellas de neutrones en rotación.



Sólo podemos detectar un agujero negro por la fuerza gravitatoria que ejerce sobre los objetos, ya que no emite luz.



Existen algunos sistemas que sólo están formados por una estrella visible que está girando entorno a algo invisible. Ese algo, puede ser una enana blanca, una estrella de neutrones o un agujero negro.



El número de agujeros negros negros puede ser mayor que el de estrellas visibles y esto podría explicar por qué nuestra galaxia gira a esta velocidad. Se cree que en el centro de nuestra galaxia hay un gran agujero negro.



También se cree que los quasars emiten tanta energía porque en su centro existen agujeros negros.



Agujeros negros de poca masa, no se pudieron haber formado por el colapso de una masa por debajo del límite de Chandrasekhar; sino que sólo si la materia hubiera sido comprimida a enorme densidad por grandes presiones externas. Estos agujeros se podrían haber formado en una fase muy inicial del universo.

Los agujeros negros no son tan negros •

El horizonte de sucesos, está formado por los caminos en el espacio tiempo de los rayos de luz que no consiguen escapar del agujero negro.



Estos caminos de los rayos nunca pueden acercarse entre sí; por lo que se tienen que mover en paralelo o alejándose entre ellos. El área del horizonte de sucesos puede permanecer constante o aumentar con el tiempo, nunca disminuir.



De acuerdo con la segunda ley de la termodinámica la entropía o desorden de un sistema aislado aumenta siempre, y si se juntan dos sistemas, la entropía del sistema combinado es mayor que la suma de las individuales.



Esta ley se verifica la mayoría de las veces, pero en un agujero negro se puede violar fácilmente, por ejemplo, lanzando gran cantidad de entropía al agujero. Bekenstein, dijo que el área del horizonte de sucesos era una medida de su entropía, ya que cuanta más materia con entropía cae en el agujero negro, más aumenta su área de horizonte de sucesos.



En el caso de que un agujero negro tuviera entropía, también tendría que tener una temperatura, y por lo tanto emitir radiación.



En 1973, Zeldovich y Starobinsky, argumentaron que según el principio de incertidumbre de la mecánica cuántica, los agujeros negros en rotación tenían que crear y emitir partículas.



Hawking, estudió estos argumentos, y llegó a la conclusión de que incluso los agujeros negros sin rotación tienen que emitir partículas a un ritmo estacionario, debido a que el espectro de las partículas emitidas era el mismo que emitiría un cuerpo caliente, y que el agujero emitía las partículas al ritmo justo para evitar las violaciones de la segunda ley. Cuanto mayor sea la masa, menor será la temperatura.



La pregunta que nos hacemos es cómo es posible que el agujero negro emita partículas si nada puede escapar de él. La respuesta nos la da la teoría cuántica. Esas partículas no provienen del agujero, sino del espacio "vacío", justo fuera del horizonte de sucesos.



Pero este espacio vacío no puede estar vacío como su nombre indica. Existen unas partículas virtuales, que no pueden ser observadas directamente son un detector, pero si se observan sus efectos indirectos.



También hay, según el principio de incertidumbre, pares de partículas (partícula/antipartícula). Un componente del par tiene energía negativa, y su vida como partícula virtual es muy corta, y tiene que buscar a su pareja y aniquilarse; y otro componente, energía positiva.



La partícula virtual de energía negativa puede caer en un agujero negro y convertirse en una partícula o antipartícula real, sin necesidad de destruirse con su compañera. Ésta puede caer también en el agujero, o como tiene energía positiva, escapar de las cercanías del agujero, pareciendo así para un observador, que ha sido emitida desde el agujero negro.



Si aplicamos la ecuación de Einstein E= mc2 , sabemos que la masa de un agujero negro se reduce si se introduce un flujo de energía negativa. También sabemos de los agujeros negros, que cuanto más pequeños en masa, mayor temperatura tendrán.



Los agujeros negros primitivos con masas iniciales menores que mil millones de toneladas, ya se habrán evaporado, pero aquellos con masas un poco superiores, aún estarán irradiando en forma de rayos X y gamma. Estos agujeros son blancos incandescentes y emiten gran cantidad de energía. Para observarlos podríamos buscar los rayos gamma que emiten. El fondo de rayos gamma, nos dice que no puede haber más de 300 agujeros negros primitivos por año – luz cúbico.



La atmósfera terrestre detecta los rayos gamma de los agujeros negros primitivos. Si un cuanto de rayos gamma de gran energía choca con la atmósfera, se crean pares de electrones y positrones, obteniendo una lluvia de electrones, llamada radiación de Cherenkov.



La ausencia de una cantidad de agujeros negros primitivos sólo se puede explicar si el universo primitivo fue muy regular y uniforme.



La radiación que proviene de los agujeros negros, implica que el colapso gravitatorio no es definitivo e irreversible, sino que la masa de un objeto que caiga en el agujero, se transformará en energía.



Al final de la vida de un agujero negro, lo más probable es que desaparezca, llevándose con él a cualquier singularidad que contenga, si hay alguna.

El origen y el destino del universo •

Einstein predijo en su teoría, que el universo tendría un final en una singularidad, el big crunch, o bien en una singularidad dentro de un agujero negro; ya que su inicio fue la singularidad del big bang.



Hawking, pensó en la posibilidad de que el espacio – tiempo fuese finito, que no tuviese ninguna frontera, por lo que no habrá ningún principio.



Existe un "modelo de big bang caliente", basado en un modelo de Friedmann, que dice que conforme el universo se expande, toda la materia o radiación existente en él se enfría.



A temperaturas muy altas, las partículas se moverían muy deprisa, por lo que serían capaces de vencer cualquier atracción entre ellas debida a las fuerzas nucleares o electromagnéticas. Las partículas comenzarían a agruparse, a medida que se enfriasen.



En el momento del big bang, se cree que el tamaño del universo era nulo, estando infinitamente caliente; y a medida que se iba expandiendo, la temperatura disminuía. El universo contendría entonces, fotones, electrones, neutrinos, sus antipartículas y algunos protones y neutrones.



La mayoría de los electrones y los antielectrones se habrían aniquilado, produciendo más fotones. Los neutrinos y los antineutrinos, no se habrían aniquilado; por lo que si pudiéramos, deberíamos verlos. Pueden ser una forma de "materia oscura".



Unos cien segundos después del big bang, habrá una temperatura a la que los protones y neutrones no podrían vencer la atracción de la interacción nuclear fuerte, produciendo átomos de deuterio. Éstos se combinarían con más protones y neutrones, dando núcleos de helio, y también berilio y litio.



George Gamow, fue el que hizo esta imagen del universo en su inicio. En un artículo, dijo que la radiación, en forma de fotones, de las etapas tempranas del universo caliente, debían permanecer hoy en día; lo que podría explicar la gran existencia de helio en nuestro universo.



La producción de helio y más elementos se habría detenido después de unas horas del big bang. Sin grandes cambios, el universo se expandiría durante un millón de años.



Cuando la temperatura bajase, y los electrones y núcleos no pudiesen vencer la atracción electromagnética, se combinarían dando átomos. Se seguiría expandiendo y enfriándose, aunque algunas regiones serían frenadas y en algunos casos comenzarían a colapsarse. Ésta región se haría más pequeña y aumentaría su velocidad, hasta que llegara a alcanzar la velocidad suficiente para compensar la atracción de la gravedad, y se formarían las galaxias giratorias en forma de disco.



Aquellas que no adquirieran rotación, serían galaxias elípticas. Entonces el gas de hidrógeno y el de helio de éstas, formaría nubes más pequeñas que comenzarían a colapsarse por su gravedad. La temperatura del gas aumentaría, iniciándose reacciones de fusión nuclear; convirtiéndose el hidrógeno en helio; aumentaría la presión, impidiendo la contracción de las nubes. Esas nubes serían estables cierto tiempo, como estrellas parecidas a nuestro Sol.



Aquellas estrellas de una masa mayor, consumirán su hidrógeno más rápidamente, contrayéndose y calentándose, convirtiendo el helio en carbono u oxígeno.



Sus regiones centrales colapsarían en un estado muy denso, como una estrella de neutrones o un agujero negro.



Sus regiones externas podrían desprenderse en una explosión, supernova, de un gran brillo. Algunos de los elementos de esa estrella volverían a ser arrojados a la galaxia, para formar parte de próximas estrellas.



La Tierra, estaba muy caliente en un principio y no tenía atmósfera. Poco a poco se enfrió, adquiriendo una atmósfera primitiva que contenía gases venenosos para los humanos.



Entonces surgieron unas formas de vida que se fueron combinando, para dar cada vez organismos más complicados. Finalmente, estas formas de vida consumirían los gases venenosos y expulsarían oxígeno, cambiando así la atmósfera, llegando a la composición de hoy en día; apareciendo seres como los que conocemos.

Existen algunas preguntas a las que no hemos encontrado respuesta, referentes al universo: •

1) ¿Por qué el universo primitivo estaba tan caliente?



2) ¿Por qué el universo es tan uniforme a gran escala? ¿Por qué parece el mismo en todos los puntos del espacio y en todas direcciones?



3) ¿Por qué comenzó el universo con una velocidad de expansión tan próxima a la velocidad crítica?



4) ¿Cuál fue el origen de las fluctuaciones de densidad?



La teoría de la relatividad no puede responder a estas preguntas. Se conocen unas leyes, dentro del principio de incertidumbre, que nos dicen cómo evoluciona el universo en el tiempo si conocemos su estado en cualquier momento.



Estas leyes pudieron haber sido dictadas por Dios, y que ahora Éste ya no interviene. Pero los hechos no ocurren de una forma arbitraria, ya que reflejan un orden subyacente que puede estar divinamente inspirado o no.



Existen las llamadas condiciones de contorno caóticas, que suponen que el universo es espacialmente infinito o que hay infinitos universos.



El estado inicial del universo sería puramente al azar, y sería muy caótico e irregular, ya que hay más configuraciones caóticas y desordenadas que lo contrario.



Si esta afirmación sobre el universo fuese cierta, existirían, probablemente, algunas grandes regiones que habrían comenzado de una forma suave y uniforme; y nosotros podríamos estar en una de esas regiones.



Surge entonces el principio antrópico, por el que "vemos el universo en la forma que es porque nosotros existimos". Hay dos versiones de este principio: la débil (en un universo infinito o grande, en el espacio y/o tiempo, las condiciones necesarias para la existencia de seres inteligentes, se darán sólo en ciertas regiones limitadas en el tiempo y en el espacio), y la fuerte (o hay muchos universos diferentes, o muchas regiones diferentes en un único universo, cada uno/a con su propia configuración inicial y, tal vez, con su propio conjunto de leyes de la ciencia). Esta última versión, va en contra de la corriente de toda la historia de la ciencia; y además se acaba reduciendo al débil.



Si aceptamos el modelo del big bang caliente, tenemos que tener en cuenta de que no hubo tiempo suficiente para que el calor fluyese de una región a otra del universo primitivo. Por ello, sería muy difícil explicar por qué comenzó así, a no ser que se piense en la intervención de un Dios.



Alan Guth, propuso que el universo primitivo pudo haber pasado por un una etapa de expansión rápida, llamada "inflacionaria", expandiéndose de una forma creciente, en contra de cómo lo hace hoy en día. Sugirió que el inicio del universo, fue un estado muy caliente y caótico.



Las partículas se movían rápidamente debido a las altas energías. El universo se iba expandiendo, y se enfriaba; produciéndose la transición de fase, y se rompía la simetría entre fuerzas; aunque la temperatura podría estar por debajo del valor crítico, que la simetría no se rompería, provocando un estado inestable, con más energía que produciría un efecto antigravitatorio.



En este universo la expansión sería acelerada, y habría tiempo suficiente para que la luz viajase de una región a otra en el primitivo.



La idea de inflación, nos dice que todas las partículas del universo, se crean a partir de energía. La energía del universo es cero. La materia está hecha de energía positiva, que se atrae a sí misma por la gravedad; y el campo gravitatorio, puede decirse que tiene energía negativa que anula a la anterior.



El universo actualmente no está expandiendo de una forma inflacionaria, ya que lo observamos hoy en día no corresponde con lo que deberíamos ver.



En 1981, Linde propuso otro modelo del universo, también basado en "burbujas", sólo que la ruptura de simetría era lente. Esta teoría tuvo un fallo, y más tarde, Steinhardt y Albrecht la utilizaron como base para "el nuevo modelo inflacionario".



En 1983, Linde propuso otro modelo inflacionario caótico, que fue mejor que los anteriores y que se adaptaba a lo que se ve.



El universo se pudo haber formado a partir de un gran número de configuraciones, pero no todas éstas nos llevaría al universo que actualmente vemos.



Si es correcta la teoría de la relatividad general clásica, los teoremas de singularidad de Penrose y Hawking, demostrarían que el principio del universo fue un punto de densidad y de curvatura del espacio – tiempo infinitas, y allí las leyes de la naturaleza fallarían, y el campo gravitatorio sería tan fuerte que los efectos gravitatorios cuánticos se hacen importantes; por lo que podemos utilizar una teoría cuántica de la gravedad.



Aún no se tiene una teoría completa, pero lo que sí sabemos es lo que debe estar incluido en dicha teoría: – La idea de Feynman de formular la teoría cuántica en términos de una suma sobre historias, debe estar incluida. En esta suma de historias hay que utilizar valores imaginarios, porque el tiempo se toma como imaginario. – La idea de Einstein de que el campo gravitatorio se representa mediante un espacio – tiempo curvo. Los espacios – tiempos deben ser euclídeos.



Existen tres maneras de las que se puede comportar el universo en la teoría cuántica de la gravedad; las dos primeras comunes con la teoría clásica de la gravedad: – Ha existido durante un tiempo infinito – Tuvo un principio en una singularidad dentro de algún tiempo finito en el pasado – El espacio – tiempo es finito en extensión, y no tiene ninguna singularidad que forme una frontera o un borde. Esta propuesta nos indica que no existiría ninguna singularidad. El universo no sería ni creado ni destruido, simplemente sería.



Basándose en esta última propuesta, Hartle y Hawking, calcularon las condiciones que debería cumplir el universo para que fuera cierta.



El universo comienza en un único punto, y se va expandiendo en un tiempo imaginario, hasta alcanzar un tamaño máximo, y empieza a contraerse, hasta un único punto. Aunque el tamaño es nulo en esos puntos, no hay singularidades; pero si lo vemos en el tiempo real, sí que existirían estas singularidades.



Puede ser que el tiempo imaginario sea el más básico, y que el real es algo que nos hemos inventado para ayudarnos a comprender el universo.

La flecha del tiempo •

Las leyes de la ciencia no distinguen entre pasado y futuro.



Las leyes de la ciencia no se modifican bajo la combinación de las operaciones conocidas como C, P y T: C: cambiar partículas por antipartículas. P: tomar la imagen especular. T: invertir la dirección del movimiento de las partículas.



No se modifican si combino C, P y T, por lo que tampoco debería cambiar bajo la operación T sola.



Pero existe una gran diferencia entre las direcciones hacia delante y hacia atrás del tiempo real. Que nosotros no veamos los actos en el tiempo hacia atrás se debe a que lo prohibe la segunda ley de la termodinámica (en cualquier sistema cerrado, el desorden aumenta siempre con el tiempo).



Este hecho es lo llamado una flecha del tiempo, algo que distingue el pasado del futuro dando una dirección al tiempo. Existen tres flechas del tiempo por lo menos: – 1) Flecha termodinámica: dirección del tiempo en la que el desorden aumenta. – 2) Flecha psicológica: dirección en la que recordamos el pasado pero no el futuro. – 3) Flecha cosmológica: dirección del tiempo, en la que el universo se está expandiendo y no contrayendo.



La flecha termodinámica se basa en la segunda ley de termodinámica, de la que obtenemos que hay muchos más estados desordenados que ordenados.



Si un sistema empezara en un estado ordenado, con el paso del tiempo cambiará debido a la influencia de las leyes de la ciencia, y lo más probable es que pase a un estado desordenado.



Si Dios decidió que el universo tiene que terminar en un estado ordenado, éste habría partido probablemente de un estado desordenado, y los seres recordarían sucesos en el futuro y no en el pasado; su flecha psicológica apuntaría hacia atrás.



Para explicar esto, ponemos un ejemplo con un ordenador. Antes de introducir ningún dato en él, se encuentra en un estado desordenado. Después de introducir algo, pasa de ese estado a uno ordenado; pero la energía que utilizó se disipa en forma de calor, que va a aumentar el desorden en el universo, que siempre va a ser mayor que el aumento de orden.



Por lo tanto, la dirección del tiempo en la que un ordenador recuerda el pasado es la misma que aquella en la que el desorden aumenta. Esto también pasa con nosotros.



La flecha psicológica está determinada por la termodinámica.



Con la teoría clásica de la relatividad general, no podemos saber cómo comenzó el universo, ya que las leyes habrían fallado en la singularidad del big bang. Por ello, debemos utilizar una teoría cuántica de la gravedad.



Si empleamos esta teoría, tendríamos la dificultad de decir cómo se comportarían las historias posibles del universo en la frontera del espacio – tiempo (algo imposible de saber); a no ser que no haya frontera (finitas en extensión, pero sin fronteras). En este caso, el universo habría empezado en un estado ordenado, aunque no totalmente uniforme, para mantener el principio de incertidumbre.



Entonces el universo habría comenzado en un período de expansión inflacionaria, en el que habría aumentado su tamaño.



Las fluctuaciones de densidad serían pequeñas al principio, pero comenzarían a crecer. La atracción gravitatoria frenaría la expansión de aquellas regiones con una densidad mayor que la media, para finalmente colapsarse y formar galaxias, estrellas y seres.



El universo pasa de un estado ordenado a uno desordenado con el paso del tiempo, explicando así la existencia de la flecha termodinámica.



La pregunta que nos hacemos, es que cuando el universo comience a contraerse, ¿se invertirá la flecha termodinámica?. Para encontrar una respuesta, podemos fijarnos en un agujero negro, ya que es muy parecido al colapso del universo.



En un principio, se creía que el desorden disminuiría al colapsarse el universo, siendo la fase de contracción la inversión temporal de la de expansión.



Luego, el propio Hawking admitió su error, y dijo que el desorden seguiría aumentando durante la contracción debido a que no hay frontera, por lo que las flechas termodinámica y psicológica no se invertirán cuando se contraiga el universo o en los agujeros negros.



Las condiciones en la fase de contracción no serían adecuadas para la existencia de seres inteligentes por el principio antrópico débil. Por ello se cree que estamos en la fase expansiva.



En el momento del colapso, las estrellas ya se habrán quemado, y protones y neutrones se habrán desintegrado; estando el universo en un estado de desorden, donde no habría ninguna flecha termodinámica clara, condición necesaria para la existencia de seres como nosotros. Esto es el por qué las flechas termodinámicas y cosmológicas señalan en la misma dirección.



Las leyes de la ciencia no distinguen entre el pasado y el futuro, pero sí lo hacen las tres flechas del tiempo que acabamos de ver.

Conclusiones •

En los comienzos de la humanidad para explicar el origen y el funcionamiento del universo, se creía que existían unos dioses y espíritus que gobernaban todo, y por eso los adoraban.



Con el paso del tiempo, nos empezamos a dar cuenta de que existían regularidades, por ejemplo que el Sol salía por el este y se ponía por el oeste; y que incluso se podían predecir dichas regularidades.



En los últimos trescientos años, los hombres hemos descubierto cientos de regularidades y leyes que rigen el universo.



Laplace introdujo en el siglo XIX, su teoría determinista, en la que Dios eligió como comenzó el universo y las leyes que lo regirían.



Hoy sabemos que esta teoría no es cierta, ya que existen cantidades que no se pueden predecir (mecánica cuántica). En la mecánica cuántica, las partículas no tienen ni velocidades ni posiciones bien definidas, por lo que están representadas por una onda. Tienen algo de deterministas, desde el punto de vista de que si conocemos la onda en un instante podemos conocerla en cualquier otro.



La ley de la gravedad no concuerda con la idea de que el tiempo no cambia, ya que al ser atractiva, el universo tiene que estar expandiéndose o contrayéndose. En el pasado, tuvo que haber un principio del tiempo, el big bang, según la teoría de la relatividad; por lo que también debería haber un final del tiempo, un big crunch.



La idea de formar un espacio – tiempo finito cuadridimensional, surge a partir de la combinación de la mecánica cuántica con la relatividad general. Esto puede explicar la estructura del universo, e incluso la flecha del tiempo que vemos. Si en realidad existe una teoría unificada, ¿cuál es el papel de Dios como Creador?.



Esta última pregunta acerca de Dios en el universo es una de las tantas que nos hacemos relacionadas con ÉL y el universo.



Los científicos se han dedicado simplemente a estudiar cómo es el universo; mientras que los que se han encargado de buscar el por qué, han sido los filósofos hasta el siglo XIX, cuando la ciencia se hizo demasiado técnica.



Hawking opina que si algún día encontramos la teoría unificada, entonces conoceríamos el pensamiento de Dios.

Ecosistema: La unidad de la naturaleza y el hombre Juan Gastó [email protected]

Universidad de La Frontera Programa en Ciencias de Recursos Naturales Manejo Integrado de Recursos Naturales, Diciembre de 2005

Corrientes de pensamiento Ciencia y Filosofía Naturalistas (

Get in touch

Social

© Copyright 2013 - 2024 MYDOKUMENT.COM - All rights reserved.