Conferencia el 17 de Noviembre de 2000 en Santiago, Chile. Nos ahogamos en los desperdicios?

Conferencia el 17 de Noviembre de 2000 en Santiago, Chile ¿Nos ahogamos en los desperdicios? Gerd K. Hartmann Colaborador Científico en el Instituto

3 downloads 78 Views 94KB Size

Recommend Stories


LA EDUCACIÓN DE LOS DERECHOS HUMANOS EN CHILE AL 2000
LA EDUCACIÓN DE LOS DERECHOS HUMANOS EN CHILE AL 2000 RESUMEN Durante el régimen militar, ONGs, iglesias, movimientos sociales y otras instituciones

Santiago, noviembre de Estimados socios de Supermercados de Chile A.G:
NOVIEMBRE 2014 - OCTUBRE 2015 Santiago, noviembre de 2015 Estimados socios de Supermercados de Chile A.G: Tengo el gusto de presentarles l

1971: Fidel en Chile. Un error táctico? Ysrrael A. Camero G. 17 de octubre de 2000
1971: Fidel en Chile. ¿Un error táctico? Ysrrael A. Camero G. 17 de octubre de 2000 En los procesos revolucionarios hay tres tipos de conflictos, si c

Story Transcript

Conferencia el 17 de Noviembre de 2000 en Santiago, Chile ¿Nos ahogamos en los desperdicios?

Gerd K. Hartmann Colaborador Científico en el Instituto Max Planck de Aeronomía (MPAE) Max-Planck-Str. 2, D – 37191 Katlenburg-Lindau, Alemania Tel.: +49 –5556 –336/332/344, Fax: +49 –5556 –979 –240; Email: [email protected] Resumen Se muestra que esta pregunta no puede ser respondida con un no, ni desde el punto de vista físico-médico ni desde el punto de vista metafísico – y para muchos quizás esto es lo más sorprendente. Desde 1989 el autor discute anualmente los problemas del SMOG en Santiago con el Prof. Dr. Otto Dörr-Zegers y otros amigos en Chile. Por cierto que entre tanto se han introducido algunas contramedidas, pero ellas han sido compensadas con creces en el sentido negativo, a través de la constantemente creciente introducción de tráfico o bien del número de máquinas a combustión – motores a combustión. Por eso debe volverse a discutir e incluso en forma aún más intensiva y más fundamental sobre el problema, porque la situación es crítica en lo que se refiere a las enfermedades de las vías respiratorias y los costos económicos causados por ellas. Se indican algunas contramedidas a corto plazo, a mediano plazo y a largo plazo, las que debieran conducir a un diálogo más intenso con los participantes y afectados. A corto y mediano plazo corresponden: a) un sistema de conducción de tránsito mejorado (altamente tecnológico, en lo posible apoyado por satélites), b) menos máquinas y motores a combustión y más limpios, así como procesos de apoyo contra el polvo más eficientes, c) mejor microclima a través de fuentes adicionales en parques y en algunas plazas, d) filtro respiratorio individual contra el polvo y el SMOG fotoquímico para los enfermos de las vías respiratorias. A largo plazo corresponde: 1) un nuevo concepto de tránsito para Santiago, 2) mayor construcción de áreas verdes, 3) la lenta transferencia a una economía empresarial moderada y justa. El autor ha acuñado este nuevo concepto. Es una combinación sinérgica de sociedad científica empresarial (M. Miegel1), economía política basada en el conocimiento (F. Lehner y F. Schmidt-Bleek2) y los principios del “Capitalismo Natural” (P. Hawken et al.3) – parcialmente derivados de ello. Es óptimamente eficaz. Para permanecer también debe enfrentarse a futuro intensamente con las nuevas tecnologías-GNR, es decir, con la tecnología genética, la nanotecnología y la tecnología de la robótica. Hay un fuerte desequilibrio entre el pensamiento, el 1

Meinhard Miegel: The causes of unemployment in Germany and other countries from the first wave of industrialisation, in: Zukunft der Arbeit/EXPO 2000 GmbH, 7/11/97 2 Franz Lehner, Friedrich Schmidt-Bleek: Die Wachstumsmaschine. Der ökonomische Charme der Ökologie, Droemer Verlag, München 1999. 3 Paul Hawken, Amory Lovins, L. Hunter Lovins: Natural Capitalism. Creating the next industrial revolution. Little, Brown and Company, Boston New York London, 1999.

1

lenguaje y lo escrito sobre estos problemas y la necesaria acción práctica, el que debiera reducirse a través de proyectos pilotos concretos. El autor propone un proyecto piloto para poder aprender ya desde pequeños la nueva forma de administrar concretamente. Otro, que se encuentra recién en la fase final, muestra algunas posibilidades nuevas para recibir información filtrada mejor dispuesta para el usuario y que se selecciona en forma más rápida, lo que se vuelve tanto más importante mientras mayor sea el aumento de la información. Es especialmente importante para medidas inmediatas, exitosas, eficaces contra el SMOG de Santiago. 1. Trasfondo físico y metafísico de la pregunta Bajo el concepto medieval de desperdicios se resumen los conceptos de suciedad, escombros – especialmente también malolientes, repugnantes – y basura. A mediados de Julio de este año en Manila se ahogaron más de 200 personas en un depósito de basura que se derrumbó, en el que buscaban cosas todavía aprovechables y en el que en parte incluso vivían. Este hecho y el creciente número de enfermedades de las vías respiratorias condicionadas por el SMOG, especialmente en distintas grandes ciudades, deja en claro que no podemos responder con no a la pregunta desde el punto de vista médico-físico. A continuación se mostrará que tampoco podemos hacer esto – con seguridad inesperadamente para algunos - desde el punto de vista metafísico. En especial la cultura occidental y sus formas en la secularizada civilización europea muestran en comparación con otras tradiciones una especial hipersensibilidad frente a todo lo “impuro, sucio, poco claro y desordenado”. Estas reservas son muy antiguas. Son el resultado, en la medida en que esto puede reconocerse en forma histórica, de una curiosa aversión, que no se observa tanto en las otras culturas, del espiritualismo platónico, estoico, gnóstico frente a la materia. En ella el “espíritu puro”, el más profundo rasgo de ingenio, el “alma”, estaría capturada en la “cárcel de la carne”. Los gnósticos helénicos discriminan en forma extrema el cuerpo y consideran todo lo material como desagradable, repugnante, malo y detestable. El auténtico vestigio central humano más profundo, el espíritu, era bueno, puro, verdadero y sublime. La repugnancia como total desprecio del mundo – este fenómeno se encuentra históricamente sólo en nuestras tradiciones – helénica, pseudo-judía y cristiana – y en el espiritualismo sincrético de los primeros cuatro siglos después de Cristo. En dirección contraria se orientan las decisiones doctrinales eclesiales que reconocen al misericordioso dios creador bueno, que encuentra bueno al ser creado y la encarnación de su “Hijo”, del “Logos”. El que este Logos – una palabra fundamental del pensamiento griego aprovechada por el Evangelio – se haya hecho carne es para el pensamiento griego no sólo una afirmación escandalosa, sino también una enorme provocación. La fe cristiana contrapone a la repugnancia del mundo de este esoterismo gnóstico la afirmación de realidad y corporalidad. La exhortación profética remite al momento concreto entre pasado y presente. Para las experiencias de fe de la religiosidad profética está prohibido consentir en lo concreto: en la corporalidad de la propia existencia, en la inclusión en la creación y la historia dada por la naturaleza, en todo sobre lo que no tenemos que decidir, 2

que no está a la disposición. La existencia corporal está – así se pregunta en forma generalmente seria y existencial – abierta como una pregunta (frente a frente) a través de todo lo que se le da a conocer, así como a lo desconocido e irreconocible. Tal vez la orientación apenas perceptible que conduce al otro lado y hacia fuera hacia la accesibilidad de la experiencia de la fe pueda interpretarse con la mayor fidelidad con el consentimiento de aceptarse y soportarse uno mismo como pregunta abierta. Una pregunta que no puede ser respondida por el Yo, sino sólo por otro. Las historias separadas de las culturas y religiones llegan a su término. Ellas no se transformaron por ejemplo en incoherentes e innecesarias, como opina el secularismo, sino que juntas fueron absorbidas por un acontecimiento global, en el que ellas confluyen irresistiblemente. Ahora estamos todos juntos en una historia. No integrados, no unidos, sino expuestos de nueva forma – a todo lo otro y a todos lo que son los otros y quieren seguir siendo los otros. Esta situación común para nosotros no requiere de ningún integralismo, de ninguna fórmula del mundo de falsos profetas, pero tanto más necesitamos de los que son íntegros en el buen sentido antiguo, porque ellos – para hablar con J. W. von Goethe – no han olvidado: “¡Dios es el Oriente! ¡Dios es el Occidente! La región del Norte y del Sur descansa en la paz de sus manos”. El dualismo gnóstico debió seguir siendo combatido y perseguido hasta el siglo XIII. Pero desplazado a la clandestinidad, desde el Renacimiento este espiritualismo siguió multiplicándose y multiplicándose. Pero no sólo las influencias justificables de la historia de las ideas, más aún los alejamientos retraídos del cuerpo y del mundo que repercuten en el pietismo, puritanismo, idealismo y en el moralismo burgués conciernen a nuestros prejuicios frente a lo que hoy designamos como desperdicios, suciedad, escombros o basura. Pero ellos se han convertido en más inconscientes. Como antes rige como “bueno” lo que parece ser limpio, puro y claro, es decir, esclarecido, clarificado, comprensible, transparente, de olor agradable, de buen olor, etc. Lo maloliente, hediondo, podrido, descompuesto y los excrementos, todo eso provoca como antes aversión y repugnancia. Hay que constatar que en otras culturas tales reacciones de repugnancia no aparecen en igual medida ni determinan la conducta de las personas. Son aversiones específicamente europeas contra la suciedad, la inmundicia, la basura y las eliminaciones (excrementos), las que por ejemplo producen también la discusión sobre la explotación del fango de alcantarillas, lo que yo he vivenciado desde 1989 tanto en Argentina como también en Chile. También hizo imposible la ejecución del proyecto “Aldea Ecológica en el Oasis Lavalle” de Mendoza y motivó al autor a esta preocupación metafísica por el problema desperdicios. Las fobias y perversiones que surgen de ello se basan en una obsesión que con seguridad sólo se presenta así en nuestras sociedades europeas. Es tan poco comprobable como la suposición opuesta: de que a saber la vida – y así también la del ser humano – quedará destruida con la detención de las funciones físicas. El que el ser humano se extinga, que pueda ser destruido substancialmente, de modo que no exista nada más de él fuera de algo de ceniza – existe probablemente sólo en el pensamiento europeo.

3

A ninguna de las formas de pensar de otras tradiciones (extraeuropeas) se le ha ocurrido la identificación de la existencia con su cuerpo y sus funciones fisiológicamente comprobables. De acuerdo con ello el ser humano no llega al mundo vacío y en blanco como una hoja blanca, de modo que su idea de sí mismo recién pueda formarse poco a poco a través de la influencia y la educación, para luego “extinguirse” al morir. (El cadáver es así considerado el prototipo de la basura). Probablemente ninguna otra cultura enseñó a las personas a considerarse de esa forma (reducida) objetiva o cosificada, en cierto modo reducidas a su radiografía. Nuestro pensamiento se ha acostumbrado a pensar en blanco y negro: o vivo o muerto, o aprovechable y por ello digno de atención y de consideración o precisamente indigno y para eliminar. (Poco a poco notamos que esto lleva a consecuencias insensatas e imprudente irracionalidad). Ahora, lo que concierne a los residuos aparentemente sin valor, la basura, los escombros, los desperdicios, las eliminaciones de las sociedades, esta posición a corto plazo (unilateral) se impone también en nuestra civilización recién en el siglo XIX. Porque antes eran evidentes para nosotros formas de conducta hoy impensables. Esto parece ser sintomático. Mucho de lo que considerábamos evidente no es dado por la naturaleza ni natural y por cierto en todos los niveles de nuestra idea de nosotros mismos o bien de nuestras visiones del mundo, no sólo en los ámbitos convertidos en tabú de la corporalidad dada por la naturaleza. Conduce en todo caso a una conducta habitual y adquirida contraria a las normas sociales frente a nuestro ambiente natural, sus plantas y animales, frente a la tierra, al agua y al aire, en resumen, al mundo natural. (Este concepto es más amplio y menos equívoco que el concepto de ambiente). Es curioso que este abuso irresponsable sea observado recién ahora en forma muy lenta. Manifiestamente el ser humano está sobre-exigido y se desvía hacia la absurda defensa de intereses a corto plazo. Tal vez nuestra despreocupación y lentitud se explique también simplemente porque nosotros no experimentamos directamente (concretamente) muchos de los nuevos peligros que amenazan a nuestro ambiente, no los olemos, saboreamos, percibimos ni podemos verlos – sólo “sabemos”, pero realmente no percibimos y contra el mejor conocimiento – por miedo – reaccionamos a ello sólo en forma insuficiente. Ahí donde estos peligros conciernen objetivamente a los seres humanos en medida creciente – aunque a menudo sólo indirectamente – se empiezan a buscar soluciones a los problemas y cada vez se debe hacer más la experiencia de que entonces uno sólo se acerca a la solución de un problema cuando se logra plantear correctamente las preguntas fundamentales. Esto es muy difícil por la indiferencia con que se trata la problemática de los “desperdicios”. - ¡La realidad no responde a preguntas mal planteadas! Pero en todo caso, no debemos sólo pensar, hablar y escribir de otro modo sobre ello, sino también actuar de otro modo, para poder volver a disminuir las repercusiones negativas. En muchos casos puede demostrarse que las “soluciones intermedias” pueden ser muy eficientes, sí, precisamente causar el efecto deseado en el caso individual. Así funcionan los semiconductores que han llevado a la “revolución de la microelectrónica”, sólo a través de contaminaciones específicas (“fallas”) de un cristal muy puro, cultivado. Ya que en todos los aspectos la perfección necesita demasiado de lo que tenemos menos, a saber, tiempo, debe desarrollarse lo más 4

rápido posible un “sentido de imperfección” (“sense of imperfection”) y también debe ser reconocido en las ciencias. Por cierto que con ello no puede ocultarse o disimularse lo que sería realmente necesario y tampoco intentarse justificar el trabajo inexacto y cualitativamente insuficiente. Los errores – mejor dicho incertidumbres – hay que tomarlos hasta cierto punto como inevitables, debiera saberse que ellos entran en mediciones y cálculos. Lo que realmente falla puede o debe agregarse (luego), lo que permanece inevitablemente indeterminado, puede o debe aceptarse. Esto también es una consecuencia de la complementariedad. A través de la orientación “antivelocífera”, biocibernética (entre otros el retroacoplamiento negativo y la aplicación del principio de ensayo y error), la naturaleza minimiza los riesgos asociados a esta indeterminación. Las consecuencias negativas de los errores que surgen por preguntas falsas deben ser atenuadas a través de preguntas correctas.

2. Influencias físicas y psicológicas Cada cuerpo físico tiene una masa inerte que conduce a que él sólo pueda reaccionar con un cierto aplazamiento del tiempo y precisamente, mientras más lento, mayor es su masa. Los “sistemas sociales” también tienen propiedades análogas, es decir, que la conciencia colectiva se queda muy rezagada de los conocimientos científico-técnicos actuales. Esto conduce a que se demore más de 50 años en llevar a la práctica nuevos conocimientos científicos a mayor alcance. Este hecho se conoce también bajo la designación de “efecto de aplazamiento del tiempo” o como “problema de las constantes del tiempo de reacción”. (Este concepto procede de la técnica de la regulación). La magnitud de este aplazamiento del tiempo de la acción es codeterminada a través de dos efectos que se conocen como negación de la percepción (negación de la apercepción) y como “sindrome de los pajes1”. El aplazamiento de la percepción aumenta con el creciente exceso de información. El sindrome de los pajes describe la conducta de una persona que contra su propia convicción actúa por miedo en forma inadecuada o no actúa en absoluto. Mientras mayor sea la “masa inerte” de un sistema – que con frecuencia también significa lo mismo que su complejidad (magnitud) – y mientras mayor su velocidad y la aceleración, mayor es – p. ej. en el auto – su “distancia recorrida con freno puesto”. Con ello aumenta no sólo su probabilidad de accidentes (cuantitativa), sino también su potencial de destrucción (cualitativo). El aumento de la velocidad (de los cambios) de una sociedad, p. ej. su crecimiento económico exponencial, acorta el futuro frente al pasado. Nuestra impresión de que hoy el tiempo corre más rápido que antes no es ningún engaño, sino objetivable. Cada vez más personas se enferman cuando la velocidad de cambios, la aceleración, se hace demasiado grande, ya sea que caigan en una euforia de velocidad o sean

1

Sindrome de los pajes llamado así por el autor G. Hartmann por la conducta de los pajes en el cuento “Los nuevos trajes del emperador”, escrito en 1898 por H. Ch. Andersen, los que después de saber que el emperador no usaba ropa en absoluto, llevaban tras él con tanto más orgullo la cola del traje inexistente.

5

“arrolladas” por los acontecimientos, p. ej. en su lugar de trabajo ante el computador.

3. Cambios del clima y control (monitoreo) 3.1 Calentamiento global Para la radiación solar que cae sobre la tierra, importante para la vida – que da calor – la atmósfera terrestre representa un filtro temporal y espacial muy variable, es decir, una “ventana” con permeabilidad al calor muy diferente. Esto rige también para la energía calórica reflejada por la superficie terrestre. Diferentes regiones espectrales, es decir, de ondas largas o de frecuencias de la radiación son absorbidas, re-emitidas, reflejadas y dispersadas en forma diferente – expresado físicamente. Cálculos cuantitativos más exactos de los llamados balances de radiación en la atmósfera no presuponen sólo mediciones espectroscópicas buenas (“precise and accurate”, es decir, relativa y absolutamente exactas) y de alta resolución (globales, regionales y locales) – en la atmósfera y en los laboratorios – sino también complicados “cálculos de la transferencia de la radiación”, que generalmente requieren también la solución de ecuaciones integrales no lineales (S. Chandrasekhar, Radiative Transfer, Dover Publications Inc., New York, 1960), así como modelos atmosféricos correspondientes. Actualmente estas condiciones previas se cumplen sólo de modo insuficiente y dejan muchas interrogantes todavía sin responder, las que en parte conducen a disputas incomprensibles e innecesarias entre los científicos. Estos trabajos de investigación deben ser realizados para todos los componentes de la atmósfera especialmente importantes en el aspecto espectroscópico, pero en especial para el H2O, que no se presenta sólo en forma de agua líquida (p. ej. en las nubes), vapor de agua (mono-molecular) y hielo (p. ej. en nubes de cristales de hielo), sino también en forma de racimo, es decir, como dímeros, trímeros, polímeros (n*H2O), claturelinos y aerosoles. (G. K. Hartmann; The variability of H2O Fluxes in the Earth’s Atmosphere; Phys. Chem. Earth (C), 25, 3, 189-194, 2000). Sólo entonces podrá lograrse lentamente una separación cuantitativa menos insuficiente de influencias antropógenas y naturales sobre el clima. La atmósfera terrestre contiene – sin considerar el contenido de vapor de agua – 78% (porcentaje de volumen) de N2 (nitrógeno), 21% de O2 (oxígeno), 0,9% de Ar (Argón) y 0,039% de otros gases de vestigio. El 99% de los gases de la atmósfera terrestre no contribuyen a un aislamiento del calor de la tierra frente al espacio frío. De las partes importantes de la atmósfera terrestre sólo el H2O (agua en sus tres fases, en forma de gas, líquida y sólida), el CO2 (dióxido de carbono) y el O3 (ozono) tienen “propiedades aislantes del calor”. Las moléculas de todos los constituyentes de la atmósfera terrestre absorben y emiten energía (de la radiación), p. ej. a las frecuencias a las que vibran. Las simples moléculas de dos átomos como el nitrógeno y el oxígeno vibran a altas frecuencias – como un resorte mecánico tensado entre dos puntos. Por eso absorben menos de la energía calórica que es reflejada desde la tierra en dirección al espacio. A diferencia del oxígeno y el nitrógeno, las moléculas de H2O, CO2 y O3 absorben esta energía especialmente bien, porque por su forma de tres átomos incluso 6

pueden realizar movimientos adicionales, como p. ej. rotar y oscilar alrededor de los tres ejes diferentes. Eso significa que junto a los espectros de vibración de onda corta existen también estos espectros de traslación y de rotación de onda más larga, cuyas frecuencias de resonancias están en la gama del infrarrojo de onda más larga y en la gama de las microondas. Ahí pueden absorber y volver a irradiar la mayor parte de la radiación infrarroja, dependiendo de la presión, la densidad y la temperatura de la atmósfera. Por la misma razón otros gases de tres átomos o más, como el N2O (dióxido nitroso), el SO2 (dióxido de azufre) y FCKWs, también son activos gases de invernadero. Pero todos los gases de invernadero juntos no alcanzan ni siquiera el 0.1 del porcentaje del volumen de toda la atmósfera. El contenido de dióxido de carbono de la atmósfera terrestre está entre 1 – 3 milésimos de la atmósfera terrestre. Pero junto con los otros gases de invernadero hace a la tierra 33 K (Grados Kelvin) más caliente, es decir, incluso un ítem adicional relativamente pequeño puede elevar claramente la temperatura de la tierra. Antes de la revolución industrial los gases de vestigio – incluido el dióxido de carbono – aportaban sólo el 0,028%. Entre tanto, a través de las acciones antropógenas (humanas) como la combustión de combustibles fósiles, la tala de los bosques, etc., la participación ha subido a 0,036%. Este es el valor más alto desde hace 420000 años y la concentración de CO2 se eleva constantemente en alrededor de medio porcentaje al año. Esta concentración desempeña un gran papel, porque alrededor de la mitad de la energía solar que choca con el borde superior de la atmósfera terrestre consiste de luz visible y la otra mitad de infrarrojo invisible. Si en la atmósfera terrestre no hubiera contenido ningún gas (de invernadero) casi toda la radiación solar que alcanza el borde superior de la atmósfera llegaría hasta la superficie terrestre y volvería a ser reflejada inmediatamente al espacio. Por eso nuestra luna es tan fría, porque no tiene atmósfera. Su superficie absorbe la energía solar cuatro veces mejor que la tierra – en parte porque no tiene nubes – pero es en promedio 35 K más fría, precisamente porque la luna no tiene atmósfera para mantener el calor. En cambio la atmósfera terrestre actúa, dicho en forma simplificada, como una “superventana”, es decir, es relativamente permeable para una parte muy grande de la radiación solar, pero bastante impermeable para la lenta radiación que la tierra refleja al espacio. La atmósfera la sujeta como una envoltura semipermeable. El intercambio de energía resultante entre la atmósfera terrestre y la superficie terrestre es 47% mayor que la energía solar incidente y por eso la temperatura promedio de la superficie terrestre es 278 K (15 C Grados Celsius) y no 255 K (-18 C), lo que explica los 33 K mencionados previamente. Esta es también la razón por la cual es posible la vida. La variación del contenido de dióxido de carbono en algunas centésimas de porcentaje también desempeña un papel crítico en el presupuesto de calor de la tierra. La superficie de la tierra calentada intenta irradiar el calor hacia el espacio, más o menos como una taza de café caliente irradia el calor hasta que el café haya alcanzado la temperatura de la pieza. Llevar más dióxido de carbono a la atmósfera corresponde al empleo de un cubre-cafetera que disminuya el calor a través de la evasión. Nuestra “atmósfera terrestre” taza de café siempre está siendo alimentada durante el día por el calor de la “estufa solar”. Mientras el cubre-cafetera más evite la evasión de calor, actúa en forma más aislante y más 7

caliente se pone el café. Entonces, si llevamos más CO2 a la atmósfera, se absorberá más del calor irradiado y se reflejará hacia la superficie terrestre. Así el aire sobre la superficie terrestre se pone más caliente y puede absorber más vapor de agua, lo que lleva incluso a más “aislamiento del calor” y a más nubes. Dependiendo de la altura de las nubes, de la extensión geográfica y otros factores, estas nubes adicionales pueden o llevar incluso a mayor calentamiento o a un enfriamiento a través de mayor recubrimiento de la luz solar incidente. (Algo similar puede decirse de las nubes de cristales de hielo en la estratosfera y mesosfera). Pero en todo caso, más vapor de agua en la atmósfera, dicho más exactamente en la troposfera, significa más precipitación. El aire más caliente hace funcionar más rápido la circulación del agua y la llamada “máquina del tiempo”, lo que lleva a tormentas más fuertes y más lluvia. 0.5 K de calentamiento promedio, global, lleva a un aumento de la cantidad de precipitación global promedio de alrededor de 1%. Es natural que algunos lugares reciban considerablemente más o menos. Eso significa que aquí el conocimiento de los valores promedios ya no es suficiente. El conocimiento de las desviaciones del valor promedio y el conocimiento de las inevitables incertidumbres (“fallas”) de las mediciones se hará tanto más necesario (p. ej. para evaluaciones de riesgos) mientras mayores se hagan los valores extremos y mientras más inestables (caóticos) se hagan los sistemas. (Mientras más se alejen del equilibrio y mientras menos lineales se pongan). Los bancos de datos y los centros de datos deben tener cada vez más en cuenta estas nuevas relaciones. Desde el siglo pasado el aumento de los gases de invernadero ha llevado a que sobre cada metro cuadrado de la superficie terrestre haya adicionalmente dos o tres Watt de calor de radiación y ellos han llevado a 0,6 K el calentamiento de la superficie terrestre. Lo que asombró a los climatólogos fue que en un solo año, a saber, en 1968 – el año más caluroso desde el comienzo de los registros de temperatura en 1860 y por señales indirectas incluso el más caluroso del siglo anterior – la temperatura subió en otro 1/8 K y con ello la temperatura promedio fue 0,7 K más caliente que el valor promedio desde 1961 hasta 1990. Siete de los diez años más calientes en los pasados 130 años – con fechas imprecisas – estuvieron en el período de tiempo de 1990 a 1999, el resto después de 1983 y eso a pesar las fuertes “reacciones”, como la erupción del volcán Mt. Pinatubo, del estratosférico aumento del ozono y las variaciones de la actividad solar. En el año 1998 al menos 56 países sufrieron de graves inundaciones, 45 de extremas olas de calor y períodos de sequía, que entre otras cosas hicieron arder en llamas a bosques tropicales en todo el mundo, los que hasta entonces eran considerados como “ininflamables”. La impresión que tenían muchas personas de que el clima cambia y con mayor frecuencia se producen situaciones meteorológicas más extremas parece confirmarse cada vez más a través de mediciones meteorológicas. El calentamiento de la superficie terrestre cambia el clima, especialmente porque la máquina de calor constantemente mueve mayores cantidades de aire y gira vertiginosamente en desorden. Algunos lugares se vuelven más calientes, otros más fríos, otros más húmedos, otros más secos. Nadie sabe hasta ahora con exactitud y tal vez tampoco lo sabrá nunca cómo será eso para un lugar determinado. Pero el flujo de calor entre el sol, el cielo y la tierra no es determinado sólo por los gases permeables y semipermeables (naturales y 8

antropógenos) de la atmósfera terrestre, sino también por el polvo de los volcanes, de los desiertos y de los ensuciamientos, especialmente de la atmósfera, causados por los seres humanos. En efecto, a través de ello también se ha mantenido algo menor la dimensión del calentamiento de lo que era de esperar. Pero considerando los otros efectos laterales, eso no justifica los ensuciamientos causados por los seres humanos. La atmósfera, los océanos, las plataformas de hielo, las plantas y animales interactúan recíprocamente en procesos incontables, indefinidos, generalmente no lineales, de los cuales muchos hasta ahora son entendidos todavía muy incompletamente. Por cierto que ahora los modernos cálculos modelos por computadora están en condiciones de duplicar históricos desarrollos climáticos, pero los resultados son a pesar de ello todavía tan incompletos que su perfeccionamiento probablemente tomará demasiado tiempo para ofrecer a los políticos una decisiva ayuda oportuna, más inequívoca. Lo que sin duda está establecido es que la composición de la atmósfera terrestre es alterada a través de actividades humanas más rápido de lo que esto sucedió en los últimos 10.000 años. Pero los resultados (políticos) de la discusión sobre el clima se vuelven más insignificantes en la medida en que la “revolución de la productividad de los recursos” – ver capítulo 6, citas en los pies de página 3 y 4 – avanza en forma político-económica. A saber, esto afectaría en forma indirecta (implícita) la protección proyectada y necesaria del clima ante crecientes influencias antropógenas, pero hasta ahora se ha vuelto políticamente sólo insuficiente. 3.2

Supervisión (Monitoreo)

El concepto “supervisión” tiene una historia bastante corta. Antes de la Conferencia de Estocolmo de 1972 prácticamente no existía el concepto “monitoreo” (supervisión) en la literatura. Luego se le prestó cada vez más atención a este concepto y comenzó la confusión con la terminología, en especial con los conceptos surveillance y survey. Se agregaron además los conceptos “bioprueba” y “bio-indicador”. Aquí queremos compartir la siguiente determinación conceptual: “Survey” (exposición/medición) entrega datos sobre variaciones espaciales. Los programas de “surveillance” y de “monitoreo” entregan datos sobre variaciones espaciales y temporales. Es tan difícilmente posible otra distinción entre surveillance y monitoreo que en el futuro debiera prescindirse del concepto surveillance. El monitoreo (supervisión) se definirá ahora como sigue: “Supervisión es el proceso de una observación repetida, con intenciones bien definidas, con relación a uno o varios elementos del ambiente, de acuerdo a planos espaciales y temporales, debiendo utilizarse métodos comparables para las mediciones y para recolecciones de datos. La supervisión entrega información de hechos que se refieren al estado actual y a las tendencias pasadas de los cambios ambientales.” (Esta definición fue aceptada por PANU (Programa Ambiental de las Naciones Unidas). La bio-prueba es una técnica en la que se utilizan organismos para facilitar las mediciones o la detección de efectos.

9

La utilización de indicadores biológicos está muy difundida en programas de supervisión. Sin embargo, en comparación con la bio-prueba, el sistema indicador es más un concepto que una técnica. Un indicador biológico es un objeto viviente (p. ej. plantas, animales) que entrega informaciones claras sobre el cambio del ambiente. Estos cambios pueden ser bióticos o abióticos o ser calificados como cambio cualitativo. Mientras Survey (visión de conjunto) sólo es posible con procedimientos sensores remotos, el monitoreo (la supervisión) se realiza tanto con procedimientos sensores remotos como también con procedimientos in situ. Por ejemplo, los procedimientos de supervisión química y biológica son puros experimentos in situ. Supervisión (monitoreo) ambiental y política: Hasta ahora se ha entregado la siguiente clasificación funcional de la supervisión: 1. Advertencia 2. Pronóstico 3. Orientación – Control 4. Instrumento para decisiones políticas Las redes de supervisión pueden tener varias funciones al mismo tiempo. Cuando se concibe una red de supervisión deben definirse las funciones en el marco de la política ambiental. El desarrollo de los sistemas de supervisión debe estar estrechamente relacionado con el desarrollo de la política ambiental. El ciclo vital característico de un problema ambiental avanza desde a) reconocimiento del problema a b) desarrollo de instrumentos legales, financieros y técnicos, hasta c) control del problema. La función de advertencia es especialmente importante en la época de comienzo, pero también después, cuando hay dificultades fundamentales con el pronóstico o bien orientación – control, que es muy frecuente que sea o será el caso. Sin embargo, las tres etapas sirven en la misma medida como instrumento para decisiones políticas. Ahora bien, hay un considerable riesgo de que los datos de los sistemas de supervisión no sean aprovechados o bien no puedan ser aprovechados en forma suficiente para las decisiones políticas. Esto tiene variadas razones: 1. No son calificados/evaluados. 2. No son presentados en forma agradable para el usuario ni están disponibles con rapidez. 3. Describen cuantitativamente (inevitablemente) probabilidades, pero ningún “hecho-sí-no” claro como se espera con frecuencia en la política. En el ámbito de la política pueden distinguirse tres objetivos de la supervisión: 1. Protección óptima de la salud humana. 2. Impedimento de daños en la agricultura, la ganadería, la pesca, el agua potable u otros bienes de consumo importantes para la vida. 3. Conservación de la naturaleza viva con su riqueza de variedades. La supervisión ecológica puede servir a los tres objetivos. Abarca parámetros biótico-biológicos y físico-químicos, así como físicos. Un “programa ambiental básico” debe servir a los tres objetivos al mismo tiempo. Esto nos obligará paulatinamente a un “aprovechamiento” del ambiente” “que lo preserve”, o bien a la “economía empresarial moderada y justa” propuesta en el Capítulo 6, una nueva economía duradera que uno debe aprender desde niño para poder practicarla bien. 10

Las cambiantes “formas de ver” comienzan a afectar en creciente medida también (positivamente) “duradera” a nuestra comprensión del ambiente o bien mundo contemporáneo. Conservar y aprovechar positivamente la combinación sinérgica de las actividades humanas complementarias – ellas se excluyen en forma lógicamente recíproca – bajo el concepto “aprovechamiento del ambiente que lo preserve” describe el estado de cosas en forma más adecuada que el concepto desarrollo duradero, en el cual, por los muchos significados poco nítidos del concepto “desarrollo”, surgen inevitablemente problemas y preguntas adicionales. Ellos inhiben innecesariamente una concretización fortalecida de la economía duradera. Observación. Bajo la norma del avance económico-técnico el concepto desarrollo debe tener un sentido económico y político social claro. Pero el mundo actual en sus países altamente desarrollados en general recién comienza a percibir que eso no es todo, es decir, el concepto de desarrollo y la pregunta por el objetivo del desarrollo con el que se mide el desarrollo han perdido su claridad. Por cierto que el bienestar económico traerá siempre un objetivo propio en sí y sabrá justificarse en forma inmanente. Recién comenzamos a descubrir las dificultades de cómo uno puede seguir siendo auténtico como perteneciente a un país altamente desarrollado en el intercambio con políticos e intelectuales que trabajan en el desarrollo técnico en países “subdesarrollados”, cuando uno comienza a hablar de la problemática de nuestro avance.

4. La contaminación del aire Según el Diccionario de Sinónimos DUDEN la suciedad tiene el mismo significado que contaminación y se define como sigue: “La suciedad es una materia de diferente tipo que cubre algo, se adhiere a algo o se mezcla con algo y (en este lugar) es percibida como contaminante: el concepto se refiere tanto a algo que es considerado como suciedad en cada caso (polvo o similar) como también a algo que sólo actúa contaminando en determinadas situaciones y relaciones.” La contaminación del aire es un problema muy grande y especialmente difícil de resolver, ya que nuestra atmósfera terrestre no relaciona linealmente entre ellos los problemas tanto globales como también regionales y locales. La atmósfera es para nosotros más que la suma de sus componentes. Un determinado ámbito de calidad es imprescindible para nuestra supervivencia, por lo que decimos también que nuestro aire (la atmósfera) es un existencial. Las discusiones sobre la contaminación del aire presuponen tanto mediciones de la composición de la atmósfera como función del lugar y del tiempo, como también la medición de sus influencias sobre el ambiente – en condiciones marginales totalmente distintas. Aquí naturalmente lo que más interesa es qué peligros son o pueden ser resultado de esta contaminación del aire. La evaluación de riesgos debe considerar tanto la probabilidad (cuantitativa) de comienzo de un peligro como también la calidad de sus efectos siguientes. ¿Cuánto peor – menos aceptable – es un peligro con escasa probabilidad de comienzo, pero con gran efecto negativo que un peligro con gran posibilidad de comienzo, pero 11

generalmente pequeño efecto? Por ejemplo, el improbable GAU (el más posible creciente accidente de un reactor nuclear), en el que hay apenas una posibilidad de sobrevida para los habitantes de una gran región, en comparación con un accidente de auto mucho más probable, en el que generalmente existe una gran posibilidad de sobrevida comparativamente para los pasajeros. La respuesta a preguntas de este tipo depende esencialmente del trasfondo cultural y la comprensión de sí mismos de los consultados. Mientras las mediciones son preponderantemente una tarea para las ciencias naturales, la tarea cae en una evaluación de riesgos en el campo de las ciencias humanas. Ahora bien, uno no debe ver lo esencial en las ciencias humanas sólo en el ideal de la objetividad del conocimiento, sino complementarlo a través del ideal de la participación, que consiste en que ahora se considera también además la relación entre el que conoce y el objeto de su conocimiento. (Esto lo enseña también la física moderna, la mecánica cuántica, dentro de las cuales fue descubierta la complementariedad por Niels Bohr y de las cuales Werner Heisenberg derivó la “relación incierta”.) Ahí se trata de la participación en las expresiones esenciales de la experiencia humana, como se han revelado p. ej. en el arte y en la historia. Participación que puede verificarse especialmente en el diálogo, porque el diálogo tiene la característica de que uno no controla lo que sale de ahí y no afirma que él solamente domina el asunto, sino que se gana en la simultaneidad en la verdad y la reciprocidad.

5. Los problemas de Santiago 5.1 El problema del SMOG El concepto de “SMOG” fue acuñado a fines del siglo XIX en Londres, para describir aquella mezcla amarillenta de humo (smoke) y niebla (fog) que preocupaba a la población de la metrópoli que en ese entonces crecía rápidamente. Este tipo de contaminación del aire llamada también “sopa de arvejas de Londres”, era liberado a través de la intensa emisión de dióxido de azufre (SO2) y hollín como consecuencia de la combustión de carbón sulfuroso. Mientras el hollín fortalecía la tendencia a la formación de niebla, que en aquella región de todos modos se da sobre todo en invierno, el dióxido de azufre se disolvía en las gotas de niebla, formándose esencialmente ácido sulfuroso (H2SO3), del cual puede surgir ácido sulfúrico en pasos reiterados. A través de medidas legales como la limitación de la combustión de carbón sulfuroso o bien la elevación de las chimeneas de centrales eléctricas y de calefacción pudo reducirse entre tanto la contaminación por SO2 de modo que la sopa de arvejas de Londres, que antes era temida sobre todo en los meses de invierno, pertenece ampliamente al pasado. (Mientras se entienda por emisión la expulsión directa de materiales dañinos, con el concepto de contaminación se designa la concentración local de materiales dañinos en la atmósfera.) La “política de las chimeneas altas” llevó realmente a que el SO2 siguiera siendo desechado con las corrientes de aire y la emisión del SO2 británico causa actualmente un daño ácido claramente elevado en Escandinavia. Una similar acción a distancia es causada también por las chimeneas elevadas de los estados industriales de Europa Central. 12

Actualmente en general se entiende por “SMOG” un fenómeno fotoquímico que en contraposición a la “sopa de arvejas de Londres” aparece exclusivamente en regiones urbanas sin niebla. El SMOG fotoquímico surge cuando el óxido nítrico, el monóxido de carbono y el hidrocarburo están expuestos a intensa radiación solar. Con ello se forman substancias fuertemente oxidantes, en especial el ozono, así como partículas en suspensión, las cuales enturbian el aire y con ello reducen el alcance visual. En forma más concentrada el SMOG fotoquímico conduce a la irritación de los ojos y mucosas y a la destrucción de las hojas de determinados tipos de plantas. Con ello la participación del ozono en la atmósfera puede subir a mucho más de 120 ppb (partes por billón, * 10-9), que es considerado como umbral de riesgo para daños en la salud. La materia prima de la que se forma el SMOG fotoquímico proviene casi exclusivamente de los sistemas de escape de los automóviles. Por eso el fenómeno aparece preferentemente en áreas urbanas de alta densidad vehicular e intensa radiación solar. En cada proceso de combustión surgen junto al producto final ideal dióxido de carbono una serie de substancias no oxidadas o no totalmente oxidadas como hidrógeno, monóxido de carbono, así como “hidrocarburos no quemados”. Mientras más elevada la temperatura de combustión, en forma tanto más completa ocurre la combustión con suficiente abastecimiento de oxígeno. Según las condiciones de cada empresa varía la participación relativa de los productos secundarios no deseados; en general sin preparativos adicionales para la limpieza de los escapes se emite tanto monóxido de carbono e hidrocarburos no quemados como también óxido nítrico en cantidades considerables. 5.2. Contramedidas Desde 1989 el autor discute anualmente con el Prof. Dr. Otto Dörr-Zegers y otros amigos de Chile los problemas del SMOG en Santiago. Por cierto que entre tanto ya se han introducido algunas contramedidas, pero ellas han sido sobrecompensadas en sentido negativo a través del constante crecimiento de la propagación del tráfico o bien del número de máquinas a combustión y motores a combustión. Por eso debe seguir discutiéndose e incluso en forma más intensa y fundamental sobre el problema, porque la situación es crítica, en lo que se refiere a las enfermedades de las vías respiratorias y los costos político-económicos producidos por ellas. Debiera discutirse sobre las siguientes contramedidas para Santiago a corto, mediano y largo plazo – que de ningún pretenden ser completas. A corto y mediano plazo: 1. Nuevo sistema de transportes mejorado (high tech, en lo posible apoyado por satélites). 2. Menos máquinas y motores a combustión y más limpios, así como procedimientos de retención del polvo más eficientes. 3. Mejor microclima a través de fuentes adicionales en parques y en algunas plazas. 4. Filtros respiratorios individuales contra el polvo y el SMOG fotoquímico para los enfermos de las vías respiratorias.

13

A largo plazo 1. Nuevo concepto de tránsito para Santiago – ver el ejemplo en Curitiba (en el sudeste de Brasil) en las páginas 288 – 308 en el libro: “Natural Capitalism. Creating the next industrial revolution” de Paul Hawken, Amory Lovins, L. Hunter Lovins: Little, Brown and Company, Boston New York London, 1999. 2. Más “construcción de parques” – ver páginas 87 – 104 en el libro previamente mencionado. 3. Lenta transición a una “economía empresarial moderada y justa”. El autor ha acuñado este nuevo concepto y lo explicará con mayor detalle en los siguientes capítulos.

6.¿Para qué economizamos? Una amplia ventaja ideal de toda economía es: “Aumento del bienestar material e inmaterial, con introducción del conocimiento para más bienestar con menos trabajo”. Este objetivo se hace cada vez más problemático en vista del concepto poco claro de trabajo y de la gran cesantía que está aumentando en todo el mundo. Las medidas político-económicas y político-sociales discutidas actualmente en muchos lugares seguirán siendo insuficientes y satisfarán las exigencias temporalmente sólo en forma insuficiente si no intentamos desarrollar al mismo tiempo una teoría del trabajo desmitologizada, fundamentada antropológicamente y si ahí tenemos a nuestra disposición sólo insuficiente información. A la pregunta: ¿Por qué economizamos?, esperamos respuestas causales o bien intencionalmente duplicables del tipo “porque” – p. ej. porque es necesario para sobrevivir y porque nosotros tenemos sólo limitadamente mucho tiempo (de vida) que no queremos “desperdiciar”. A la pregunta orientada a un objetivo (teleológica): ¿Para qué economizamos?, podríamos responder: “Para no desperdiciar nuestro tiempo”, debiendo explicarse en forma incondicional a qué nos referimos cuando decimos “desperdiciar”. Las respuestas teleológicas son esencialmente más complejas y menos indiscutidas que las respuestas a la pregunta del por qué. El autor da a continuación dos respuestas más a la pregunta: ¿Para qué economizamos? 1. Economizamos para servir tanto a los pobres como a los ricos. Lo óptimo podría rendirlo una combinación sinérgica de sociedad científica empresarial (M. Miegel2), economía política basada en el conocimiento y economía basada en recursos eficientes – (F. Lehner F. Schmidt-Bleek3) y los principios del “Capitalismo Natural” (P. Hawken et al.4). El autor describe el proceso 2

Meinhard Miegel: The causes of unemployment in Germany and other countries from the first wave of industrialisation, en: Futuro del trabajo/EXPO 2000 Sociedad de Responsabilidad Limitada, 7/11/97 3 Franz Lehner, Friedrich Schmidt-Bleek: La máquina del crecimiento. El encanto económico de la ecología. Droemer Verlag, München, 1999. 4 Paul Hawken, Amory Lovins, L. Hunter Lovins: Natural Capitalism. Creating the next industrial revolution. Little, Brown and Company, Boston New York London, 1999.

14

(dinámico) de una combinación sinérgica (positiva) de ellos como una economía moderada y justa, empresarial. Es óptimamente duradera. Para mantener eso debe enfrentarse intensamente en el futuro con las nuevas tecnologías GNR, es decir, con la tecnología genética, la nanotecnología y la tecnología de la robótica. 2. Economizamos para permitirles a los seres humanos una mayor participación en el “todo” y precisamente a través de una “integración” (combinación sinérgica) de trabajo (seriedad) y juego, sobre la base de un “tanto como también” en lugar del unilateral “o una cosa u otra” predominante hasta entonces. Ahí se trata también tanto de lo que uno hace como también de cómo uno lo hace, o sea, de la cantidad y la calidad. La recién definida economía moderada y justa, empresarial, promueve esto. Los tres conceptos “basados en la ciencia” necesitan buenos sistemas de información correspondientes, que actualmente existen sólo en forma muy imperfecta, en especial por el crecimiento exponencial de la “información primaria” y la creciente carencia de “información secundaria” amena para el usuario, disponible a tiempo. Ella condiciona “evaluación de datos”, así como también “vinculación de los datos con el contexto más amplio” (hacia el trasfondo cultural). Para ello se requiere tanto de una mejor combinación entre ser humano y computador como también de una complementación de los “instrumentos” interactivos de los tradicionales sistemas de información. Ambas están por cierto contra la tendencia actual que lleva a la racionalización de la vía de la fuerza de trabajo humano demasiado caro – por estar gravado con impuestos demasiado altos. Una economía empresarial moderada y justa se opondrá fuertemente a esta tendencia y con ello también a la cesantía. También se opondrá a una mayor disminución de la “clase media sana”, la que es tanto más importante para la estabilidad de una sociedad mientras más tecnificada sea ella. (Sana: experiencia y comprensión de sí misma, motivada, comprometida, consciente de la calidad y dispuesta a asumir responsabilidad). Observaciones 1. Los problemas de responsabilidad del producto, los que desempeñan un papel cada vez mayor ante todas las cosas en Estados Unidos, contribuyen – en gran parte involuntariamente – a un mejoramiento de la conciencia de calidad y de la calidad de los productos, así como del trabajo. 2. Debido a que este nuevo pensamiento (ajustado a las medidas prescritas, empresarial) en los últimos 20 años sólo pudo ser transformado en la práctica en forma muy lenta y además desempeña hasta ahora un papel muy subordinado en nuestro sistema de formación, el autor ha propuesto el siguiente proyecto piloto: “La juventud aprende la economía empresarial moderada y justa en hogares de huérfanos y de ancianos (combinados). Proyecto piloto para mayor autoabastecimiento de los hogares a través de la creación de “oasis” eficientes en recursos en regiones secas” (La versión resumida se encuentra en el anexo). 3. En la medida en que – en el área privada y parcialmente también en la industria de clase media – se compren principalmente “productos baratos o sistemas baratos” y uno no calcule o no deba calcular el (propio) tiempo de vida pasajero, irrecuperable o tampoco el tiempo de trabajo de los 15

4.

colaboradores, que es necesario para poner en marcha o mantener en funcionamiento estos sistemas, sólo podrá comunicarse en forma muy imperfecta el verdadero precio final o precio total referido al usuario. Un “leasing duradero” en total menos caro, es decir, a un precio más favorable (préstamo y alquiler – en lugar de comprar barato) también se impondrá sólo en forma lenta en el público en general. Este es un impedimento en el camino hacia la nueva sociedad de prestación de servicios anunciada. Recién cuando vuelva a hacerse más consciente al pensamiento y la percepción europeos cuán valioso es en realidad el tiempo de la vida y que en este contexto el lema que rige en la economía de mercado, “el tiempo es dinero”, puede transformarse en lo contrario, podremos esperar aquí más economía empresarial moderada y justa (conducta duradera). Ahí deberemos constatar con frecuencia en el futuro que algún producto comprado barato se transforma finalmente en muy caro e incluso demasiado caro. Probablemente recién esta forma de leasing duradero como interfaz entre incondicional afirmación de la tecnología y negación de la tecnología puede llevar a una “reconciliación” aceptable y sinérgica para ambas partes. La crisis de la información nos obliga especialmente a reflexionar intensamente sobre cómo podemos filtrar calificando más rápido. Los resultados del proyecto de investigación internacional terminado en Septiembre de este año y dirigido por el autor (FKZ 50 EE 98038) muestran algunas posibilidades nuevas al respecto. Ahí se trató de la “Validación y documentación amena para el usuario, interactiva, de datos filtrados selectivamente del ozono y del vapor de agua de la atmósfera terrestre”. Los resultados fueron publicados en un CD-ROM, nombre abreviado DUST-2, de MPAE. Describen entre otras cosas el nuevo desarrollo de un “(texto) de aprendizaje Browsers” y un nuevo procedimiento multidimensional (gráfico) de búsqueda o bien de selección de datos.

7. La medida de la economía En principio es el tiempo la medida únicamente confiable y probablemente más concluyente de todas las actividades económicas, no sólo de la evaluación objetiva, sino también de la evaluación subjetiva de las acciones. Lo que vale para mí como individuo o para nosotros como comunidad el trabajo, el ocio, las horas de comida, el juego, la oración, el deporte y el compartir con amigos (imprescindible, pero “económicamente inútil”) no hay que medirlo por el tiempo que concedemos a estas actividades. Ahí no debe olvidarse cuán fuertemente sacude a nuestra comprensión anterior del tiempo la moderna cosmología y biología. Quizás por eso también la idea occidental del “tiempo es dinero” pudo aceptar una aceptación tan falta de crítica. Cómo puede entenderse de otro modo que hace 40 años la relación entre las transacciones de bienes y las transacciones financieras era de alrededor de 1 : 1 y hoy de 1 : 30 y que los “aprendices de brujo globales”, los corredores de bolsa, aumentan en forma cada vez más amplia y más rápida sus apuestas en la “ruleta de la bolsa”. En este contexto uno se encuentra en forma cada vez más frecuente con la pregunta: ¿El valor mayor 16

(aspirado) tiene realmente mayor valor? La moderna formación no conduce ni a que los nuevos aprendices de brujo – casi exactamente 200 años después del aprendiz de brujo de Goethe – sepan manejar en forma menos imperfecta su ruleta de la bolsa ni que se confronte en forma menos insuficiente a las negativas repercusiones de la tecnología y a la tendencia velocífera5. No debiera olvidarse que la naturaleza mantiene exitosamente con vida a su sistema más complejo, la evolución, hace muchos millones de años en forma “antivelocífera” (pacientemente) con ensayo y error”, junto con una orientación biocibernética (no lineal) en lugar de con la planificación (programática) lineal, tecnocrática, todavía predominante para nosotros. Se hace tanto más insuficiente mientras mayor y más complejo sea el sistema respectivo. Observación Ocho reglas fundamentales biocibernéticas – ya tienen más de 20 años – (F. Vester6) garantizan la necesaria autorregulación (y estabilidad) del sistema con mínimo paso de energía y gasto de material: 1. El retroacoplamiento negativo domina sobre el positivo en sistemas cerrados auto-regulados relacionados. 2. La función es independiente del crecimiento cuantitativo. 3. Orientación hacia la función en lugar de orientación hacia el producto a través de diversidad y cambio de productos. 4. Principio jiu-jitsu. Dirección y aprovechamiento de fuerzas disponibles. Cascadas, cadenas y acoplamientos de energía. 5. Aprovechamiento repetido de productos, procedimientos y unidades de organización. 6. Reciclaje combinando procesos de un solo uso con procesos circulares. 7. Simbiosis aprovechando la diversidad de pequeños espacios. 8. Design biológico fundamental. Compatibilidad de estructuras técnicas y biológicas. Planificación y desarrollo de feedback. Estas reglas deben ser complementadas hoy por las nuevas provenientes de la teoría de los sistemas de auto-organización. El que estas reglas “naturales” hasta ahora sean consideradas en forma insuficiente se reconoce en: a) Los crecientes problemas de previsión y de tratamiento en los estados nacionales. b) La combinación insuficiente de las reglas (complementarias) empresariales y político-económicas. c) La creciente atomización de la responsabilidad. d) El creciente flujo de leyes y prescripciones y en relación con ello la creciente burocratización de la institucionalización. Se refuerzan recíprocamente y conducen al actuar a retrasos de tiempo cada vez más paralizadores y desde un determinado momento a mayor inseguridad legal. Un papel negativo en lo esencial desempeña ahí también la relación frecuentemente muy desequilibrada de la “planificación de arriba hacia abajo” (“Top to Bottom” planning”) con la de la “planificación de abajo hacia arriba” (bottom to top). La 5

El concepto velocífero fue compuesto por J. W. von Goethe en 1825 a partir de los conceptos velocitas (velocidad) y Lucifer (diablo) para poder describir en forma resumida los peligros de los cambios acelerados. 6 Frederic Vester: Nuevo terreno del pensamiento, dtv 10220, Deutscher Taschenbuch Verlag, München, 1980

17

última es hoy insuficiente en casi todas partes. Esto puede reconocerse en el crecimiento del “trabajo auxiliar no creativo” – en lugar de mayor colaboración sinérgica participativa – p. ej. entre la ciencia y la administración estatal de la ciencia. La transgresión de los costos de planificación en más que el factor dos – a veces incluso más de tres – en la ejecución de muchos grandes proyectos (gigantomaníacos) depende de ello y naturalmente de la “incomprensibilidad” de sistemas complejos. e) El lugar de corte aún faltante, la llamada “interfaz”, la cual podría disminuir las consecuencias negativas de la incompatibilidad entre la contabilidad comercial y financiera. f) Las medidas insuficientes para enfrentar mejor las crecientes dilaciones de tiempo de las acciones. Esto “sacude” en forma cada vez más fuerte la credibilidad del lema “el tiempo es dinero”. g) Que a través de la atomización de la responsabilidad puedan seguir distribuyéndose las “cargas” sin peligro a otros, p. ej. hacia “abajo”, mientras sigue creciendo el producto social bruto (PSB o GNP). Esto se ha visto en la distribución de los enormes costos para el problema del año 2000 (Y2K). Esto cambiará recién cuando exista otro “sistema de medida”. El ser humano se destaca a través del lenguaje frente a las sociedades animales y las formas de comunicación de los animales. Aquí reside al final la última raíz de la libertad que convierte al ser humano en ser humano: la elección. Tiene que elegir y sabe decir lo que exige hacer con ello: seleccionar lo mejor y elegir lo recto y lo justo. Una tremenda exigencia – y al final sobrehumana. Pero el ser humano debe aumentarla, porque debe elegir. Ese es el abismo de la libertad. El ser humano puede equivocar lo mejor y más aún: puede hacer el mal en lugar del bien, puede considerar lo malo como bueno, lo incorrecto como su derecho, la fechoría como su hazaña. Es verdad, el precio que nosotros los seres humanos tenemos que pagar por la libertad es alto. (La libertad no es objeto de la experiencia, sino presupuesto de la razón práctica).

9. Los tres nuevos conceptos de la economía (duradera) en versión resumida 1. M. Miegel exige para su sociedad científica empresarial” para la República Federal de Alemania una lenta transformación del sistema de seguridad social legal con un alejamiento del sistema financiado por los impuestos de la jubilación legal y un acceso correspondientemente mejor de amplias capas de la población al conocimiento y al capital. M. Miegel ve un peligro especial en que el conocimiento y el capital hayan reemplazado al trabajo no sólo como factor de producción, sino también como factor de distribución. 2. F. Lehner y F. Schmidt-Bleek exigen para su “economía política basada en el conocimiento” una desmaterialización - alrededor del factor 10 – de la economía de circulación actual, una producción masiva modular, orientada a los clientes, una disminución de la tributación al trabajo, pero para ello un aumento de la tributación a los recursos. Además esperan una nueva comprensión de la prestación de servicios y que el conocimiento no sólo se 18

convierta en un esencial factor de producción, sino también que el crecimiento consista esencialmente en la acumulación de conocimientos. El factor de MIPS (Material Input Per Service Unit) introducido aquí por Schmidt-Bleek permite cuantificar la eficiencia de los recursos en forma impresionante. Observación: Mientras más complejos (no lineales) se hacen los sistemas a analizar, tanto más difícil se hace considerar aspectos empresariales y políticoeconómicos (complementarios, acoplados) en forma simultáneamente adecuada. 3. Paul Hawken, Amory Lovins y L. Hunter Lovins exigen la introducción de la próxima revolución industrial, con una transformación del capitalismo tradicional en “capitalismo natural”. Esto está estrechamente relacionado con el concepto fundamental de Lehner y Schmidt-Bleek, por cierto técnicamente menos desarrollado (cuantificado), pero (económica)-políticamente más abarcador para ello. Los ejemplos mencionados en el último punto: a) el hiper-auto, b) la ciudad de Curitiba. Ella está en el sudeste de Brasil. El comienzo de la reorganización fue iniciado en 1971 por Jaime Lerner. La ciudad tenía en 1950 alrededor de 300000 habitantes, en 1990 2.1 millones y sigue creciendo, c) las ventajas de la “construcción de áreas verdes” muestran claramente las grandes posibilidades (globales) de una nueva economía duradera, mejor dicho, de una economía empresarial moderada y justa. Según las experiencias del autor en los últimos 12 años ya debiera comenzarse a practicar esto en la juventud en un proceso cooperativo de enseñanza y de aprendizaje. Esto lo propuso el autor en el proyecto piloto mencionado previamente, el que fue pensado en primer lugar para una región seca en Chile, pero también podría ser ejecutado en lugares correspondientemente diferentes.

10. Reconocimiento El autor agradece al director gestor de MPAE, Prof. Dr. V. M. Vasyliunas, por el apoyo a estos trabajos. Agradece especialmente a su amigo, el Prof. Dr. H. A. Fischer-Barnicol, por contribuciones muy importantes – cartas y fragmentos de manuscritos – así como largas e intensas conversaciones. Por su repentina muerte en la primavera de 1999, hay varios manuscritos comenzados en común sólo tratados en forma fragmentaria, en especial sobre el tema de la complementariedad. Agradece a su amigo, el Prof. Dr. O. Dörr-Zegers y a la Señora Adriana Hoffmann (Directora de la institución ambiental chilena CONAMA) por la invitación a dar esta conferencia en Santiago. Agradece a DLR por el apoyo financiero del programa de investigación Fkz. 50 98030 y a DAAD por el apoyo para los costos de viaje. 11.Curriculum vitae científico del autor Gerd Karlheinz Hartmann, nacido en 1937 en Eschwege, 1957-1964 estudió Física en la Universidad Georg-August de Göttingen, donde dio también su examen de doctorado en 1967. Desde 1965 trabaja como científico en el Instituto 19

Max-Planck de Aeronomía, D-37191 Katlenburg-Lindau. Trabajó más de 10 años en la investigación de la atmósfera superior con ayuda de señales de balizas de satélites. Desde 1965 se ocupa también de problemas generales y especiales de información y de documentación, en especial en el aspecto de grandes cantidades de datos dependientes del tiempo y del espacio, como aparecen en sus proyectos científicos. Como consecuencia de ello trabaja actualmente como consejero en distintos gremios nacionales e internacionales y dictado cursos y seminarios en distintos lugares de Europa, pero en especial los Estados Unidos, así como en Argentina y Chile, países que ha visitado con frecuencia en los últimos 30 años en el marco de sus proyectos científicos. De 1975-1978 fue Director interino del Instituto Teil IlkgU (Instituto para el control a largo plazo de las condiciones ambientales geofísicas). Desde 1979 su principal área de trabajo es la investigación de la atmósfera inferior con ayuda de radiometría de microondas. Es ”Principal Investigator” (PI, científico director del proyecto) del proyecto internacional de investigación “Sondeadores Atmosféricos de ondas Milimétricas (MAS) para la instalación en Space Shuttle (STS)”, en el que participan la República Federal de Alemania, Suiza, los Estados Unidos de América (USA) y desde hace algunos años también además Argentina. Este experimento fue realizado con éxito por primera vez en el marco de ATLAS 1 Space Shuttle Mission de la NASA con la cápsula espacial ATLANTIS desde el 24.03.92 hasta el 02.04.92, luego en el marco de la Misión ATLAS 2 con la Space Shuttle DISCOVERY desde el 08.-17.04.1993 y de la Misión ATLAS 3 con la Space Shuttle ATLANTIS en Noviembre de 1994. (http://www.linmpi.mpg.de/english/projecte/masnew) Desde 1980 es consejero para problemas de información en el “Institute for Cultural Cooperation/Intercultural Research (ICC/IIR: Zürich/HEIDELBERG/Pernegg). En los años 80 viajo varías veces a India y Asia por encargo de este instituto para discutir su concepto de un sistema de información intercultural OCIR/VIGRODOS. Ha participado y dado charlas en conferencias internacionales sobre colaboración intercultural. En 1986 se le encargó un curso y fue nombrado profesor temporal invitado de “Teoría de filtro y de información” en la Universidad de Mendoza en Argentina, lo que en el año 1988 fue ampliado al área “Aprovechamiento Protector del Ambiente”. En este contexto, desde 1998 trabaja también en forma honorífica como coordinador internacional del programa ambiental “PRIDEMA” de ahí. Desde 1991 es honoríficamente director científico externo del Instituto de Estudios del Medio Ambiente (IEMA) de la Universidad de Mendoza (Argentina) y profesor titular de la Universidad de Mendoza (UM) de “Percepción remota (remote sensing) para el aprovechamiento protector del ambiente”. Le fue otorgado el Premio (Medalla) Dr. Luis Federico Leloir por colaboración científica internacional con Argentina (en el área de la investigación ambiental) el 10.12.91 por el Prof. Dr. R. F. Matera, Ministro de Investigación y Tecnología de la República Argentina. Desde 1995 trabaja en la “Validación (que eleva el valor)“de datos seleccionados de percepción remota de la atmósfera terrestre. Fue director de una propuesta (experimental) internacional para la investigación de la atmósfera de MARTE – en el marco de la Misión EXPRESA MARTE – planificada por la Agencia Europea de 20

Investigación Espacial (ESA) – hasta que en el verano de 1999 fue suspendida por falta de medios financieros. 1. Privado: Gerd K. Hartmann, Pfarrer Opielka Str. 9, D-37434 Bilshausen; Tel.: +49 -5528-8347 2. Trabajo: Dr. G. K. Hartmann, Instituto Max Planck de Aeronomía; Max-PlanckStr. 2, D-37191 Katlenburg-Lindau; Tel.: +49 –5556 -979 –336/332/344 Fax: +49 –5556 –979 –240; E-Mail: [email protected] 3. Prof. Dr. G. K. Hartmann, Universidad de Mendoza IEMA, Perito Moreno 2397, 5501 Godoy Cruz, Mendoza, Argentina, Tel: +54 –261 –4392939 / 4200740, Fax: +54 –261 - 4392939

21

Get in touch

Social

© Copyright 2013 - 2024 MYDOKUMENT.COM - All rights reserved.