(Apuntes de clase) F. HAYEK Law, Legislation & Liberty Ch. 2 and Ch. 2: Cosmos and Taxis

(Apuntes de clase) F. HAYEK “Law, Legislation & Liberty” Ch. 2 and 3. 1. Ch. 2: Cosmos and Taxis Hayek comienza este capítulo con una cita muy signifi

11 downloads 1649 Views 446KB Size

Recommend Stories


CO 2 +H 2 O O 2 +(CH 2 O)
FOTOSINTESIS CO2 + H2O l luz O2 + (CH2O) Plantas Bacterias acte as Algas fotosintéticas FASES DE LA FOTOSÍNTESIS FASE LUMINOSA FASE S OSC OSCU

Installation instructions for Type CH and BR loadcenters Instrucciones para la instalación de centros de carga tipos CH y BR
Instructional Leaflet Il00300001y Effective February 2014 Installation instructions for Type CH and BR loadcenters Instrucciones para la instalación

Jose Adan Aguerri Ch
Jose Adan Aguerri Ch @jaguerrich Economista | Presidente del Consejo Superior de la Empresa Privada (COSEP). Nicaragua * https://t.co/uR2ekS7TGX On l

Story Transcript

(Apuntes de clase) F. HAYEK “Law, Legislation & Liberty” Ch. 2 and 3. 1. Ch. 2: Cosmos and Taxis Hayek comienza este capítulo con una cita muy significativa de Adam Smith: “El hombre de sistema parece imaginarse que puede acomodar a los diferentes miembros de una gran sociedad tan fácilmente como si pusiera distintas fichas en un tablero de ajedrez. No tiene en cuenta que las fichas del tablero puedan tener otro principio de movimiento que el impuesto por las manos que las colocó sobre el tablero; pero, en el gran tablero de ajedrez de la sociedad humana, cada ficha tiene su propio movimiento, que resulta distinto que el que la legislatura trató de imprimirle. Si estos principios coinciden y actúan en la misma dirección, el juego de la sociedad humana puede seguir fácil y sin contratiempos, y muy probablemente resulte feliz y exitoso. Si actúan en direcciones contrarias, el juego continuará de forma mísera y la sociedad humana se encontrará siempre en el mayor desorden.” 1 Orden: concepto indispensable para discutir cualquier fenómeno complejo. Son a veces sinónimos los de sistema, estructura o patrón. Pero, especialmente en las ciencias sociales, tiende a estar asociado a una concepción autoritaria. Es un estado de cosas con una multiplicidad de elementos de distinto tipo relacionados entre sí que podemos aprender por nuestro conocimiento con alguna parte espacial o temporal del conjunto para formarnos expectativas correctas concernientes a las partes restantes, o al menos expectativas con una alta probabilidad de ser correctas. Los antropólogos sociales han señalado que obviamente existe algún tipo de orden, consistencia y constancia en la vida social – sin los cuales no podríamos satisfacer nuestras necesidades más elementales. ¿Cómo hacer corresponder intenciones con expectativas? Hay dos formas: mediante diseño de alguno es una de ellas. Los amantes del autoritarismo se inclinan por esta forma. Pero los amantes de la libertad, como el arreglo debe ser realizado por alguien, han repudiado este tipo de solución, llamada exógena. No es aplicable a un equilibrio que surge por sí mismo (o endógeno) como lo sugiere el funcionamiento de los mercados. El orden exógeno está necesariamente vinculado con el de organización. Por el contrario, el orden endógeno surge de la autogeneración, como en economía, biología y cibernética. Hablamos de taxis (orden construído) y de cosmos (orden endógeno, significando por ejemplo “el orden correcto en un estado o comunidad”). La teoría social comienza al descubrirse que existen estructuras ordenadas que son producidas por la acción de varios seres humanos pero no son el resultado del diseño humano. Si hay gente indignada por el caos de los negocios humanos, lo que insinuaría la ausencia completa de orden, ello se debe en parte a que no se pueden imaginar un orden no deliberado, y en parte porque para ellos un orden significa 1

Adam Smith,“The Theory of Moral Sentiments”, London, 1759.

algo que tiene un propósito concreto, aspecto en el cual están completamente equivocados. El orden espontáneo sólo puede ser reconstruído por medio de las relaciones existentes entre los elementos. Se trata de un orden abstracto, no concreto. Lo cual significa que a lo sumo seremos capaces de conocer las reglas observadas por los elementos de distinto tipo pero no los elementos individuales y aún menos las circunstancias particulares en que cada elemento está ubicado. Características Los órdenes espontáneos no necesariamente son complejos, pero a diferencia de los arreglos humanos deliberados, pueden alcanzar cualquier grado de complejidad. Lo importante es el propósito. Como no han sido creados por una agencia externa, no tendrán propósito alguno, aunque sean muy útiles para sus individuos. Pero en sentido de biología evolutiva2 es posible usar “conducta con propósito” como una expresión que resume que los elementos han adquirido cierta regularidad de conducta destinada a preservar el orden – presumiblemente porque los que actuaron de cierta manera tuvieron con el orden resultante una mayor probabilidad de éxito que aquellos que no lo hicieron. Es mejor reemplazar el término “propósito” por el de “función”. En la naturaleza se encuentran diversos ejemplos de órdenes espontáneos. En la sociedad, la adopción de un orden espontáneo extiende y limita nuestra posibilidad de control. En los campos de la vida, la mente y la sociedad hallamos estructuras endógenas con tal grado de complejidad que sólo pueden haber sido producidas mediante fuerzas espontáneas. Por dicho motivo, tendremos menos posibilidad de indagar sobre los detalles de ese orden que lo que hubiera sido posible en un arreglo deliberado. Deberemos dejar las particularidades a circunstancias que ignoramos, en especial porque ese orden implica usar el conocimiento separado de todos sus miembros. En consecuencia, el poder de controlar el orden más extenso y complejo del kosmos será mucho más reducido que el que podrá ser ejercido sobre el taxis. Dentro de un orden espontáneo sólo será posible conocer e influir sobre los aspectos abstractos. Los escépticos sobre la interferencia del estado no necesariamente están favor de la anarquía y el desorden, porque la libertad crea su propio orden. Si analizamos un poco, toda sociedad contendrá bits de kosmos y de taxis. La cuestión relevante es cuáles bits serán preponderantes. Los que sostienen la idea de kosmos no son solamente los economistas que están a favor de mercados operando libremente, sino también quienes están a favor de las migraciones libres basándose en que el mercado – y no el gobierno – será quien limitará los flujos; los que no se preocupan por la ruptura del núcleo familiar, bajo el supuesto de que la gente elegirá la estructura familiar óptima para sí mismos; los que sostienen la legalización de la droga, que expresan sus dudas de que semejante política conduzca a la adicción general; durante mucho tiempo se esperó que un pequeño grupo de pensadores de elite logre descubrir cómo elevar la tasa de crecimiento de las economías. Esto es particularmente cierto de los “expertos en desarrollo económico”, que por medio de instituciones de crédito internacional, como el Banco Mundial, se expresan indicando cómo alcanzar esa meta. Recomiendo leer este artículo de William Easterly en el Financial Times, que de paso cita a Hayek: “La libertad es esencial 2

Ver Enrique A. Bour, Lecturas de Metodología Económica y Derecho, Capítulo XIII - Eficiencia, Evolución, Derecho y Economía.

2

para generar espacio para lo imprevisible; es deseable porque hemos aprendido que con ella surge la oportunidad de realizar muchos de nuestros fines. La razón es que el individuo conoce tan poco y [...] que pocas veces sabemos quiénes de entre nosotros sabe qué es lo mejor, por cuyo motivo confiamos en los esfuerzos independientes y competitivos de muchos para inducir a que emerja lo que desearemos cuando lo veamos.” Durante gran parte de la vida de Hayek, la distinción entre kosmos y taxis se correspondió estrechamente con la distinción izquierda-derecha. La izquierda (considerando tanto al stalinismo como a la social-democracia) favorecía la planificación central – taxis – en tanto que la derecha estaba a favor de la mano invisible, cosmos. Pero como hemos vimos más arriba, hoy en día la correspondencia no es tan clara. Chris Dillow ha escrito un libro proveniente de la izquierda, The End of Politics: New Labour and the Folly of Managerialism (2007), según el cual la idea principal del nuevo partido laborista es que igualdad y eficiencia son compañeros, pero no enemigos. Pero ésta es una idea típica de una ideología organizativa – la creencia de que los compromisos entre valores en conflicto pueden ser alejados mediante una política inteligente, que la organización puede reemplazar a la política. Lo cual no es cierto, según Dillow, ya que las principales políticas económicas del nuevo partido laborista – créditos fiscales, salarios mínimos, una mejor educación superior y la promoción de la estabilidad macroeconómica – no han logrado el objetivo de terminar con los compromisos entre igualdad y eficiencia. El problema de la organización no es el mero fracaso de políticas determinadas, ya que hay factores más profundos: no reconoce los múltiples y conflictivos significados de los ideales de igualdad y de eficiencia; supone que los gobiernos tienen conocimiento y racionalidad que, en la práctica, son inalcanzables. Dillow argumenta a favor de expurgar la organización de la escena, y reemplazarla mediante una política genuina. Debería abandonarse la idea de que una elite central puede zanjar los problemas sociales, y en su lugar debatir sobre ideales en conflicto. Como se puede apreciar, detrás de la idea de Dillow está la noción de cosmos. Y cuando los jóvenes usan archivos musicales compartidos para consternación de las compañías grabadoras, son los primeros los que abrazan el cosmos (el orden que surge en forma espontánea cuando a individuos libres se los deja actuar por sí mismos) y las últimas a taxis (el orden humano conscientemente construído). Y los abogados de taxis no solamente se oponen a estas posiciones, sino también son, ora jefes (que creen en la organización top-down); ora paternalistas preocupados por la adicción a “hacer fondo blanco” y la “epidemia de obesidad”; ora izquierdistas que se quejan de la “anarquía” del mercado.

Hay dos aspectos por los cuales el orden puede ser considerado una cuestión de grado. Cómo ordenamos un conjunto de objetos/eventos depende de cuántos atributos de esos elementos (o sus relaciones) somos capaces de predecir. Distintos órdenes pueden diferir unos de otros de dos maneras: la ordenación puede reflejarse en unas pocas relaciones entre los elementos, o en una gran variedad; segundo, la regularidad así definida puede ser tan importante que sea confirmada en casi todas las instancias, o que prevalezca sólo en una mayoría de instancias permitiendo predecir su ocurrencia dentro de un margen probabilístico. El orden del mercado alcanzará sólo una cierta probabilidad de que prevalezcan las relaciones esperadas, pero se trata de la única forma de integrar el conocimiento disperso sobre tantas actividades en un orden único. Los órdenes espontáneos tienen lugar porque sus elementos obedecen ciertas reglas de conducta. Hayek utiliza el concepto de “reglas” no como formas articuladas (“verbalizadas”), sino que es posible descubrirlas según las acciones que

3

siguen los individuos. Reglas que existen y operan sin siquiera ser explícitamente conocidas por aquellos que obedecen a las mismas existen en una gran variedad de campos de la acción humana: el hombre ignora todas las reglas que son una guía de sus acciones, ya que es incapaz de expresarlas en palabras. Sin embargo, no cualquier regularidad de los elementos asegura un orden global. Algunas reglas individuales podrían hacer imposible alcanzar un orden global. Hay un ejemplo clásico de las ciencias físicas, a saber la segunda ley de la termodinámica o ley de entropía, según la cual "La cantidad de entropía de cualquier sistema aislado termodinámicamente tiende a incrementarse con el tiempo". Más sencillamente, cuando una parte de un sistema cerrado interactúa con otra parte, la energía tiende a dividirse por igual, hasta que el sistema alcanza un equilibrio térmico. Luego, la tendencia de un gas a desplazarse a velocidad constante en línea recta da lugar a un estado de “desorden perfecto” o entropía, magnitud que mide la parte de la energía que no puede utilizarse para producir un trabajo; es el grado de desorden que poseen las moléculas que integran un cuerpo, o también el grado de irreversibilidad alcanzada después de un proceso que implique transformación de energía.

En forma similar, resulta evidente que en una sociedad la conducta perfectamente regular de los individuos sólo puede ocasionar desorden; si la regla fuera que todo individuo tratara de matar a todo otro individuo que encuentre, o se aleje tan pronto lo vea, se tendría como resultado una completa imposibilidad de orden con actividades de los individuos en base a la cooperación. Luego la sociedad sólo puede existir si mediante un proceso de selección las reglas han evolucionado conduciendo a los individuos a comportarse de forma que la vida social sea posible. Para ello, la selección actuará como entre sociedades de distintos tipos, guiándose por las propiedades de cada orden individual – esto es, la propensión a obedecer reglas determinadas de conducta sobre las cuales descansa la acción grupal. Es decir, cada individuo reaccionará a circunstancias propias, conocidas solamente por él. Esta exigencia sería posteriormente constituída como uno de los elementos definitorios de la descentralización de la información en una economía por Leonid Hurwicz3.

Pero las respuestas individuales a las circunstancias particulares darán como resultado un orden social sólo si los individuos obedecen las reglas que producirán un orden. Aún una similitud limitada de su conducta puede ser suficiente si las reglas obedecidas son tales que den lugar a un orden. Este orden siempre será una adaptación a la multitud de circunstancias conocidas por todos tomadas en forma conjunta, pero desconocidas para cualquiera en su totalidad (ésta es otra característica de la descentralización de la información en una economía). Las respuestas de los individuos a los eventos de su entorno sólo requieren ser similares en ciertos aspectos abstractos para lograr que se realice un orden global como resultado. ¿Qué propiedades deben tener las reglas para que la acción dispersa de los individuos conduzca a un orden global? En una sociedad moderna 3

Leonid Hurwicz, “Optimality and Informational Efficiency in Resource Allocation Probles” (in Mathematical Methods in the Social Sciences, ed. Kenneth J. Arrow, Patrick Suppes and Samuel Karlin, 1960). Véase también L. Hurwicz, “On the concept and Possibility of Informational Decentralization” (in Readings in Welfare Economics, ed. Kenneth J. Arrow and Tibor Scitovsky, 1969).

4

basada en el intercambio, una de las principales regularidades de conducta individual resulta del parecido de las situaciones que muchos individuos enfrentan para ganar su ingreso; en particular, las reacciones esperables de curvas crecientes de oferta de trabajo. Pero las reglas sobre las que descansa un orden espontáneo no tienen siempre que tener origen espontáneo. Aunque se haya formado un orden espontáneo en un origen, la gente aprendió en forma gradual a mejorar estas reglas; incluso es concebible que la formación de un orden espontáneo descanse por completo sobre reglas hechas en forma deliberada. En nuestras sociedades, sólo algunas reglas (pero no todas) serán resultado del diseño deliberado, en tanto que las reglas morales y de la costumbre serán desarrollos espontáneos. Pero el carácter de las reglas deliberadamente introducidas seguirá siendo de raíz espontánea, porque habrá circunstancias particulares que dependerán de varias circunstancias que el que las diseñó ignoró en su momento. El contenido particular del orden dependerá de las circunstancias concretas que sólo serán conocidas por los individuos que obedecen a las reglas y las aplican a hechos que solamente ellos conocen. El orden resultante dependerá del conocimiento individual. El orden espontáneo de una sociedad está conformado por individuos y organizaciones. Para muchas tareas limitadas, una organización es el método más poderoso de coordinación, porque permite adaptar el orden resultante en forma más plena a nuestros deseos; en contrapartida, cuando las circunstancias a ser tenidas en cuenta son de gran complejidad, se debe recurrir a las fuerzas del orden espontáneo, ya que nuestro poder de acción está necesariamente restringido. Esto no significa que ambos tipos de orden puedan ser combinados de la manera buscada. En una sociedad libre, grupos de gente se organizan para alcanzar ciertos fines, pero la coordinación de actividades de todas estas organizaciones separadas – así como de los individuos separados – se realiza a través del orden espontáneo. Son organizaciones la familia, la planta de producción, la empresa, la sociedad anónima y varios tipos de sociedades, todas las instituciones públicas y el gobierno. Todas ellas están integradas en un orden espontáneo más amplio. Vamos a reservar el término “sociedad” para este orden amplio espontáneo de tal forma de distinguirlo de los grupos más pequeños que existen en ella, así como de grupos más o menos aislados como las hordas, tribus o clanes, que actúan en ciertos aspectos bajo una dirección central orientada. Los límites de una sociedad no requieren ser tan estrictos como los de una organización. A menudo tendrán uno o varios núcleos de individuos más estrechamente conectados entre sí ocupando un lugar central dentro de un orden extenso pero conexo, lo que puede resultar de la proximidad espacial, etc. Y puede existir traslapamiento de distintas sociedades parciales donde cada individuo termine siendo miembro de la gran sociedad y de numerosos sub-órdenes espontáneos de sociedades parciales, así como de organizaciones. Entre las organizaciones sociales la que ocupa el lugar más especial es el gobierno. Aunque se podría imaginar que el orden espontáneo de la sociedad pueda existir sin gobierno – cuando las reglas mínimas necesarias para la formación de ese orden son observadas sin un aparato organizado para hacerlas cumplir – en la

5

mayoría de las circunstancias la organización gobierno resulta indispensable para que las reglas sean cumplidas. Esta función es parecida a la de una brigada de mantenimiento de una fábrica, ya que no produce bienes o servicios para los consumidores, sino que trata que el mecanismo regulador se mantenga operativo. La misma organización de mantenimiento habitualmente se espera que rinda otros servicios que no estarán a cargo del orden espontáneo – porque no los puede brindar en forma adecuada. Esta distinción entre función coactiva y función de servicios es de importancia fundamental, ya que en el caso de la segunda se trata de una organización más, pero en la primera facilita una condición esencial para preservar el orden general. Es usual diferenciar estos dos órdenes como “sociedad” y “gobierno”. No es necesario hablar de “estado”. Reglas del orden espontáneo vs reglas de la organización La tesis de Hayek es que es imposible combinar estos dos sistemas. Toda organización requiere reglas así como comandos específicos. Toda organización en la cual sus miembros no sean meros instrumentos del organizador determinará sus comandos como funciones a ser cumplidas por cada miembro, los objetivos a alcanzar, y ciertos aspectos generales de los métodos a ser empleados, y dejará los detalles a decisión de los individuos sobre la base de sus conocimientos y habilidades específicos. Aquí la organización se topa con el problema que encuentra cualquier actividad humana compleja: el organizador debe desear que los individuos que cooperan hagan uso del conocimiento que él mismo no tiene. No hay organización (sino las más simples) en que una sola mente posea todos los detalles necesarios. Nadie logró hasta ahora en forma deliberada acomodar todas las actividades que hay en una sociedad compleja. Lo distintivo de las reglas de la organización es que son reglas para la realización de tareas determinadas. Se presupone que el lugar de cada individuo en una estructura fija está determinado por una directiva y que las reglas que cada uno debe obedecer dependen del lugar que le fue asignado y de los fines particulares que le indicaron. Las reglas regulan meramente en forma detallada la acción de los funcionarios que se desempeñan en el gobierno. Las reglas organizativas son subsidiarias de directivas, llenando el hueco que pueda existir. Serán diferentes para distintos miembros de la organización según los roles, y deberán ser interpretadas a la luz de los propósitos perseguidos. En contraste, las reglas del orden espontáneo deben ser independientes del propósito y serán las mismas, si no para todos los miembros, al menos para la clase completa de miembros no designados mediante su nombre. Deben ser aplicables a un número desconocido y no determinable de personas e instancias. Serán aplicadas por los individuos a la luz de su conocimiento y propósito respectivos. Su aplicación no dependerá de ningún propósito común, que los individuos no necesitan conocer. Esto implica que las reglas de un orden espontáneo no tienen un fin concreto o predecible por nadie en particular. A mayor complejidad del orden buscado, mayor será la porción de acciones separadas determinadas por circunstancias desconocidas para los que tienen que dirigir a una organización. Fue gracias al orden espontáneo que la estructura de la sociedad moderna alcanzó su grado de

6

complejidad que excede con mucho el que ha sido alcanzado por cualquier organización deliberada. Mantener la proposición de que una sociedad debe ser planeada porque es compleja es, por tanto, una paradoja y una falta de comprensión de estas circunstancias. Al contrario, se trata de que el orden de semejante complejidad sea preservado sin dirigir a sus miembros, sino en forma indirecta haciendo cumplir y mejorando las reglas que conducen al orden espontáneo. El orden espontáneo no puede ser reemplazado por una organización, pero también es imposible utilizar el conocimiento disperso de todos sus miembros. Nunca es racional adoptar semejante combinación de orden espontáneo y organización. La clave del argumento anti-intervencionista en el orden de mercado es: nunca será ventajoso complementar las reglas del orden espontáneo mediante comandos aislados y subsidiarios con respecto a las acciones guiadas por dicho orden. ¿Por qué? El orden espontáneo surge de cada elemento hallándose en equilibrio con los restantes factores operativos y ajustándose unos a otros; este equilibrio será destruído si las acciones de alguna agencia externa tienen lugar basadas en un conocimiento diferente y con distintos fines. Organismo y organización Desde principios del siglo XIX estos dos términos han sido usados contrastándolos entre sí. Hemos visto que es preferible evitar al primero y adoptar el segundo. Siguen algunos comentarios de Hayek sobre las analogías organísmicas y por qué los organismos deben ser distinguidos de los órdenes espontáneos de la sociedad. Herbert Spencer (1820-1903), filósofo, psicólogo y sociólogo británico, fue uno de los que mantuvo la tesis de “la sociedad como organismo”. Pero un organismo es un orden espontáneo de tipo especial, con propiedades que no pertenecen a todos los órdenes espontáneos. Lo que los hace diferentes de los órdenes espontáneos es que en un organismo la mayor parte de los elementos individuales ocupa un lugar fijo que, al menos hasta la madurez del individuo, es retenido para siempre. Además, son sistemas más o menos constantes con un número fijo de elementos, que aunque a veces pueden ser reemplazados por otros equivalentes, mantienen un orden espacial perceptible sensitivamente.

Son, por lo tanto, órdenes espontáneos de tipo más concreto que una sociedad, que puede preservarse aunque el número de elementos cambie y los individuos cambien de lugar. La interpretación que asocia a una sociedad con un organismo casi siempre ha sido usada para defender la tesis jerárquica y autoritaria, que no tiene puntos en común con la teoría del orden espontáneo. Por otro lado, organización y organismo fueron usados con frecuencia en el siglo XIX en oposición a organismo, para referirse a toda la discusión concerniente al orden construído o taxis. 2. Ch. 3: Principles and Expediency Fines individuales y beneficios colectivos Hayek mantiene la tesis de que la libertad de todos en usar su conocimiento para sus propios fines, bajo la sola restricción de

7

que sea bajo reglas de conducta justa de aplicación universal, es probable que produzca a los involucrados las mejores condiciones para alcanzar sus fines; y que ese sistema se logra y sostiene sólo si toda autoridad, incluso la de las mayorías, es limitada en el ejercicio del poder coactivo mediante principios generales a los que se ha comprometido la comunidad. Naturalmente, a lo largo del espectro político, diversos grupos difieren sobre lo que creen que constituye una "verdadera" libertad política. Friedrich Hayek señala que la famosa "libertad" ha sido probablemente la palabra de la que más ha abusado la historia reciente. Su imperio sólo puede ser preservado siguiendo principios, dejando de lado la “conveniencia” (expediency). Ya en Caminos de Servidumbre Hayek había mantenido que una vez que se dejan de lado principios de una sociedad libre – por escaso que sea el desvío – se termina inevitablemente en una sociedad totalitaria. Las „necesidades‟ políticas son en general consecuencias de medidas anteriores Se tiene un buen ejemplo con el problema actual que ha planteado el gobierno nacional, pugnando por seguir distorsionando el sistema de precios (vía impuestos) con el argumento de que los recursos son necesarios para „mejorar‟ la distribución del ingreso. Aún cuando se acepte la aplicación de fondos a este destino, cabe visualizar que la situación actual de „mala‟ distribución del ingreso no es exclusivamente producto del pasado, sino un resultado nítido de la mala asignación de recursos del Tesoro en los últimos cinco años (sugiero leer mi artículo “Las retenciones, Laffer, Hurwicz y los incentivos al productor”, Indicadores de Coyuntura, Septiembre 2009, Nº 502). En teoría económica, un actor racional que opta por desviarse de la conducta racional a través del tiempo lleva al problema de la “inconsistencia temporal”.4 Existe el peligro de adjudicar más importancia a lo que es predecible que a las meras consecuencias posibles de nuestras acciones Preservar un sistema de libre mercado es muy difícil, porque se requiere el rechazo constante de medidas que aparecen como necesarias para obtener resultados particulares que entran en conflicto con una regla general, con frecuencia sabiendo cuáles serán los costos de no cumplir con dicha regla en esa instancia. Hayek recomienda en esos casos una defensa dogmática de la libertad sin hacer concesión alguna a la conveniencia. Realismo espurio y el coraje que se requiere para considerar utopías Utopía, como ideología, hoy es una „mala palabra‟. Pero Hayek sostiene que una sociedad libre constituye no solamente una precondición indispensable de cualquier política racional, sino la principal contribución que la ciencia puede hacer para lograr resolver los problemas de política práctica. El rol del abogado en la evolución política La legislación es el instrumento principal de cambio deliberado en la sociedad moderna. Pero es imposible el rediseño global de un sistema legal. (Popper criticaría de frente el "método holístico" como incapaz de analizar ninguna realidad. "Las totalidades en tal sentido no pueden ser objeto 4

Ver Robert Strotz, “Myopia and Inconsistency in Dynamic Utility Maxization”, Rev. Econ. St., 23(3), 1956, Enrique Bour, Tratado de Microeconomía, 2009, Capítulo VIII.

8

de estudio científico alguno". Es dicho método el que ha llevado a las grandes utopías modernas y a los grandes planes sociales totales que según Popper jamás alcanzaron sus objetivos ya que impiden cualquier control científico al pretender "transformar la sociedad" in toto. ) El derecho como proceso. El proceso de cambio legislativo puede traer aparejadas consecuencias no deseadas o impensadas, de las cuales el abogado es una herramienta involuntaria. Se está viviendo un período de transformación interna del derecho y de seguir ese camino el derecho dejará de proteger la libertad individual. El pensamiento legal ya parece estar gobernado por nuevas concepciones de la función del derecho, que si se aplicaran estas concepciones de forma consistente, todo el sistema de reglas de conducta individual quedaría transformado en un sistema de reglas de organización. En materia jurisprudencial – como ya se nota en nuestro país, Argentina – toda la concepción del derecho, incluyendo al derecho privado, se ha puesto al día por abogados cuya preocupación principal es el derecho público o las reglas de organización del gobierno. El Hayek pesimista. El desarrollo moderno del derecho ha sido guiado por economía falsa Hayek pone como ejemplo a Carl Schmitt. Carl Schmitt (1888 - 1985) fue un jurista de estado alemán. Estaba adscripto a la escuela del “Realismo político”. Escribió centrado en el conflicto como objeto de estudio de la ciencia política, y más concretamente la guerra. Su obra atraviesa los avatares políticos de su país y de Europa a lo largo del siglo XX. Al igual que Heidegger, militó en el Partido Nacional-socialista de los Trabajadores alemanes, pero las amenazas de la S.S., que lo consideraba un advenedizo, lo apartaron del primer plano de la vida pública. Como Maquiavelo, lo ha perseguido una reputación legendaria. Es notable, en la discusión de Schmitt de la época europea del mundo, el papel desempeñado por el Nuevo Mundo, que finalmente reemplazó al Viejo continente y terminó siendo el árbitro entre Europa y la política mundial. Según Schmitt, los conflictos internos de USA entre presencia económica y ausencia política, entre aislacionismo e intervencionismo, son problemas globales, que aún hoy imponen restricciones al nuevo orden mundial. Pero cabe decir que, aunque Schmitt fue crítico de las acciones de USA en el siglo XX y después de la Segunda Guerra Mundial, consideraba a USA como la única entidad capaz de resolver la crisis del orden global. 3. Antecedentes del pensamiento de Hayek5 Una larguísima historia del pensamiento occidental precede los puntos de vista hayekianos. La historia de la reflexión filosófica sobre la relación entre el cuerpo y la mente a partir de Descartes es la historia de los innumerables intentos por escapar del punto muerto cartesiano. Las primeras maniobras de esta clase, como las de Malebranche, Spinoza, Leibniz y los materialistas franceses La Mettrie y Cabanis, fueron formuladas en el contexto de la metafísica, como respuesta directa al dualismo cartesiano. Las perspectivas posteriores, que se originaron en el siglo XIX, necesitaron reconciliar la evidencia alcanzada a partir de la localización de las funciones cerebrales y los desórdenes nerviosos funcionales con las teorías prevalecientes en biología y psicología. Estas 5

Esta sección ha sido extractada de Robert H. Wozniak, Mente y Cuerpo: de René Descartes A William James (traducción de la versión original en inglés de Miguel Angel de la Cruz Vives).

9

discusiones reflejan la nueva aceptación del punto de vista de que el cerebro hace el papel de órgano de la mente. A pesar de que estas teorías de las relaciones mente/cerebro epifenomenalismo, interaccionismo, monismo de aspecto dual [dual-aspect monism] y teoría de la materia mental- fueron formuladas en el contexto de la ciencia, estaban también orientadas a soslayar el punto muerto cartesiano. Si el mundo natural está radicalmente dividido entre lo mental y lo físico, de modo que lo físico es extenso en el espacio y lo mental no, y si la naturaleza de la causalidad es tal que las causas y efectos deben tener una conexión necesaria y ser de tipo similar, entonces el interaccionismo mente/cuerpo cartesiano es obviamente insostenible. Tal vez el primer intento importante de tratar esta contradicción en la obra de Descartes es lo que se conoce como ocasionalismo. A pesar de que fue precedida e influenciada por Le discernement du corps et de l'ame (1666) de Géraud de Cordemoy (fallecido en 1684), la obra de Nicolás Malebranche (1638-1715) fue probablemente la más influyente del ocasionalismo. Nacido en París y educado en el colegio de La Marche y en la Sorbona, Malebranche comenzó a leer a Descartes en 1664. Una década después, publicó De la recherche de la vérité en la que argumentó que las dos sustancias de Descartes, mente y cuerpo, no tenían relación causal. Dios era la única causa verdadera. No solo no hay influencia de la mente sobre el cuerpo o del cuerpo sobre la mente, sino que no hay causalidad operativa alguna excepto cuando Dios, la única causa verdadera, interviene para producir las regularidades que ocurren en la experiencia. Así, por ejemplo, cuando una persona quiere mover un dedo, ello sirve de ocasión para que Dios mueva el dedo; cuando un objeto aparece de pronto en el campo de visión de una persona, ello sirve de ocasión a Dios para producir una percepción visual en la mente de la persona. Un intento alternativo y mucho más duradero para responder al punto muerto cartesiano fue el de Baruch Spinoza (1632-1677). Nacido en Amsterdam, Spinoza pasó su vida como pulidor de lentes. Siendo un judío expulsado de la sinagoga por heterodoxia, mantenía pocas relaciones con sus contemporáneos holandeses o judíos y publicó poco durante su vida. Su obra maestra de metafísica, De ethica, apareció en su Opera posthuma, publicada en 1677. Con el propósito de salvaguardar la noción de Dios como la única causa verdadera sin sacrificar la idea de una causalidad operativa tanto en la esfera mental como física, Spinoza abandonó las dos sustancias de Descartes a favor de la que ha llegado a ser llamada teoría del aspecto dual. Las teorías del aspecto dual están basadas en la noción de que lo mental y lo físico son símplemente diferentes aspectos de una única y la misma sustancia. Para Spinoza, la única sustancia era Dios. Aunque estaba de acuerdo con Descartes en que el mundo de la conciencia y el de la extensión estaban cualitativamente separados, Spinoza rechaza el punto de vista cartesiano de que la conciencia y la extensión son dos sustancias finitas a favor de la noción de que son atributos de una única sustancia infinita. Esta sustancia, Dios, es la esencia universal o naturaleza de todo lo que existe. La consecuencia directa del punto de vista de Spinoza es que mientras los acontecimientos mentales pueden determinar sólo otros acontecimientos mentales y los movimientos físicos pueden determinar sólo otros movimientos físicos, la mente y el cuerpo sin embargo tienen una coordinación preestablecida, puesto que la misma esencia divina establece las conexiones entre ambas clases y no puede ser auto-contradictoria. En la última mitad del siglo XIX, como veremos, las teorías del aspecto dual experimentaron un resurgimiento. Otra alternativa al interaccionismo cartesiano es el del paralelismo psicofísico. Esta perspectiva mantiene tanto el dualismo entre la mente y el cuerpo como la noción de una correlación regular entre los fenómenos físicos y mentales, pero esquiva cualquier

10

asunción de una conexión causal mente/cuerpo, directa o indirecta. El paralelismo psicofísico esquiva el interaccionismo sobre la base de que fenómentos tan totalmente diferentes como los de la mente y el cuerpo no pueden incidir el uno en el otro. También rechaza el ocasionalismo y la teoría del aspecto dual en base a que ninguna tercera entidad, cualquiera que sea, puede ser responsable de semejantes efectos enormemente diferentes. Los paralelistas símplemente aceptan el hecho de que cada fenómeno mental está correlacionado con un fenómeno físico de tal modo que cuando uno ocurre, también debe producirse el otro. Un paralelismo de esta forma es usualmente atribuído a Gottfried Wilhelm Leibniz (16461716). Historiador, matemático, filósofo, científico y diplomático, Leibniz nació y recibió la mayor parte de su educación en Leipzig. En 1676, después de un periodo en Mainz y cuatro años en París, fue a Hanover, donde pasó el resto de su vida. Corresponsal empedernido, colaborador de publicaciones intelectuales, y creador de manuscritos, la parte más importante de su obra está contenida en cartas, publicadas en forma de artículos, o que quedaron sin publicar a su muerte. En el Système nouveau de la nature (1695) y en el Eclaircissement du nouveau sisteme (1696), Leibniz presenta la famosa descripción del paralelismo psicofísico en la que adopta una metáfora ocasionalista para sostener el punto de vista de que el alma y el cuerpo existen en una armonía preestablecida. Comparando el alma y el cuerpo con dos relojes que están en perfecto acuerdo, Leibniz argumenta que hay sólo tres posibles fuentes para su concordancia. Puede ocurrir por influencia mutua (interaccionismo), a través de los esfuerzos de un experto operario que regule los relojes y los mantenga de acuerdo (ocasionalismo), o en virtud del hecho de que han sido construidos desde el comienzo para que su futura armonía esté asegurada (paralelismo). Leibniz rechaza el interaccionismo porque es imposible concebir partículas materiales pasando de una sustancia a otra y el ocasionalismo por invocar la intervención de un Deus ex machina en la serie natural de los fenómenos. Lo que permanece es el paralelismo -la noción de que la mente y el cuerpo existen en una armonía que ha sido preestablecida por Dios desde el momento de la creación. En terminología hayekiana, ocasionalismo y paralelismo serían una manifestación de taxis, en tanto que el interaccionismo lo sería de kosmos. Todos los puntos de vista anteriores, incluso el de Spinoza, hacen alguna distinción entre la mente y el cuerpo. En cuanto se establece esta distinción a cualquier nivel, se origina de inmediato el problema de la relación entre la mente y el cuerpo. Para evitar por completo este problema, es necesario negar cualquier distinción entre la mente y el cuerpo. En el curso de la historia intelectual las negaciones de este tipo han tomado diferentes formas. El inmaterialismo, cuyo más importante representante es George Berkeley (1685-1753) en su A Treatise concerning the Principles of Human Knowledge (1710), niega incluso la posibilidad de la sustancia material sin mente. Para Berkeley, para que algo exista debe ser percibido o ser la actividad de la mente durante la percepción. Desde esta perspectiva, no hay distinción mente/cuerpo porque lo que pensamos como cuerpo es simplemente la percepción de la mente. Aunque Berkeley tuvo pocos partidarios entre sus contemporáneos, el inmaterialismo resurgió a finales del siglo XIX con el aspecto de la teoría de la materia mental. El materialismo, que data de la antigüedad, mantiene que la materia es lo fundamental. Para cualquier cosa que pueda existir, su existencia depende de la materia. En su versión más extrema, el materialismo niega completamente la existencia de fenómenos mentales, un punto de vista que parece tener sus raíces en la concepción cartesiana de los animales como autómatas puramente físicos. De forma menos extrema, el materialismo considera

11

los fenómenos mentales como causalmente dependientes de los fenómenos corporales, pero no niega su existencia. Este fue el punto de vista presentado un siglo después de Descartes por Julien Offray de la Mettrie (1709-1751). La Mettrie nació en Bretaña, en la ciudad de Saint-Malo. Después de estudiar medicina en París y en Rheims, trabajó a las órdenes de Hermann Boerhaave en Leiden. En 1745, publicó su primera obra, Histoire naturelle de l'âme. El clamor público contra su materialismo -exacerbado por la publicación de una imprudente sátira médica- llevó a La Mettrie a autoexiliarse en Holanda. Allí, en 1748, publicó L'homme machine, una prolongación del concepto de autómata de Descartes de los animales al hombre. Con L'homme machine, La Mettrie logró poner a prueba incluso la paciencia del liberal clero holandés. El libro fue públicamente quemado y La Mettrie se vió obligado a buscar la protección de Federico el Grande en Berlín. Allí, hasta su muerte en 1751, continuó publicando sobre diversos temas, normalmente de una manera calculada para enfurecer a sus enemigos. Por varios motivos, L'homme machine fue una obra demoledora. Aunque argumentaba a partir de la idea de la uniforme dependencia material de los estados del alma en los estados del cuerpo, mantenía un inconfundible tono antimetafísico. Como señala Vartanian, en La Mettrie "la visión naturalista del hombre... es presentada principalmente como una hipótesis general heurística necesaria para el estudio positivo de la conducta, sin la necesidad de ser sentida... para hacer los procesos mentales reductivamente idénticos a sus causas psicológicas". Además, L'homme machine introduce la noción crítica de que la conciencia y los procesos voluntarios son sólo distinguidos a partir de actividades involuntarias e instintivas por medio de la relativa complejidad de su sustrato mecánico. Al desarrollar este punto, La Mettrie fue más allá del mecanicismo estático de Descartes para concebir la máquina viva como un sistema con propósitos, autónomo y dinámico. A pesar de ser vilipendiado en su propio tiempo, la influencia -frecuentemente no reconocida- de La Mettrie se mantuvo viva durante varios años en los círculos intelectuales franceses. Pierre Jean Georges Cabanis (1757-1808) es uno de los que están más en deuda con las ideas de La Mettrie. Efectivamente, Cabanis, el más ardiente materialista de la Ilustración francesa, llevó el naturalismo de La Mettrie a su extremo lógico en sus Rapports du physique et du moral de l'homme (1802), donde argumentó que "para tener una acertada idea de las operaciones de las que resulta el pensamiento, es necesario considerar al cerebro como un órgano especial diseñado especialmente para producirlo, como el estómago y los intestinos están diseñados para realizar la digestión, (y) el higado para filtrar la bilis...". En el siglo XIX, el problema de la relación entre la mente y el cerebro fue cada vez más apremiante. Era tan profunda la preocupación por las relaciones mente/cerebro que es difícil encontrar un texto sistemático escrito antes de 1860 que no contuviera alguna discusión sobre el tema. Esta preocupación está directamente reflejada en los dos temas que convergen para obligar a filósofos y psicólogos a enfrentarse con la cuestión central del problema mente/cuerpo. El primero de ellos es el progreso en el conocimiento de la localización de las funciones cerebrales, basado en la idea de que el cerebro sirve como órgano de la mente. El segundo concierne a la progresiva familiaridad con la tesis de que los fenómenos mentales -creencias, sugestiones mentales, estados de trance mesmérico, traumas psíquicos, etc.- producen algunas veces alteraciones radicales en el estado del cuerpo. Este cambio se suscitó como consecuencia del progreso en la comprensión de la naturaleza de los desórdenes nerviosos funcionales. Antes de continuar, describiremos

12

brevemente algunas de las más importantes perspectivas mente/cerebro establecidas en respuesta a estas tendencias. A pesar de que las teorías sobre la relación mente/cuerpo que predominaron en el siglo XIX -epifenomenalismo, interaccionismo, monismo de aspecto dual y teoría de la materia mental- fueron formuladas, como sus predecesoras, en el contexto de las ciencias, estaban tratando de resolver las complejidades metafísicas del punto muerto cartesiano. No es sorprendente, en consecuencia, que estas perspectivas se desarrollaran en su mayor parte como variaciones de temas ya tratados anteriormente. En 1870, el filósofo inglés Shadworth Holloway Hodgson (1832-1912) publicó una obra en dos volúmenes titulada The Theory of Practice. En ella aportaba la primera exposición moderna del punto de vista denominado epifenomenalismo. Descartes, por supuesto, había concebido la idea de que los animales eran simplemente autómatas físicos privados de estados mentales, una noción que implicaba que un mecanismo neural completamente autosuficiente podía producir aparentemente actos inteligentes complicados. En La Mettrie y, más tarde, en Cabanis, esta opinión se extendió hasta los seres humanos, pero de forma moderada ya que sólo la eficacia causal de los estados mentales fue negada, no su existencia real. Desde esta perspectiva los materialistas franceses se anticipaban a Hodgson. En The Theory of Practice, Hodgson argumentaba que los sentimientos, a pesar de su intensidad, no tenían eficacia causal en absoluto. Comparando los estados mentales con los colores de la superficie de un mosaico de piedra y los fenómenos neurales con las piedras que los sustentan, Hodgson afirmaba que tal como las piedras están en su sitio sosteniéndose unas a otras y no por los colores que ellas tienen, los fenómenos del sistema nervioso forman una cadena autónoma independiente que acompaña a los estados mentales. Los estados mentales están presentes sólo como "epifenómenos", incapaces de afectar de igual modo el sistema nervioso. Este punto de vista fue posteriormente retomado, popularizado y situado en un marco evolucionista por Thomas Henry Huxley (1825-1895). En 1874, en un discurso en Belfast en la British Association for the Advancement of Science, Huxley presentó uno de los artículos más citados e influyentes de este periodo, "On the hypothesis that animals are automata, and its history" En él, Huxley sugería que los estados de conciencia son solamente el efecto de aquellos cambios moleculares en la sustancia cerebral que alcanzaban el grado requerido de organización. Los animales, por consiguiente, eran "autómatas conscientes". El mismo año apareció otra obra, Principles of Mental Physiology de William Benjamin Carpenter (1813-1885), que adoptaba una posición diametralmente opuesta al epifenomenalismo de Hodgson y Huxley sobre la relación mente/cuerpo. Carpenter era un físico británico que había recibido su formación como médico en Bristol, en el University College de Londres y en Edimburgo. En 1845 asumió la cátedra de Fisiología en la Royal Institution y desde 1856 a 1879 fue archivero en la University of London. Principles of Mental Physiology contenía el interaccionismo más exhaustivo producido en el siglo XIX: "Nada puede ser más cierto, escribió Carpenter, que la forma primordial de la actividad mental -la conciencia de las sensaciones- se despierta a través de instrumentos fisiológicos. Una cierta impresión física se produce, por ejemplo, por medio de la formación de una imagen luminosa en la retina del ojo... La luz excita la fuerza nerviosa y la transmisión de esta fuerza nerviosa excita la actividad de esta parte del cerebro que es el instrumento de la conciencia visual. No sabemos nada actualmente acerca del modo en que el cambio físico así producido en el sensorio es trasladado (por así decir) al cambio físico que llamamos ver

13

un objeto cuya imagen estaba formada en nuestra retina, pero somos igualmente ignorantes del modo en que la luz produce cambios químicos... Todo lo que podemos decir es que hay una estrecha sucesión de secuencias -como hay una estrecha relación entre el antecedente y el consecuente- en un caso y en el otro". Inversamente, "puede mostrarse la existencia de una correlación semejante entre los estados mentales y la clase de fuerza nerviosa que llamaremos en adelante movimiento a través del aparato muscular... cada clase de actividad mental -sensorial, instintiva, emocional, ideacional y volitiva-, puede expresarse por sí misma en movimientos corporales... Así como una batería galvánica perfectamente construida es inactiva cuando el circuito es "interrumpido", así llega a ser activo en el instante en que el circuito es "cerrado", como hace una sensación, una tendencia instintiva, una emoción, una idea o una volición, que alcanza una intensidad adecuada para "cerrar" el circuito, liberar la fuerza nerviosa con la que una cierta parte del cerebro... está ya cargada". En los 241 años que separan el De homine de Descartes de los Principles of Mental Physiology, de Carpenter, se habían hecho pocos progresos para eliminar la objeción primordial contra el interaccionismo. En las palabras frecuentemente citadas de John Tyndall (1871), "el paso de la física del cerebro a los hechos correspondientes de la conciencia es inconcebible. A pesar de que un pensamiento concreto y una acción molecular definida en el cerebro sucedan simultáneamente, no poseemos el órgano intelectual, ni aparentemente ningún rudimento de este órgano, que nos permita pasar, por un proceso de razonamiento, del uno al otro". Desde entonces esta objeción puede ser utilizada eficazmente contra el epifenomenalismo, que sólo consigue librarse de la mitad del problema del interaccionismo, por lo que otros pensadores del siglo XIX volvieron, como sus predecesores, al monismo como último recurso. Dos de los monismos más influyentes de este periodo, ambos teorías del aspecto, fueron el monismo de aspecto dual y la teoría de la materia mental. El monismo de aspecto dual fue producto de George Henry Lewes (1817- 1878). Nacido en Londres, Lewes fue una de las mentes más versátiles y brillantes de su siglo. Escritor, actor, biólogo, filósofo y psicólogo, sus intereses abarcaban una asombrosa colección de temas. Fue autor de la muy leída Biographical History of Philosophy (1845/1846). Su Physiology of Common Life (1859/1860) convirtió al joven Pavlov al estudio de la fisiología, y su obra en cinco volúmenes Problems of Life and Mind (1874/1879) constituyó la más importante contribución a la psicología de su época. En The Physical Basis of Mind, volumen 3 de Problems of Life and Mind, Lewes expuso la moderna formulación de la clásica teoría del aspecto dual, dual-aspect monism. Al presentar su teoría, Lewes llegó más allá que las teorías de sus predecesores, complementando la noción de aspecto dual con un punto de vista que se ha llamado monismo neutral. El monismo neutral incluye la pretensión de que sólo existe una clase de "materia" y que la mente y el cuerpo se diferencian sólo en la configuración de esta materia o en la perspectiva desde la que es aprehendida. Tomando prestada una metáfora de Fechner, Lewes caracterizó la relación de la mente con el cuerpo como una curva que mantiene su identidad como una línea simple aún cuando esté caracterizada en cada punto por la concavidad y la convexidad. Los procesos mentales y físicos, en otras palabras, son simplemente aspectos diferentes de una única y la misma serie de fenómenos psicofísicos. Cuando se ven desde un punto de vista subjetivo (p.e. cuando alguien está pensando), la serie psicofísica es mental; cuando se ven desde un punto de vista objetivo (p.e. cuando alguien observa lo que sucede en el cerebro pensante

14

de una persona) es físico. En los argumentos a favor de su teoría del aspecto dual, sin embargo, la innovación de Lewes no se limitaba en absoluto a su monismo neutral. Llegó a sostener que las descripciones mentales y físicas empleaban términos que no eran intercambiables. La experiencia visual de un enorme elefante no podía ser adecuadamente descripta a través de las expresiones que caracterizan las leyes de la luz o los mecanismos del sistema nervioso. Los términos mentales, en otras palabras, no podían ser reemplazados por términos físicos. Haciendo esta afirmación, Lewes transfirió el dominio del discurso de la metafísica al lenguaje y proporcionó el que es desde entonces el mejor argumento contra el reduccionismo extremo y la sustitución de la psicología por la fisiología. La teoría de la materia mental, que es lógicamente similar al monismo de aspecto dual de Lewes, implica un cierto número de ideas relacionadas. La primera es que las propiedades superiores de la mente, como el juicio, el razonamiento, la volición o el flujo continuo de la conciencia, están compuestas de elementos mentales (“trozos” de materia mental) que no manifiestan en ellos mismos estas propiedades superiores. La segunda es que incluso los elementos materiales más básicos poseen un pequeño trozo de materia mental tal que cuando esos elementos están combinados, la materia mental está combinada de modo semejante. Así, por ejemplo, cuando las moléculas llegan a estar juntas en un nivel de complejidad suficiente como para formar un cerebro y un sistema nervioso, la materia mental correlativa forma la conciencia. Y, por último, en oposición al monismo de aspecto dual de Lewes, que concibe tanto la mente y la materia como los dos aspectos de una sustancia neutral, la teoría de la materia mental toma una posición de monismo físico, argumentando que el mundo material es nada más que un aspecto bajo el cual la mente es aprehendida. Trance y Trauma Franz Anton Mesmer (1734-1815) nació en la ciudad alemana de Iznang. A los 32 años había completado su formación médica en la Universidad de Viena con una disertación sobre la influencia de los planetas sobre las enfermedades humanas. En 1773, una paciente de 27 años, Fräulein Oesterlin, que padecía dolencias físicas periódicas, acudió a Messmer. En consonancia con su disertación, Mesmer trató de demostrar la relación de la periodicidad de los síntomas manifestados en Fräulein Oesterlin con las fluctuaciones de las mareas y, en el curso de este intento, decidió comprobar si podía inducir una marea artificial en su paciente. El 28 de julio de 1774, pidió a su paciente que tomara una solución de hierro que aportaba magneto a su estómago y piernas. Los resultados de este tratamiento cambiaron el curso de la vida de Mesmer. Cuando Fräulein Oesterlin sintió al misterioso fluido correr a través de su cuerpo, sus síntomas comenzaron a desaparecer. Con un tratamiento continuo, se recuperó por completo y la fama de Mesmer empezó a extenderse. Desafortunadamente, sin embargo, la controversia sobre la efectividad de sus técnicas también se extendieron; y en 1777, en dudosas circunstancias, Mesmer dejó Viena y marchó a París. Allí estableció una lucrativa práctica de curaciones magnéticas y completó su Mémoire sur la découverte du magnétisme animal. Influido por las teorías físicas de la atracción gravitatoria y por el trabajo de Franklin y otros sobre la electricidad, Mesmer desarrolló lo que fue en su época una razonable explicación de la cura magnética. Suponiendo la existencia de un fluído magnético físico interconectado con cada elemento del universo, incluidos los cuerpos humanos, Mesmer afirmó que la enfermedad resulta del desequilibrio de este fluído en el cuerpo. La curación exigía la reconducción del fluido a través de la intervención del médico, el cual, sirviéndose de una especie de conducto por medio del cual el magnetismo animal pudiera ser canalizado desde el universo al interior del cuerpo del paciente por medio de "pases magnéticos" de las manos del médico. En el curso del tratamiento, los

15

pacientes experimentaban una "crisis" magnética, algo semejante a una sacudida eléctrica, a partir de la cual comenzaban a recuperarse. A semejanza de la teoría eléctrica, Mesmer pensó que el fluido magnético era polarizado, conductor y capaz de ser descargado y acumulado. Como hombre de negocios, desarrolló el baquet, un dispositivo para concentrar el fluido magnético semejante a la vasija de Leyden. El baquet le permitía tratar hasta a veinte pacientes a la vez, conectando a cada paciente el fluido a través de una vara de hierro. La caída de Mesmer fue tan meteórica como su ascensión. En 1785, después de varios fracasos terapeúticos espectaculares y la publicación del Rapport des Commissaires chargés par le Roy de l'examen du magnétisme animal (Bailly, 1784), en donde se llegaba a la conclusión de que no había ninguna evidencia a favor de la existencia del fluido mesmérico, Mesmer dejó París bajo sospecha y vivió el resto de su vida en relativa oscuridad, muriendo en 1815 cerca de su lugar de nacimiento. Si Mesmer el hombre desapareció de la vista del público, sus ideas no lo hicieron. El más importante de sus discípulos fue Armand-Marie-Jacques de Chastenet, Marquis de Puységur (1751-1825), un rico aristócrata terrateniente que comenzó, incluso antes de la caída de Mesmer, a experimentar con la curación magnética. Si de alguien se puede decir justificadamente que fue el fundador de la psicoterapia moderna, ése es Puységur. Trabajando con Victor Race, un joven campesino de su hacienda familiar cerca de Soissons, el marqués descubrió la "crisis perfecta", un estado de sueño sonámbulo en el que los pacientes obedecían los mandatos del magnetizador sin que al despertarse conservaran memoria alguna de lo que habían hecho. Cuando Victor, quien en condiciones normales nunca se habría atrevido a confiar sus problemas personales al señor de la casa, admitió en el transcurso del sueño magnético que estaba disgustado por una pelea que había tenido con su hermana, Puységur le sugirió que hiciera algo para resolver la querella y, después de despertar, sin recordar las palabras de Puységur, Victor obró de acuerdo con la sugerencia del marqués. A partir de estas experiencias, Puységur llegó gradualmente a reconocer que los efectos magnéticos dependen de la fuerza de la creencia personal del magnetizador en la eficacia de la curación magnética, del deseo de curar y de la relación con el paciente. En 1784, Puységur expresó estas ideas en sus Mémoires pour servir à l'histoire et à l'établissement du magnétisme animal, una obra que puede ser considerada el punto de partida de la psicoterapia moderna. No deja de tener interés que en fecha tan temprana como 1784, desde el nacimiento del procedimiento psicoterapeútico, se reconoció que la creencia en la eficacia de la cura, el deseo de curar y la naturaleza de la relación entre el paciente y el terapeuta eran factores fundamentales del éxito psicoterapeútico. Con la técnica desarrollada por Puységur (a menudo acompañada de la explicación de Mesmer), el mesmerismo se extendió rápidamente. Llegó a los Estados Unidos desde Francia con Charles Poyen de Saint Sauveur y llegó a ser asociado brevemente con la frenología y durante más tiempo con el espiritualismo, produciendo por último el movimiento del Nuevo Pensamiento que ejerció un fuerte impacto en William James. En Europa, el mesmerismo continuó desarrollándose en manos de cierto número de importantes figuras como el abate José Custodio de Faria, el general François Joseph Noizet, Étienne Félix, Baron d'Hénin de Cuvillers, y Alexandre Bertrand. Faria, en su De la cause du sommeil lucide (1819), desarrolló la técnica moderna de inducción al trance ("fijación"), al acentuar la importancia del deseo del sujeto más bien que la del magnetizador, y reconociendo la existencia de diferencias individuales en la susceptibilidad al sueño sonámbulo, siendo el primero en establecer el principio de sugestión, que creía que era efectivo no sólo en el sueño sonámbulo sino también en estado de vigilia. En 1820, Noizet, en Mémoire sur le somnambulisme, presentada en la Royal

16

Academy de Berlin pero no publicada hasta 1854, y Hénin de Cuvillers, en su Le magnétisme éclairé, presentaron la más extensa relación de los efectos mesméricos en términos de sugestión y creencia, mientras el Traité du somnambulisme (1823), de Bertrand, fue el primer estudio científico sistemático de los fenómenos magnéticos. El año 1843 significó un avance importante en el modo en que los efectos mesméricos fueron conceptualizados. James Braid (¿1795?-1860) publicó Neurypnology; or, the Rationale of Nervous Sleep, Considered in Relation with Animal Magnetism. Nacido en Fifeshire hacia 1795 y educado en la Universidad de Edimburgo, Braid se fue a Manchester en los comienzos de su carrera profesional. Allí, como él mismo describe en Neurypnology, una visita a la demostración teatral del mesmerista suizo Charles Lafontaine, lo convenció de la realidad de los fenómenos físicos inducidos por el mesmerismo. Después de varios días de experimentos privados, Braid llegó a la conclusión de que estos efectos físicos estaban producidos por "una peculiar condición del sistema nervioso, inducida por una atención fija y abstracta..." y no a través de la mediación de ningún agente especial que pasara desde el cuerpo del operador al del paciente. Para distinguir sus puntos de vista de los del mesmerismo, llamó al estado de sueño nervioso "hipnotismo", y sustituyó los "pases magnéticos" de los mesmeristas por la fijación en un objeto luminoso, una variante de la antigua técnica de inducción de Faria. La conexión efectuada por Braid entre los fenómenos hipnóticos y la fisiología cerebral, así como el desarrollo de una técnica de inducción directa y desprovista de mística y la introducción de una terminología que era más aceptable para la institución médica y científica, ayudó a preparar el camino para el uso eventual de la hipnosis en la investigación psicopatológica. Que este efecto no fue de ninguna manera inmediato no es sorprendente ante el hecho de que entre 1848 y 1875 la curación magnética estuvo crecientemente envuelta con el espiritismo por un lado y las demostraciones teatrales por el otro. Cuando Braid murió en 1860, "el magnetismo y el hipnotismo habían caido en tal descrédito que un médico que utilizase esos métodos habría comprometido irremisiblemente su carrera científica y perdido su prestigio como médico". Pese a todo, en este clima de opinión, hubo unos pocos que continuaron trabajando terapeúticamente con la hipnosis. Uno de estos fue Auguste Ambroise Liébeault (18231904), médico rural en Pont-Saint-Vincent, pueblo francés de la región de Nancy. En 1866, Liébeault publicó su Du sommeil et des états analogues considérés surtout au point de vue de l'action du moral sur le physique. En el libro, Liébeault afirmó que la concentración de la atención en la idea de sueño induce el estado hipnótico a través del poder de sugestión y que los efectos terapeúticos de la hipnosis son, en efecto, fenómenos sugestivos. Aunque ninguna de estas ideas eran originales de Liébeault, quien las derivó de Mémoire sur le somnambulisme et le magnétisme animal (1854) de Noizet, fue a través de Liébeault que llamaron la atención de Hippolyte Bernheim y llegaron a ser los principios cardinales de la escuela de terapeútica sugestiva de Nancy a la que volveremos enseguida. Sin embargo, antes de que las técnicas de inducción hipnótica pudieran llegar a servir como herramienta para la investigación de los desordenes funcionales nerviosos tuvieron que ser rescatados del dominio de la seudociencia a la que habían sido confinados. El mérito de tal rescate es generalmente otorgado a Charles Richet, un joven fisiólogo francés cuyo "Du somnambulisme provoqué"(1875) condujo al resurgimiento del interés en el uso científico de la hipnosis, especialmente a través de la obra de Jean-Martin Charcot (18251893). Charcot nació y recibió su formación médica en Paris. Tras obtener el título de doctor en 1853, trabajó como médico privado hasta 1862, cuando fue nombrado doctor residente en la Salpêtrière. Allí creó lo que llegó a ser el centro más influyente del mundo

17

para la investigación neurológica. Encargado de la custodia de un pabellón de mujeres que sufrían convulsiones, Charcot distinguió entre las convulsiones de origen epiléptico y las de origen histérico (epilepsia histérica), clarificando la sintomatología anestésica y la hiperestesia de la epilépsia histérica y diferenciando entre la epilépsia histérica y los casos de histeria no convulsiva. El primer resumen importante de las conclusiones que Charcot obtuvo de su obra fue presentado en el volumen I de sus Leçons sur les maladies du système nerveux faites à la Salpêtrière, publicado en partes entre 1872 y 1873. Siguiendo a Briquet, cuyo Traité clinique de thérapeutique de l'hysterie (1859) es considerado como el primer estudio de la histeria sistemático y objetivo, Charcot definió la histeria como una neurosis del cerebro originada típicamente por traumas psíquicos en individuos hereditariamente predispuestos. En 1878, bajo la influencia de Richet, Charcot comenzó a emplear la hipnosis en el estudio de la histeria y descubrió que, bajo hipnosis, podía reproducir no sólo la sintomatología histérica (amnesia, mutismo, anestesia) sino incluso fenómenos postraumáticos tales como las parálisis ocasionadas en accidentes de ferrocarril. Esto lo llevó a agrupar los fenómenos hipnóticos, histéricos y postraumáticos, a distinguir estos fenómenos dinámicos de los síntomas orgánicos que provienen de lesiones en el sistema nervioso y a sugerir la existencia de "ideas fijas" inconscientes en el centro de ciertas neurosis, una noción que ejerció una considerable influencia en Janet y Freud. Manteniendo su orientación generalmente fisicalista, Charcot también trató de describir los fenómenos somáticos asociados a la inducción hipnótica. Este proceso, creía, ocurría en tres fases sucesivas: a) Catalepsia con anestesia y plasticidad neuromuscular; b) letargo con hiperexcitabilidad neuromuscular; y c) sonambulismo. Además, en base al trabajo de sus alumnos, llegó a afirmar que estas manifestaciones somáticas pueden ser transferidas de un lado del cuerpo a otro por medio de imanes. Por desgracia, pese a sus numerosas e importantes contribuciones y su papel esencial, Charcot es a veces recordado por su errónea descripción de las tres etapas y de la transferencia magnética. Como el psicofísico belga Joseph Remi Leopold Delboeuf (1886) sugirió, en una crítica dirigida contra la obra de Charcot, que el efecto de sugestión pasa no sólo del hipnotizador al sujeto sino también del sujeto al hipnotizador. Un paciente particularmente espectacular puede crear en el terapeuta expectativas acerca de las formas que adquirirán las manifestaciones hipnóticas. Éstas pueden luego ser transmitidas involuntariamente como sugestiones a pacientes futuros que actuarán así confirmando las expectativas del terapeuta. Algo semejante parece haber sido el caso en la Salpêtrière, donde los pacientes, y más notablemente Blanche Wittmann, los estudiantes, los colaboradores y el propio Charcot fueron víctimas de la fuerza fatal de la expectación mutua. En Nancy, un grupo que trabajaba bajo la dirección de Hippolyte Bernheim (1840-1919), comprometido con el punto de vista de que los efectos hipnóticos eran obtenidos por medio del poder de sugestión, estaba particularmente bien situado para reconocer el defecto inherente a la obra de Charcot. Bernheim nació en Mulhouse, Francia y recibió su formación médica en Estrasburgo. Después de obtener la agregaduría, aceptó una cátedra en la facultad de Medicina en Nancy. En 1882, cuando ya estaba bien situado, Bernheim

18

oyó hablar de un médico rural llamado Liébeault de quien se rumoreaba que trataba con efectividad a sus pacientes usando el sonambulismo artificial. Habiendo quedado convencido, después de visitar a Liébeault, de la efectividad terapeútica de la hipnosis, Bernheim publicó De la suggestion dans l'état hypnotique et dans l'état de veille (1884) en la que volvió a introducir el punto de vista descuidado por Liébeault de que los efectos de la hipnosis reflejan el poder de la sugestión mental. Allí y en la edición ampliada de 1886, Bernheim definió los fenómenos hipnóticos como manifestaciones de la sugestibilidad ideomotora, una capacidad humana universal de transformar una idea directamente en un acto. Ciertamente, para Bernheim, la hipnosis era simplemente un estado de sugestibilidad elevada, prolongada y artificialmente inducida. Tomados en sí mismos, estos puntos de vista por sí solos habrían conducido a Bernheim a entrar en contradicción con Charcot, pero Bernheim y sus colegas de Nancy fueron mucho más lejos. Criticando la pretensión de Charcot de que la hipnosis es una condición nerviosa patológica ligada a la histeria, Bernheim rechazó la descripción de Charcot de las tres fases del hipnotismo y ridiculizó la idea de que los síntomas pudieran ser transferidos lateralmente mediante imanes. Continuando la crítica de Delboeuf, Bernheim afirmó que los fenómenos descubiertos por Charcot eran simplemente producto de la sugestibilidad de sus pacientes, del ejercicio de un pobre control experimental por medio de sus alumnos, y, por implicación, la propia sugestibilidad de Charcot también. En efecto, estaban tan convencidos de la naturaleza sugestiva de la terapia hipnótica que, cuando pasó el tiempo, los miembros de la escuela de Nancy abandonaron enteramente la inducción hipnótica por la sugestión directa en estado de vigilia, una técnica que denominaron "psicoterapeútica". Mientras recrudecía el debate entre Nancy y la Salpêtrière, Pierre Janet (1859-1947) estaba trabajando en Le Havre, recopilando observaciones clínicas para basar su disertación. Nacido en París, Janet entró en la École Normale Supérieure en 1879, habiendo ocupado el segundo lugar en los exámenes extremadamente competitivos por la agregaduría. Poco después obtuvo una plaza como profesor de filosofía en el Liceo de Le Havre donde permaneció hasta la aceptación de su disertación. Tras recibir la graduación, se trasladó a París para estudiar medicina y dedicarse a la investigación clínica bajo la dirección de Charcot en la Salpêtrière. La disertación de Janet, L'automatisme psychologique, reunía una rica información clínica sobre los estados mentales anormales de histeria y psicosis. Dividiendo esos estados en automatismos totales (involucrando la personalidad completa) y parciales (una parte de la personalidad se dividía de la conciencia y seguía su propia existencia psicológica), Janet empleaba la escritura automática y la hipnosis para identificar los orígenes traumáticos y explorar la naturaleza del automatismo. Síncope, catalepsia y sonambulismo artificial con amnesia posthipnótica y memoria para los estados hipnóticos anteriores fueron analizados como automatismos totales. La múltiple personalidad, que Janet llamaba "existencias sucesivas", la catalepsia parcial, la pérdida de la atención, los fenómenos de escritura automática, la sugestión posthipnótica, el uso de la varita mágica, el trance de los mediums, las obsesiones, las ideas fijas y las experiencias de posesión eran tratadas como automatismos parciales. Lo más importante es que Janet reunió todos estos fenómenos en un armazón analítico que enfatizaba las relaciones ideomotoras entre la conciencia y la acción, que empleó la metáfora dinámica de fuerza y debilidad psíquica y acentuó el concepto de "campo de conciencia" y sus limitaciones como resultado del agotamiento de la fuerza psíquica. En el interior de esta estructura, Janet analizó la fijación peculiar del paciente sobre el terapeuta

19

en términos de la distorsión de la percepción del paciente, y relacionó la sintomatología histérica al poder autónomo de las "ideas fijas" escindidas de la personalidad consciente y sumergida en el subconsciente. A pesar del cuidado que puso en evitar la discusión directa de las implicaciones terapeúticas de su obra en una disertación no médica, Janet sentó los fundamentos para su propia metodología terapeútica posterior y la de Freud por medio de su demostración de los orígenes de la escisión en los traumas psíquicos de la historia pasada del paciente. 20

En realidad había sólo un pequeño salto desde la obra de Charcot, Bernheim y Janet a la de Josef Breuer (1842-1925) y Sigmund Freud (1856-1939). En 1893, Breuer y Freud publicaron una corta comunicación preliminar, "Ueber den psychischen Mechanismus hysterische Phänomene" en el Neurologische Centralblatt. El origen del artículo de Breuer y Freud se encuentra en el trabajo de Breuer con la famosa paciente Anna O. A pesar de que los detalles existentes del caso de Anna O., tales como fueron descriptos por Breuer, quien se esforzó en ocultar la identidad de su paciente, y varios años después por Jones (1953/1957), se diferencian considerablemente uno del otro y probablemente con los hechos reales, es sabido que el alivio de los síntomas de Anna O. ocurrió sólo cuando la paciente, bajo hipnosis, proporcionó a Breuer en orden cronológico inverso un relato de las circunstancias exactas bajo las cuales cada síntoma había aparecido. Sólo cuando ella siguió el rastro hasta el síntoma final regresando a las circunstancias traumáticas de su advenimiento, se produjo la curación. La curación de Anna O. por medio del método "catártico", que implicaba traer el trauma a la conciencia y permitir la descarga a través del afecto, palabras y asociaciones guiadas, ha sido considerada frecuentemente, y así lo pensaba Freud, como el punto de partida del psicoanálisis. En la obra fecunda de Janet y en el artículo crítico de transición de Breuer y Freud, vemos la culminación de desarrollos que habían comenzado con la elaboración de Puységur de las doctrinas de Mesmer. En poco más de cien años, un formidable cuerpo de evidencias y teorías neurológicas y psicológicas relacionadas habían conducido irremisiblemente a la creencia de que los fenómenos mentales -estados de trance mesmerico, entendimiento mutuo, el deseo de curar del terapeuta, la concentración de la atención, la sugestión mental, el trauma psíquico, la disociación de la conciencia y la catarsis- podían producir alteraciones radicales en el estado del cuerpo. Ningún escrito psicológico en la década de 1890 podía permitirse ignorar este rico material y sus implicaciones para la conceptualización de la naturaleza de las relaciones entre la mente y el cuerpo. William James, como veremos, no fue una excepción6. Todas las tendencias relativas al problema mente/cuerpo de fines del siglo XIX, tanto la cultura popular como la erudita, vistas retrospectivamente, parecen culminar en el funcionalismo del filósofo y picólogo americano William James (1842-1910). Nacido en un hotel de New York en 1842, hijo mayor de un filósofo excéntrico y religioso, Henry James Senior y hermano mayor del novelista Henry James, William James recibió su primera educación en Europa y América de un conjunto de tutores privados políglotas, maestros de escuela provisorios y maestros de pintura, hasta que se embarcó en una instrucción regular en Harvard en 1861, al ingresar en la Lawrence Scientific School. Se pasó a la medicina en 1864 y se graduó en 1869. Luego, durante los siguientes cuarenta años, desarrolló su carrera profesional en psicología y filosofía. 6

La referencia a la experiencia en los Estados Unidos se debe a EugeneTaylor, Harvard University Medical School.

James fue, ante todo, un heredero de la antigua filosofía moral. El gran profeta de la Armonía, Ralph Waldo Emerson (1803-1882) había sido su padrino y amigo íntimo de Henry James Senior (1811-1882). En Representative Men: Seven Lectures, Emerson predicó una psicología intuitiva de la formación del carácter y tomó prestadas las interpretaciones de Henry James Senior sobre el místico religioso Emanuel Swedenborg para definir el trascendentalismo como la realización de la conciencia superior en el interior de la personalidad individual. William James fue heredero de este swedemborgiano y de la psicología literaria trascendentalista (ver The Secret of Swedenborg de Henry James y la edición de William James de Literary Remains of the Late Henry James), pero fue obligado a adaptar su epistemología religiosa a los rigurosos dictados científicos de su época. Así, en primer lugar llegó a ser un defensor de la conciencia como una fuerza eficaz en la evolución biológica de las especies. Siendo un joven estudiante de medicina en 1860, tomó partido por el darwinismo en Harvard y empezó su carrera literaria con escritos favorables a los efectos de la selección natural sobre la vida mental. La conciencia, advirtió, obedece a las leyes de la variación y la selección. Aquellos caracteres intuitivos, que son propensos a accesos emocionales y producen arte y literatura, son talentos naturales cuya mente está en fermento constante, pueden ver analogías que otros no alcanzan, son pensadores originales cuyas asociaciones no tienen obstáculo alguno y personifican la conciencia como un campo de percepción que contiene un gran número de ideas para escoger entre ellas. Los dictados racionales y empíricos del mundo sensorial seleccionan luego lo que es o no adaptativo. Este modo de experiencia tiene generalmente gran importancia como una potente fuerza para la preservación de la raza. Siendo un joven profesor de psicología en Harvard, James abordó el estudio de la conciencia a través de la fisiología experimental. En colaboración con Henry Pickering Bowditch y James Jackson Putnam en la Harvard Medical School, James reprodujo los experimentos de Meynert, Fritsch y Hitzig para establecer ciertos problemas en la controversia sobre la localización de las funciones cerebrales. Ampliando la obra de Bain y los asociacionistas británicos sobre la actividad ideomotora, desarrolló una teoría de los instintos sobre fundamentos biológicos y la asoció con el desarrollo psicológico de la emoción y el hábito. Yendo más allá de la psicofísica de Helmholtz y de Wundt, enlazó la explicación fisiológica de la percepción con la esfera del significado simbólico cuando afirmó, a partir de un punto de partida evolucionista, que cuando nos enfrentamos a una masa confusa floreciente y zumbeante, la atención a los estímulos exteriores está en su mayor parte en función del interés personal. En la cumbre de su carrera profesional, en 1890, James produce el más importante texto todavía aprovechable de la disciplina, su obra en dos volúmenes Principles of Psychology. En él, parte de una preocupación sobre el objeto en el centro de la atención y propugna que la psicología se desarrolla en torno a una psicología cognitiva de la conciencia. Su metáfora más duradera fue la del flujo del pensamiento. Pero las ideas nunca existen aisladas; lo que da color a los pensamientos y continuidad al flujo palpitante es el tono sensible del pensamiento. Esa era su doctrina de las relaciones: así como los objetos pueden ser

21

experimentados, también lo pueden ser las relaciones entre ellos. Así, dijo, cualquier psicología legítimamente científica puede explicar tanto el flujo del pensamiento como el sentimiento. Inmediatamente después de la publicación y el éxito internacional de sus Principles, James volvió su atención hacia el papel de las actitudes y los valores sobre la salud y la enfermedad. Particularmente entre 1890 y 1902, revisó la literatura francesa y alemana sobre la psicopatología experimental y continuó los experimentos sobre hipnosis, escritura automática y otros fenómenos de disociación que había comenzado a fines de los años 1880s. Llegó a ser un intermediario de los más modernos desarrollos de la psicología experimental francesa del subconsciente y mantuvo correspondencia con Pierre Janet y Théodule Ribot sobre problemas relacionados con la patología de las emociones. Defendió ardientemente las prácticas psicoterapeúticas de los terapeutas mentales americanos contra los ataques de la profesión médica; y entre 1893 y 1896 impartió un seminario para graduados sobre psicopatología en Harvard que influyó a la siguiente generación de investigadores en psicoterapia científica. La obra más importante de este periodo fueron sus Lowell Lectures de 1896 sobre Exceptional Mental States, que permanecieron inéditas. Los títulos de sus conferencias eran: Sueños e hipnotismo, Automatismo, Histeria, Personalidad múltiple, Posesión demoniaca, Brujería, Degeneración, y Genialidad. Las cuatro primeras proclamaron a James como el maestro de una moderna psicología dinámica del subconsciente, mientras el resto relacionaban el trabajo patológico del subconsciente con la esfera social. Su principal afirmación era que la experiencia contiene algo más que la simple conciencia despierta y un tenebroso reino llamado el inconsciente. Más bien, la personalidad es una pluralidad de estados. La conciencia despierta es sólo un estado entre muchos otros, teniendo significación solamente para la supervivencia del organismo biológico en el mundo externo. Otras áreas de la experiencia humana en diferentes niveles de la persona existían al lado de la conciencia despierta. La conciencia era un campo con un centro y una periferia. Mientras el objeto en el centro de la atención podía permanecer idéntico a sí mismo, el fundamento de la percepción podía llegar a ser radicalmente alterado por fatiga, shock traumático o conflicto intrapsíquico de formas que la habitual explicación científica de la percepción no había tenido en cuenta. Las implicaciones de estos descubrimientos alterarían pronto, a su vez, la concepción de la ciencia de James. Entretanto, en 1902, James hizo avanzar un paso adelante sus ideas sobre el problema mente/cuerpo: en sus Varieties of Religious Experience, investigó el papel de la experiencia trascendente en la reconstrucción de las vidas fragmentadas. La significación de la religión descansa en la experiencia de lo individual. El subconsciente es la puerta a través de la cual brotan las experiencias transformadas que llamamos místicas –estados transitorios y pasivos a partir de los cuales el intelecto mismo puede ser derivado. Sean lo que sean, cuando llegan, la personalidad se ve permanentemente alterada. Pero la adecuación de estas experiencias -mantenía por otro lado- puede sólo ser probada en términos de sus frutos para la vida. Estas evolucionadas concepciones de la conciencia, basadas en la evidencia experimental y corroboradas por testimonios vivos, empezaron a modificar hacia 1890, la concepción previa de James sobre cómo podía ser legitimamente dirigida una psicología científica. Como culminación de su obra a lo largo de los años 1890s, James desarrolló una epistemología filosófica que creía era bastante sofisticada como para desafíar la supremacía del materialismo científico.

22

El fundamento de esta crítica, y el resultado lógico tanto de su estudio de los empiristas británicos como del pragmatismo de C.S. Peirce, era su metafísica del empirismo radical. El enfoque de James era empírico, decía, porque lo circunscribía sólo a los hechos de experiencia. Era radical, sin embargo, porque exigía a la ciencia no ignorar ningún aspecto de la realidad que pudiera, de hecho, ser experimentado. La principal cuestión a la que se dirigía su filosofía era la dicotomía fundamental entre sujeto y objeto. Los factores subjetivos debían ser eliminados para que pudiera surgir una psicología objetiva. La estrategia del psicólogo era afirmar que la buena ciencia era positivista; esto es, no pretender explicaciones metafísicas o sobrenaturales para los fenómenos físicos, sino suponer que todo lo que necesitamos conocer era cognoscible a través del intelecto y los sentidos. James había escrito sus Principles desde este punto de vista, pero la evidencia a partir de la psicopatología experimental sobre las emociones y los estados subconscientes le habían forzado a repensar el problema. Hacia mediados de los 1890s, enunció primero su opinión de que el proyecto de separar la ciencia positivista de la metafísica debía ser abandonado, ya que ninguna teoría científica estaba libre de metafísica. El positivismo, por ejemplo, estaba, él mismo, basado en una metafísica del fisicalismo; esto es, un conjunto de ideas preconcebidas sobre cómo el mundo físico podía ser estudiado. Estas nuevas ideas, no obstante, planteaban dos nuevos problemas a James: primero, qué es la conciencia si no es una facultad independiente de los objetos; y segundo, cómo se podía reconciliar el conflicto entre distintas pretensiones de verdad, si la realidad era una función de tan diferentes estados de conciencia. A la primera cuestión, Jamés respondió en su artículo de 1904, "Does consciousness exist?". James escandalizó tanto a los filósofos como a los psicólogos al afirmar que la conciencia no existe como una entidad independiente sino como una función de experiencias particulares. La conciencia y el objeto deben ser considerados dentro del mismo complejo funcional. No puede definirse a uno sin el otro. Ahí tenemos el germen de la fenomenología, el contextualismo y el moderno análisis hermeneútico, de los cuales puede rastrearse su origen a través de varias rutas del camino de James. La segunda cuestión fue abordada por James en sus Philosophical Conceptions and Practical Results, dirigido en 1898 a la Berkeley Union, y nuevamente en sus conferencias Lowell de 1906, publicadas en 1907 como Pragmatism, A New Name for Some Old Ways of Thinking. El pragmatismo -decía James- significa dos cosas. Era ante todo el modo de evaluar las pretensiones de verdad, no por la búsqueda de la verdad o falsedad de una definición primaria sino evaluando la afirmación en términos de sus consecuencias morales y estéticas. En otras palabras, dos diferentes verdades que producen el mismo resultado eran funcionalmente las mismas. En segundo lugar, también sugirió un modo de reconciliar las definiciones en conflicto de la realidad. La gente puede todavía mantener sus creencias individuales idiosincráticas si el resultado de estas diferentes creencias conduce a modos de conducta social comunes y validados consensualmente. James no era tan ingenuo, sin embargo, como para pensar que había resuelto el dilema mente/cuerpo originalmente planteado por Descartes. Sólo mantenía que aunque la ciencia había establecido el escenario para una manipulación más sofisticada del problema, las verdaderas presuposiciones de la ciencia estaban siendo llamadas para ocuparse de él por medio del análisis. Esto significa para James que el lugar donde buscar una solución estaba más allá del lenguaje y, sin embargo, en el interior del dominio de la experiencia. Por esta razón, al final de su vida, ordenó a los psicólogos mantener una mente abierta y estudiar la caída del umbral de conciencia. En la extensión subliminal de los horizontes de la conciencia, encontramos alteraciones que señalan el verdadero centro de la vida y la identidad. Pero no comprenderemos esas alteraciones, dijo, ni en esta

23

generación ni en la siguiente. El desafío de su pensamiento ha sido aceptado por la moderna teoría de los sistemas adaptativos y de la complejidad.

4. Algoritmos genéticos e Inteligencia artificial "I think the next century will be the century of complexity." Stephen Hawking Como vimos en la reunión anterior, Hayek estaba perfectamente alineado con una corriente contemporánea de la investigación del orden de sistemas complejos, como una sociedad. Un algoritmo es una serie de pasos organizados que describe el proceso que se debe seguir, para dar solución a un problema específico. En los años 1970, de la mano de John Henry Holland, surgió una de las líneas más prometedoras de la inteligencia artificial, la de los algoritmos genéticos. Son llamados así porque se inspiran en la evolución biológica y su base genético-molecular. Estos algoritmos hacen evolucionar una población de individuos sometiéndola a acciones aleatorias semejantes a las que actúan en la evolución biológica (mutaciones y recombinaciones genéticas), así como también a una Selección de acuerdo con algún criterio, en función del cual se decide cuáles son los individuos más adaptados, que sobreviven, y cuáles los menos aptos, que son descartados. También son denominados algoritmos evolutivos, e incluyen las estrategias de evolución, la programación evolutiva y la programación genética. Dentro de esta última se han logrado avances curiosos: En 1999, por primera vez en la historia, se concedió una patente a un invento no realizado directamente por un ser humano: se trata de una antena de forma extraña, pero que funciona perfectamente en las condiciones a las que estaba destinada. Sin embargo, no es injusto que el autor del algoritmo genético del que salió la forma de la antena se haya atribuido la autoría de la patente, pues él escribió el programa e ideó el criterio de selección que condujo al diseño patentado. Un algoritmo genético es un método de búsqueda dirigida basada en Algoritmo genético i: inicialización, f(X): probabilidades. Bajo una condición muy evaluación, ?: condición de término, Se: débil (que el algoritmo mantenga selección, Cr: cruzamiento, Mu: mutación, elitismo, es decir, guarde siempre al Re: reemplazo, X*: mejor solución. mejor elemento de la población sin hacerle ningún cambio) se puede demostrar que el algoritmo converge en probabilidad al óptimo. En otras palabras, al aumentar el número de iteraciones, la probabilidad de llegar al óptimo en la población tiende a 1 (uno). Los algoritmos genéticos establecen una analogía entre el conjunto de soluciones de un problema, llamado fenotipo, y el conjunto de individuos de una población natural, codificando la información de cada solución en una cadena, generalmente binaria, llamada cromosoma. Los símbolos que forman la cadena son llamados genes. Cuando la representación de los cromosomas se hace con cadenas de dígitos binarios se le conoce como genotipo. Los cromosomas evolucionan a través de iteraciones, llamadas generaciones. En cada generación, los cromosomas son

24

evaluados usando alguna medida de aptitud. Las siguientes generaciones (nuevos cromosomas), llamada descendencia, se forman utilizando dos operadores genéticos, de sobrecruzamiento y de mutación. Los algoritmos genéticos son de probada eficacia para calcular funciones no derivables (o de derivación muy compleja) aunque su uso es posible con cualquier función. Deben tenerse en cuenta también las siguientes consideraciones: si la función a optimizar tiene muchos máximos/mínimos locales se requerirán más iteraciones del algoritmo para "asegurar" el máximo/mínimo global; si la función a optimizar contiene varios puntos muy cercanos en valor al óptimo, sólo podemos "asegurar" que encontraremos uno de ellos (no necesariamente el óptimo). Un algoritmo genético puede presentar diversas variaciones, dependiendo de cómo se aplican los operadores genéticos (cruzamiento, mutación), de cómo se realiza la selección y de cómo se decide el reemplazo de los individuos para formar la nueva población. En general, el pseudocódigo consiste de los siguientes pasos: Inicialización: Se genera aleatoriamente la población inicial, que está constituida por un conjunto de cromosomas los cuales representan las posibles soluciones del problema. En caso de no hacerlo aleatoriamente, es importante garantizar que dentro de la población inicial, se tenga la diversidad estructural de estas soluciones para tener una representación de la mayor parte de la población posible o al menos evitar la convergencia prematura. Evaluación: A cada uno de los cromosomas de esta población se aplicará la función de aptitud para saber qué tan "buena" es la solución que se está codificando. Condición de término El AG se deberá detener cuando se alcance la solución óptima, pero ésta generalmente se desconoce, por lo que se deben utilizar otros criterios de detención. Normalmente se usan dos criterios: correr el AG un número máximo de iteraciones (generaciones) o detenerlo cuando no haya cambios en la población. Mientras no se cumpla la condición de término se hace lo siguiente: a) Selección Después de saber la aptitud de cada cromosoma se procede a elegir los cromosomas que serán cruzados en la siguiente generación. Los cromosomas con mejor aptitud tienen mayor probabilidad de ser seleccionados. b) Sobrecruzamiento El cruzamiento es el principal operador genético, representa la reproducción sexual, opera sobre dos cromosomas a la vez para generar dos descendientes donde se combinan las características de ambos cromosomas padres. c) Mutación modifica al azar parte del cromosoma de los individuos, y permite alcanzar zonas del espacio de búsqueda que no estaban cubiertas por los individuos de la población actual. d) Reemplazo una vez aplicados los operadores genéticos, se seleccionan los mejores individuos para conformar la población de la generación siguiente. Este tipo de algoritmos ha tenido una vasta gama de aplicaciones: Diseño automatizado, incluyendo investigación en diseño de materiales y diseño multiobjetivo de componentes automovilísticos: mejor comportamiento ante choques, ahorros de peso, mejora de aerodinámica, etc.; Diseño automatizado de equipamiento industrial; Diseño automatizado de sistemas de comercio en el sector financiero; Construcción de árboles filogenéticos; Optimización de carga de contenedores; Diseño de sistemas de distribución de aguas; Diseño de topologías de circuitos impresos; Diseño de topologías de redes computacionales; en Teoría de los juegos, resolución de equilibrios; Análisis de expresión de genes; Aprendizaje de comportamiento de robots; Aprendizaje de reglas de Lógica difusa; Análisis lingüístico, incluyendo inducción gramática, y otros aspectos de

25

Procesamiento de lenguajes naturales, tales como eliminación de ambigüedad de sentido; Infraestructura de redes de comunicaciones móviles; Optimización de estructuras moleculares; Planificación de producción multicriteria; Predicción; Aplicación de Algoritmos Genéticos al Dilema del Prisionero Iterado; Optimización de sistemas de compresión de datos, por ejemplo, usando wavelets; Predicción de Plegamiento de proteínas; Optimización de Layout; Predicción de estructura de RNA; en Bioinformática, Alineamiento múltiple de secuencias; Aplicaciones en planificación de procesos industriales, incluyendo planificación job-shop; Selección optima de modelos matemáticos para la descripción de sistemas biológicos; Manejo de residuos sólidos; Ingeniería de software; Construcción de horarios en grandes universidades, evitando conflictos de clases; Problema del viajante; Hallazgo de errores en programas; Optimización de producción y distribución de energía eléctrica; Diseño de redes geodésicas (Problemas de diseño), etc. 7 Los Sistemas Adaptativos Complejos (CAS) Los CAS son un caso especial de sistemas complejos. Son complejos porque son diversos y están hechos de múltiples elementos interconectados y adaptativos porque tienen la capacidad de cambiar y adaptarse a la experiencia. El término CAS fue acuñado en el Instituto interdisciplinario Santa Fe (SFI) por John H. Holland, Murray Gell-Mann y otros. Las expresiones “sistemas adaptativos complejos”, o ciencia de la complejidad, a menudo son usadas para describir el campo académico que se ha organizado en forma difusa y creció estudiando a esos sistemas. La ciencia de la complejidad no es una única ciencia – ya que abarca varios campos teóricos y es altamente interdisciplinaria, tratando de hallar respuesta a varias cuestiones fundamentales sobre los sistemas vivos, adaptativos y en transformación8. En el SFI la mayoría de los científicos que trabajan en el campo de las ciencias “naturales” son europeos, mientras que en cibernética e investigación de sistemas provienen de distintos continentes, pero especialmente de USA. El enfoque CAS se distingue de otros por un uso intensivo de simulaciones mediante computadora como un instrumento de investigación y un énfasis sobre los sistemas – tales como las ecologías o los mercados – menos integrados u “organizados” que otros como los organismos, las empresas y las máquinas, analizados por disciplinas más antiguas. John Holland es considerado el fundador del campo de los algoritmos genéticos, que son representaciones computadas en paralelo de los procesos de variación, recombinación y selección en base a la aptitud subyacente a casi todos los procesos de evolución y adaptación. ¿Existe una tendencia hacia una mayor complejidad de los seres vivientes a medida que pasa el tiempo? Las “ciencias de la complejidad” 7 8

Pueden consultar una página con un tutorial para construir un algoritmo genético aquí. Pueden abrir la página Complexity Digest muy actualizada.

26

forman una especie de potpourri, porque, por ejemplo, el movimiento caótico es mucho más complicado que las oscilaciones armónicas. Respaldado por trabajos de Kauffman sobre co-evolución, estudios de Wolfram sobre los autómatas celulares y las tesis de Bak sobre criticidad auto-organizada, Langton propuso en 1990 la tesis general de que los sistemas complejos emergen y se mantienen al borde del caos9 un estrecho campo entre una constancia congelada y una turbulencia caótica. Robert Axelrod contribuyó con simulaciones en teoría de los juegos a entender cómo evoluciona la cooperación. Usó distintas estrategias que compitieron entre sí en un juego del Dilema del Prisionero repetido, demostrando en 1984 que las estrategias de cooperación mutua (“ojo por ojo”) tienen tendencia a ser dominantes sobre las estrategias egoístas en el largo plazo10. Esta transición desde la evolución biológica al intercambio social conduce a la modelización de procesos económicos, como en Anderson, Philip W.; Arrow, Kenneth J. and Pines, David, The Economy as an Evolving Complex System (1988). Brian Arthur simuló en 1944 el comportamiento que parece caótico de sistemas bursátiles mediante agentes que intentan en forma permanente predecir la conducta futura del sistema y utilizan esas predicciones como bases para sus acciones. La conclusión es que las distintas estrategias predictivas tienden a netearse entre sí, lo que hace que el sistema sea impredecible de modo intrínseco. Este resultado está conectado con la cibernética de segundo orden de von Foerster: la cibernética social, señala Heinz Von Foerster, debería ser una cibernética de segundo orden, una cibernética de la cibernética, de modo tal que, el observador que entra en el sistema pueda estipular su propio propósito: él es autónomo. En su presentación “Cybernetics of Cybernetics”11 señala al respecto: “Si no lo hacemos así, algún otro determinará un propósito para nosotros. Más aún, si no lo hacemos así, les daríamos excusas a aquellos que quieren transferir la responsabilidad de sus propias acciones a algún otro”. Finalmente, si no se reconoce la autonomía de cada uno de los miembros de este sistema, advierte el peligro de que la sociedad se pueda transformar en una sociedad que procura honrar las realizaciones y olvidarse de sus responsabilidades. Pese a que varios biólogos como Ludwig von Bertalanffy, uno de los fundadores de la Teoría de sistemas, impulsaron la cibernética de segundo orden, sus principales entusiastas provinieron principalmente de la neurofisiología, pero sobre todo de la epistemología. Esta disciplina predice que los modelos de los sistemas sociales tienen muy poca incidencia sobre los sistemas reales que buscan modelar.

5. Agentes adaptativos y Economía12 “Los agentes adaptativos pueden aprender estrategias de un juego como del Dilema del Prisionero, lo cual sugiere un enfoque de la economía basada en agentes adaptativos. Conversaciones que mantuve con Brian Arthur del Santa Fe Institute me llevaron a continuar con estas ideas en forma más sistemática. Nuestras ideas, alentadas por interacciones en algunas sesiones del instituto que fueron organizadas por Philip Anderson y Kenneth Arrow, tomaron forma sólida en un proyecto para simular un mercado bursátil usando agentes adaptativos. Este

9

Un sistema es caótico si su trayectoria en el espacio de estados depende de manera sensible de las condiciones iniciales, es decir, si pequeñas causas no observables producen efectos amplios. Christopher G. Langton "Computation at the edge of chaos". Physica D, 42, 1990. 10 Ver Enrique A. Bour, Tratado de Microeconomía, 2009, Cap. XVI, “Teoría experimental de los juegos”. 11 Von Foerster, Heinz (1991). Las Semillas de la Cibernética. Barcelona, España: Gedisa. 12 Traducido del capítulo II de John H. Holland, Hidden Order – How Adaptation Builds Complexity, 1995.

27

proyecto era sólo un experimento y no una predicción: estaba centrado en tener una mejor impresión de la dinámica del mercado. “Aunque pareciera lo contrario, la dinámica del mercado no constituye un área natural de estudio de la economía clásica. Desde el punto de vista clásico, los mercados siempre deberían despejarse rápidamente, moviéndose dentro de estrechos rangos dictados por los cambios de la oferta y la demanda. Los modelos clásicos no generan con facilidad ni choques ni burbujas especulativas. El motivo es simple: la teoría clásica está elaborada con agentes de perfecta racionalidad – que preven perfectamente las consecuencias de sus acciones, incluyendo la acción de otros agentes. Es usual que la dinámica – como los choques y las burbujas especulativas – sea atribuída a hechos incidentales, tales como la degradación ruidosa de la información. “Sin embargo, los mercados reales fluctúan típicamente de modo más rápido, y dentro de rangos más amplios, que lo que harían suponer las fluctuaciones de la oferta y la demanda. Con Arthur pensamos que un modelo basado en agentes adaptativos y de racionalidad limitada13 más que de racionalidad perfecta, era más probable que exhibiera la dinámica “natural”. En particular, pensamos que las especulaciones de anticipación producidas por los modelos internos de esos agentes podrían producir burbujas y choques subsiguientes. En otras palabras, pensamos que el aprendizaje, conjuntamente con los modelos internos imperfectos a que da lugar, generaría automáticamente una dinámica realista sin necesidad de introducir variables exógenas. Y con un modelo computado, podríamos apreciar adónde nos llevaba el mecanismo de la sintaxis de los agentes adaptativos. Para implementar este enfoque, reclutamos a otros científicos, como el físico Richard Palmer, y empezamos a trabajar. En el modelo que utilizamos hay un escaso número de agentes adaptativos que comercian una sola acción, con un programa de especialista (no adaptativo) que adjudica las órdenes de compra y venta para determinar el precio (equivalente a un promedio diario). Para reproducir la “anonimidad” del mercado accionario y mantener simple el ejercicio, 13

Herbert Simon, en Models of My Life, señala que la mayoría de las personas son sólo parcialmente racionales y que, de hecho, actúan según impulsos emocionales no totalmente racionales en muchas de sus acciones (Simon pone a Albert Einstein como ejemplo de racionalidad acotada, en sus intentos por perseguir áreas de trabajo abandonadas por otros científicos). En otro trabajo Simon señala, que “boundedly rational agents experience limits in formulating and solving complex problems and in processing (receiving, storing, retrieving, transmitting) information" (Williamson, Oliver 1981. The economies of organization: the transaction cost approach. American Journal of Sociology 87, citando a H. Simon). Simon, a quien se atribuye el término, describe un cierto número de aspectos en los cuales la concepción "clásica" de racionalidad puede hacerse más realista para describir la conducta económica real de los seres humanos. Los aspectos que señala Simon incluyen: limitar qué tipo de funciones de utilidad serían usables; admitir que existen costos de recopilar y procesar información y que esas operaciones requieren de un tiempo al que los agentes pueden no estar dispuestos a renunciar; admitir la posibilidad de que exista una función vectorial o multivariada de utilidad, que los postkeynesianos especifican empleando una ordinación lexicográfica de las preferencias. Además la racionalidad acotada sugiere que los agentes económicos usan métodos heurísticos para tomar decisiones más que reglas rígidas de optimización. De acuerdo con Simon esta manera de proceder se debe a la complejidad de la situación o a la incapacidad de procesar y computar todas las alternativas, cuando los costos de deliberación son elevados.

28

el único insumo de información de un agente en cada etapa temporal es el precio vigente. En base a esta información, tal vez acoplada con una “historia” (como en el Dilema del Prisionero [repetido]), el agente decide una de entre 3 acciones: COMPRAR, VENDER o RETENER. Si retiene la acción, hay una ganancia dada por los “dividendos” de la acción, luego un agente puede ganar plata simplemente mediante la táctica de retener la acción. (Este dividendo, que no tiene fluctuaciones en los modelos más sencillos, determina el “precio fundamental” de la acción.) La medida de éxito de cualquier agente es la cantidad de dinero que acumuló mediante sus decisiones. “Detallar la implementación no agregaría demasiado a esta descripción, por lo cual pasaré directamente a los resultados. En una corrida típica del modelo, los agentes comienzan con estrategias iniciales randomizadas. Como se puede esperar, al principio el mercado está bastante desordenado. Pero la asignación de crédito y el algoritmo genético proveen rápidamente a cada agente individual reglas basadas en la experiencia para comprar, vender, y retener. Un agente podría desarrollar reglas de este tipo: SI (el precio es 40) ENTONCES (vender), y SI (el precio no llega a 40) ENTONCES (comprar). El mercado se allana rápidamente y comienza a parecerse a un mercado con agentes de la economía clásica. Entonces uno de los agentes encuentra una regla que explota la “inercia” del mercado, y gana dinero vendiendo un poquito más “tarde” en un mercado con precio creciente. Los otros agentes comienzan a anticipar las tendencias, y todo el proceso de aprendizaje produce un mercado que hace de estas proyecciones “profecías auto-cumplidas” – por un rato. A medida que pasa el tiempo y luego de suficientes profecías auto-cumplidas, la conducta se hace cada vez más exagerada, lo que conduce a una burbuja y eventualmente al crac. Todo el proceso parece muy natural, lo que no deja de sorprender dentro de este contexto. Cuando los agentes son “diseccionados”, incluso se encuentran conjuntos de reglas que imitan, dentro de este contexto simple, estrategias de mercado muy conocidas como el “análisis técnico bursátil”.14 “El nuestro no fue el único modelo computado que usó agentes adaptativos que se elaboró en las aulas de economía del Instituto Santa Fe. Hubo otro modelo, tan interesante como el modelo accionario, diseñado por Ramón Marimon y Thomas Sargent (1990), basado en el Triángulo de Wicksell, consistente en tres “países” cada uno de los cuales produce un único producto. Surge un problema porque el 14

Estudio de la acción del mercado, principalmente a través del uso de gráficos, con el propósito de predecir futuras tendencias en el precio. El término “acción del mercado” incluye las tres principales fuentes de información disponibles para el analista técnico. Éstas son: a) Precio o cotización: La variable más importante de la acción del mercado. Normalmente se representa a través de un gráfico de barras, en la parte superior del gráfico; b) Volumen: La cantidad de unidades o contratos operados durante un cierto período de tiempo. Se representa como una barra vertical bajo el gráfico de cotizaciones; c) Interés abierto: Utilizado principalmente en futuros y opciones, representa el número de contratos que permanecen abiertos al cierre del periodo. Se representa como una línea continua por debajo de la acción del precio, pero por encima del volumen. La idea fuerza del análisis técnico es que el precio de la acción refleja toda la información relevante, luego se concentra más que nada en los aspectos “internos” del mercado que en los “externos” (como hechos novedosos). También, el precio de la acción tiende a repetirse porque los inversores en forma colectiva tienden hacia un patrón de comportamiento – de ahí la insistencia del análisis técnico sobre tendencias identificables y condiciones.

29

producto que produce un país no es el producto que desea consumir, el cual es a su vez producido por uno de los otros países. ¿Cuál será la estructura eficiente de comercio entre estos países? Entre otros aspectos, el Triángulo de Wicksell se ocupa de cómo emerge el “dinero”, que implica usar uno de los productos como medio de cambio. El ámbito de acción de cada país en el Triángulo de Wicksell es tan simple que parece preparado para ser simulado por computadora con agentes adaptativos. El triángulo había sido muy estudiado por los economistas, de modo que hay disponibles varios enfoques matemáticos para establecer una comparación. La simulación, comenzando con agentes aleatoriamente dotados de recursos, exhibió que un producto emerge como medio de intercambio, dentro de una amplia gama de condiciones. En la simulación se examinaron las condiciones de emergencia en detalle, permitiendo determinar qué productos servirían como base para otros intercambios. “Estos esfuerzos tempranos para usar agentes adaptativos a fin de estudiar la racionalidad acotada, y la dinámica subsiguiente de las economías descriptas, son sugerentes y esperanzadores. Como estos sistemas nunca están en reposo, ni siquiera en un estado de casi-equilibrio por mucho tiempo, ofrecen una ventana sobre la vida económica que a menudo no está disponible para el estudio riguroso. Uno podría preguntarse: „¿Qué se gana con estudiar un sistema que exhibe novedades perpetuas?‟ Pero la situación no es tan diferente que la enfrentada por un meteorólogo. A través de las escalas de tiempo y distancia, el clima transcurre pasando por medio de cambios que nunca se repiten. Aunque no podemos predecir el clima en detalle dentro de unos pocos días, comprendemos los fenómenos relevantes lo suficiente como para realizar varios ajustes útiles, tanto a corto como a largo plazo. En nuestros estudios de economías basadas en agentes adaptativos, aún tenemos que hallar la contraparte de frentes y de corrientes de aire si queremos progresar. Entonces tal vez se puedan descubrir algunos puntos críticos del sistema.”15

15

La dinámica de sistemas es un método que trata de aproximar la modelización de la dinámica de sistemas complejos, como los sistemas económicos, en los que hay propiedades interactivas entre los objetos, generando comunicación gracias a las transacciones energéticas que se derivan de las relaciones mutuas. En ciencias físicas un punto crítico es aquel límite para el cual el volumen de un líquido es igual al de una masa igual de vapor, o sea en el cual las densidades del líquido y del vapor son iguales. Si se miden las densidades del líquido y del vapor en función de la temperatura y se representan los resultados, puede determinarse la temperatura crítica a partir del punto de intersección de ambas curvas. Es la temperatura y presión por encima de la cual no se puede condensar un gas. Ver figura de esta página.

30

Get in touch

Social

© Copyright 2013 - 2024 MYDOKUMENT.COM - All rights reserved.