REALIMENTACIÓN: ENTRE LO NATURAL Y LO ARTIFICIAL

Universidad Nacional de Educación a Distancia REALIMENTACIÓN: ENTRE LO NATURAL Y LO ARTIFICIAL Lección inaugural SEBASTIÁN DORMIDO BENCOMO Catedrátic

0 downloads 93 Views 2MB Size

Recommend Stories


EL ECOSISTEMA URBANO: SIMBIOSIS ESPACIAL ENTRE LO NATURAL Y LO ARTIFICIAL. Carlos A. Amaya H. 1 RESUMEN
El Ecosistema Urbano: Simbiosis Espacial entre lo Natural y lo Artificial. Revista Forestal Latinoamericana. Carlos A. Amaya et al; Págs. 1 - 16. Rev.

Entre lo político y lo sagrado
ÁGORA Papeles de Filosofía — (2009), 28/2: 119-140 Edipo Rey: entre lo político ISSNy 0211-6642 Nemrod— Carrasco lo sagrado Edipo Rey: Entre lo polít

ARGOS PANOPTES: ENTRE LO HUMANO Y LO DIVINO 1
ARGOS PANOPTES: ENTRE LO HUMANO Y LO DIVINO1 ROSARIO GUARINO ORTEGA Universidad de Murcia Convergen en el episodio protagonizado por Argos Panoptes u

Luz nocturna Natural y Artificial
Luz nocturna Natural y Artificial Susana Malón Giménez. CEO y Directora de Lumínica Ambiental Iluminación artificial de la ciudad Vs Iluminación natu

Lenguaje natural y artificial. Constituyentes
Jaime Arias Prieto Lenguaje natural y artificial. Constituyentes 1) Lenguaje natural y artificial - Natural: Aquel lenguaje que sirve para comunicar

Story Transcript

Universidad Nacional de Educación a Distancia

REALIMENTACIÓN: ENTRE LO NATURAL Y LO ARTIFICIAL Lección inaugural SEBASTIÁN DORMIDO BENCOMO Catedrático del Departamento de Informática y Automática

Escuela Técnica Superior de Ingeniería Informática

Madrid, 8 de octubre de 2015

ÍNDICE 1. Introducción .................................................................................................................    3 2.  El concepto de realimentación ........................................................................    9 3.  Los orígenes de la realimentación .................................................................   12 4.  La realimentación en los seres vivos: procesos homeostáticos ....   18 5.  Dos historias de éxito de la realimentación ..........................................   28 5.1. Algunos antecedentes de la regulación de velocidad de la máquina de vapor .................................................................................. 29 5.2. La máquina de vapor y el regulador de Watt ......................... 33 5.3. La telefonía de larga distancia y el desarrollo del amplificador de realimentación ...................................................................... 37 6.  Propiedades de la realimentación ..................................................................   46 6.1. Robustez de la realimentación frente a las incertidumbres .......................................................................................................................... 46 6.2.  Diseño de la dinámica mediante realimentación ................ 48 6.3.  Algunas desventajas de la realimentación ................................. 49 7.  Interdisciplinariedad de la realimentación .............................................   50 7.1. Realimentación en sociología ............................................................. 55 7.2. Realimentación en economía ............................................................. 58 7.3. Realimentación en educación ............................................................ 61 7.4. Realimentación en biología ................................................................. 65 7.5. Realimentación en ecología ................................................................. 66 8. Conclusiones .................................................................................................................   67 9. Referencias bibliográficas ....................................................................................   69

1. INTRODUCCIÓN Mi campo de investigación y docencia es la automática, que emerge como una disciplina interesante y satisfactoria en un período de apenas 75 años. El desarrollo del campo ha sido muy activo y motivador. El control automático es la primera disciplina técnica que trasciende las fronteras de las ingenierías tradicionales (mecánica, civil, eléctrica, química, nuclear, etc). La automática tiene una base firme en las matemáticas aplicadas y un abanico muy amplio de aplicaciones. Su concurso resulta crucial en la generación y transmisión de energía, en el control de procesos de todo tipo, en la fabricación de bienes y equipos, en la comunicación, en el transporte, e incluso para el entretenimiento y el ocio. Ha sido un elemento clave en el diseño de equipos experimentales y en la instrumentación utilizada en las ciencias básicas (Dormido, 2004). El diccionario de la RAE la define en los términos siguientes: “Automática es la ciencia que trata de los métodos y procedimientos cuya finalidad es la sustitución de un operador humano por un operador artificial en la consecución de una tarea física o mental”. Esta definición nos muestra las dos vertientes de la automática. Por un lado lleva consigo la liberación del ser humano de todas aquellas tareas que son susceptibles de ser automatizadas, pero, por otro, las máqui3

Realimentación: entre lo natural y lo artificial

nas también quedan liberadas de las restricciones impuestas por la limitación de nuestras propias facultades1. La irrupción formal de la automática como una disciplina científica se produce durante la Segunda Guerra Mundial, cuando se llegó al convencimiento de que el binomio ciencia-tecnología podía tener un impacto drástico sobre las demandas de la guerra. El desarrollo estuvo fuertemente estimulado por los equipos multidisciplinares que se formaron. La fuerza motriz más importante vino del desarrollo del radar y del control de los cañones antiaéreos. Como muchas otras ramas de la ingeniería, su evolución ha seguido el mismo esquema de las ciencias básicas (física, química...) y, aunque existen fuertes similitudes entre ambas, es importante hacer notar algunas diferencias fundamentales. La razón de ser de las ciencias básicas es capturar los fenómenos de la naturaleza, lo que coloca su énfasis en el análisis y en el aislamiento de fenómenos simples. El objetivo final es encontrar las leyes fundamentales que describen la naturaleza. Por su parte, la ingeniería trata de comprender, inventar y construir sistemas de naturaleza técnica hechos por el ser humano. Este planteamiento desplaza el interés hacia el diseño. Resulta así natural estudiar la interacción en lugar del aislamiento en un sistema. En este contexto parece pertinente precisar, aunque sea de forma muy somera, ¿qué entendemos por sistema? Me atrevería a decir que “sistema” es uno de los vocablos más utilizados: en todas las ramas del saber hablamos de “sistema” de una u otra forma. Es normal referirnos al estudio de un sistema físico, un sistema biológico, un sistema económico, un sistema educativo o un sistema social o político por citar solo unos pocos ejemplos. Evidentemente la denominación de “sistema” resulta muy vaga y puede evocar pensamientos distintos en los diferentes colectivos que lo utilizan. Sin entrar en ningún tipo de definición formal que no se precisa en este momento, un sistema es cualquier objeto, dispositivo o ente donde se manifiesta una  Para una introducción lúcida y asequible a los fundamentos del control automático ver: P. Alber­tos, I. Mareels, Feedback and Control for Everyone, Springer-Verlag, 2010.

1

4

Sebastián Dormido Bencomo

relación de causa-efecto. Puesto que vivimos en un universo causal, podríamos decir que cualquier cosa puede considerarse como un sistema. Evidentemente cualquier cosa no puede ser objeto de estudio de una disciplina. La automática en su concepción de teoría de sistemas se limita esencialmente a la consideración y estudio de los sistemas dinámicos, es decir, aquellos en los que indefectiblemente tienen lugar algún tipo de evolución en el transcurso del tiempo, a menudo como respuesta a un estímulo externo que actúa sobre el mismo. Uno de los esfuerzos en automática está centrado en encontrar principios generales que se puedan utilizar en el estudio de los sistemas dinámicos independientemente de cual sea su tipología y complejidad. La realimentación, que es una de las señas de identidad de la automática, es un buen ejemplo de lo que es un principio universal. Si consideramos la universalidad del concepto y el hecho de que la operación de realimentación se puede observar en una gran variedad de fenómenos, por ejemplo desde los ciclos de población de los animales predatorios hasta los altibajos que sufre el mercado de valores, nos resulta curioso que el estudio teórico del concepto de control por realimentación haya aparecido tan tarde en el desarrollo de la ciencia y de la tecnología. El término realimentación se utiliza para referirse a una situación en la cual dos o más sistemas dinámicos están conectados entre sí, de forma que cada sistema influye sobre los otros de manera que sus dinámicas están fuertemente acopladas. Un razonamiento de tipo causal en relación con un sistema realimentado es difícil porque el primer sistema influye sobre el segundo, y el segundo sobre el primero, lo que nos lleva a un argumento de tipo circular. Por esa razón los sistemas que presentan realimentación deben estudiarse en su globalidad, y no considerando cada subsistema independientemente. Una consecuencia de esto es que con cierta frecuencia la conducta de los sistemas realimentados es contraintuitiva y su estudio requiere 5

Realimentación: entre lo natural y lo artificial

recurrir a métodos formales que permitan comprender su funcionamiento. La Figura 1 ilustra en forma de diagrama de bloques la idea que acabamos de comentar de realimentación (Åström et al., 2008). Sistema 1

Sistema 2

Sistema 1

a) Lazo cerrado

Sistema 2

b) Lazo abierto

Figura 1. Sistema en lazo cerrado y en lazo abierto. a) La salida del sistema 1 se usa como entrada del sistema 2 y la salida del sistema 2 es la entrada del sistema 1, creando así un sistema en “lazo cerrado”. b) Se elimina la interconexión entre el sistema 2 y el sistema 1. Se dice entonces que el sistema está en “lazo abierto”.

Su definición conceptual, caracterización, evolución histórica, importancia y universalidad van a ser el tema central de esta lección inaugural del Curso Académico 2015-16, que tiene en su título también una referencia explícita a lo natural y lo artificial. En el mundo físico o material en el que transcurre nuestra existencia se distinguen claramente dos sistemas superpuestos e interrelacionados: un mundo natural, el mundo dado; y un mundo artificial, el mundo construido. Se puede pues hablar de dos entidades estrechamente imbricadas pero cada una con características propias. Platón argumentaba que todos los artefactos (incluyendo las obras de arte) son imitaciones de algo natural, de algo genuino u original. Para Platón, decir que algo es “artificial” es decir que esa cosa parece ser, pero no es realmente aquello que imita. Lo artificial es meramente aparente y lo único que hace es mostrar cómo es alguna otra cosa. Aristóteles planteaba la cuestión de un modo diferente. Creía que la naturaleza y el arte (lo natural y lo artificial) no tienen nada en común; constituyen dos ámbitos diferentes de la realidad. En consecuencia, las leyes que gobiernan estos dos tipos de entidades difieren de forma esencial y, por esta razón, el conocimiento de ambas también es distinto. La ciencia natural no incluye el saber-cómo de los instrumentos, las herramientas y las máquinas, y éstas últimas no ofrecen ninguna ayuda para el conocimiento de las entidades 6

Sebastián Dormido Bencomo

naturales. Se trata de dos tipos distintos de conocimiento. Los entes naturales muestran una forma primaria, mientras que los artificiales tienen una forma secundaria que los agentes humanos les imponen. Así, los predicados “natural” y “artificial” eran términos con carga valorativa para los filósofos de la antigua Grecia. Lo natural, lo producido por la naturaleza, tenía un valor más elevado que lo artificial, fabricado por los hombres. Además, el término “natural” añadía otra connotación: significaba algo orgánico, vivo, autónomo y espontáneo, mientras que “artificial” quería expresar algo muerto, sin alma y, en general, inferior a las cosas naturales. La dicotomía aristotélica natural/artificial fue finalmente destruida y reemplazada por la dicotomía real/no real en el siglo XVII, fundamentalmente gracias a Francis Bacon y René Descartes. Mientras que los aristotélicos mantenían separados ambos dominios de conocimiento (teoría y práctica), asumiendo que la última no tenía ningún poder sobre la primera, Bacon declaró que el saber-cómo técnico era una fuente potencial de afirmaciones de conocimiento genuinas (Hdez. Reynés, 2009). La tecnología, según Bacon, puede contribuir al desarrollo de la ciencia natural, porque se aprende más de la naturaleza, según sus propias palabras, “cuando está sujeta a los ensayos e intervenciones impuestas en ella por las artes mecánicas que cuando se le permite seguir su propio curso” (Bacon, cit. en Dijksterhuis, 1986: 401). Nos encontramos ahora de vuelta a comienzos del siglo XXI. En lo que se refiere a la distinción natural/artificial, somos auténticos herederos de la concepción baconiano-cartesiana. La única característica permanente en la definición de “artificial” parece ser su carácter de “producto humano”. Sin lugar a dudas el medio físico en el que se desarrollan las actividades humanas es más artificial que natural y se ha ido gestando como consecuencia del accionar tecnológico o humano en la búsqueda de mejorar las condiciones de existencia, o de dominar y controlar el en7

Realimentación: entre lo natural y lo artificial

torno en que vivimos. Lo construido, producto de ese accionar tecnológico, hoy enmarca la existencia cotidiana, y la artificialidad que lo generó y lo sustenta es lo típicamente humano del mundo físico. Dentro de este esquema, y siempre vinculado al medio físico, se desenvuelven entre otras, dos actividades: la ciencia y la tecnología. La ciencia, sobre todo las ciencias naturales, se ocupa en gran medida del mundo natural. La tecnología, por otra parte, se ocupa del mundo artificial. Es precisamente en este ir y venir entre lo natural y lo artificial donde la idea de realimentación funde sus raíces y aparece como un marco de referencia y un concepto unificador entre ambas visiones. El ser humano como exponente máximo de lo natural es en cierto sentido un complejo sistema realimentado. Por otra parte los sistemas artificiales de cierta complejidad construidos por el ser humano no hubieran sido posibles sin utilizar la idea de realimentación. Desde esta perspectiva esta lección tiene como objetivo describir cómo se desarrollaron las ideas y cómo emergió el concepto de realimentación. Un concepto ubicuo y universal que se utiliza y tiene aplicación en todas las disciplinas del conocimiento humano: científicas y tecnológicas, sociales y humanísticas. Un concepto que va también desde lo natural, es decir, lo dado, lo que no es obra del hombre; hasta lo artificial, es decir, lo construido lo que es obra humana. Quisiera plantear respuestas, en un lenguaje lo más sencillo posible y sin excesivos tecnicismos, a algunos interrogantes: ¿Qué entendemos por realimentación? ¿Por qué es importante su estudio? ¿Qué problemas tiene? ¿Cuáles son sus ventajas y desventajas? Son obviamente muchas preguntas y poco el tiempo para desarrollarlas dentro del marco que el protocolo de este acto nos otorga. Sin embargo confío que esta exposición les inculque la idea de que su conocimiento y estudio merece la pena, y que los avances que se produzcan en lo que es mi campo de investigación —la automática (que es donde la realimentación encuentra su “habitat natural”)— tendrán una importancia crucial para el bienestar y desarrollo futuro de nuestra sociedad. 8

Sebastián Dormido Bencomo

Hemos estructurado la lección de la siguiente forma. En primer lugar abordamos el concepto de realimentación, ilustrado con un sencillo ejemplo de nuestra vida cotidiana. A continuación se exponen los orígenes de la realimentación que encuentran sus raíces en la denominada Escuela de Alejandría de la antigua Grecia. A la realimentación en los seres vivos y a los procesos homeostáticos le dedicamos una sección específica. Por su importancia histórica y por el papel fundamental que en ambas jugó la realimentación se presentan lo que denomino “dos historias de éxito de la realimentación”. La primera de ellas dio origen a la primera revolución industrial que se simboliza con la eclosión de la máquina de vapor y el regulador de James Watt como mecanismo de realimentación que permitía controlar su velocidad. La segunda es el descubrimiento del amplificador realimentado por parte de Harold Black, que abrió de par en par las puertas de las tecnologías de la comunicación y de la información. La siguiente sección resume las propiedades de la realimentación así como algunas de sus desventajas, para después abordar una de sus características fundamentales: su interdisciplinariedad. La idea de realimentación se ha empleado de forma satisfactoria en numerosos campos del saber: economía, sociología, educación, políticas, psicología etc. Un análisis de la realimentación como concepto universal no quedaría completo sin al menos dar unas pinceladas a su utilización e importancia en otras disciplinas. Finalmente, y a modo de conclusión, se señalan los retos que hoy plantea la aplicación del concepto de realimentación. 2.  EL CONCEPTO DE REALIMENTACIÓN El vocablo “realimentación” es un neologismo del siglo XX, introducido en los años veinte por los ingenieros que trabajaban en el desarrollo de la radio con el fin de referirse a cómo la salida de los amplificadores de radio se introducía de forma parásita a su entrada para reforzarla. Posteriormente se introdujo en el lenguaje coloquial durante la segunda mitad del siglo pasado. En la última edición del diccionario de la RAE se define “realimentación” en los términos 9

Realimentación: entre lo natural y lo artificial

siguientes: “Retorno de parte de la salida de un circuito o sistema a su propia entrada”2. En palabras de Norbert Wiener3 realimentación es un método de controlar un sistema reinsertando en él los resultados de su comportamiento anterior. Para ilustrar el concepto de realimentación vamos a considerar un proceso muy sencillo de la vida cotidiana como es el llenar un vaso de agua4 (ver Figura 2). En este caso, el grifo, el vaso y la persona que lo llena son las partes que constituye nuestro sistema. La función de llenar un vaso de agua presupone que el que lo realiza abre el grifo, observa cómo aumenta el nivel del agua en el vaso y lo cierra cuando estima que el nivel alcanzado es el deseado. Podemos explicar lo que sucede diciendo que el que llena el vaso compara el nivel alcanzado (variable a controlar) con el nivel deseado (variable de referencia o punto de consigna) y actúa sobre el grifo en función de este error, de modo que según disminuya la diferencia de niveles irá cerrando el grifo hasta hacerlo definitivamente cuando la discrepancia se anule.

flujo

(

)

nivel deseado

de ) ( agua

(discrepancia)

de ( flujo agua )

+ nivel (deseado )

+

+

( ) nivel

(discrepancia)

(nivel)

-

Figura 2. Diagrama básico del proceso de llenar un vaso de agua.

Se ha superpuesto al dibujo que representa el proceso de llenar un vaso de agua un diagrama en el que de forma esquemática se indican  La definición adoptada por la RAE sigue de manera muy fidedigna la acepción original con la que fue introducido el término. 3  Norbert Wiener (1894-1964) fue un matemático estadounidense, conocido como el fundador de la cibernética. Acuñó el término en su libro Cibernética o el control y comunicación en animales y máquinas, publicado en 1948. 4   Ejemplo adaptado del libro de J. Aracil y F. Gordillo, Dinámica de Sistemas, Alianza Editorial, 1997. 2

10

Sebastián Dormido Bencomo

las influencias implícitas de la operación que hemos indicado. Este diagrama básico se muestra de forma aislada en la parte derecha, donde las flechas expresan las influencias que se producen entre los distintos elementos que intervienen en la descripción de este proceso. Así, se indica mediante una flecha que el flujo de agua influye sobre el nivel alcanzado en el vaso. Además, mediante un signo + se señala que dicha influencia es positiva, lo que significa que a mayor caudal de agua, mayor nivel alcanzado. De forma análoga, al crecer el nivel disminuye la discrepancia, lo que se indica mediante una flecha a la que se asocia un signo –. Finalmente la discrepancia o error se determina a partir del nivel deseado y del nivel alcanzado. Si cuando se está llenando el vaso de agua le tapamos los ojos a la persona que lo está realizando se rompe el lazo de realimentación y no se podrá realizar de forma satisfactoria la tarea. Esto nos indica que la acción de realimentación se está haciendo mediante la vista del ser humano. Este ejemplo muestra de qué forma se puede analizar un sistema, descomponiéndolo en sus elementos esenciales y relacionando estos mismos elementos mediante un esquema de como se producen las influencias entre ellos. Lo describimos de la forma más sencilla que podemos, que se limita a establecer sus componentes básicos y las influencias que se establecen entre ellos. En este ejemplo concreto se ilustra también lo que es la estructura de un bucle de realimentación, en el que se produce una transmisión de información circular de forma continua. En este sentido se puede decir que un sistema de control realimentado o un sistema de control en lazo cerrado es aquel que tiende a mantener una relación prevista de una variable del sistema (variable controlada) respecto a otra (variable de referencia o punto de consigna), comparándolas y utilizando su diferencia como un mecanismo para su control (variable manipulada). Estamos particularmente interesados en los sistemas automáticos de control, es decir, aquellos sistemas donde todas las operaciones se realizan sin intervención de un operador humano y dejando aparte los sistemas de control ma11

Realimentación: entre lo natural y lo artificial

nual, donde la comparación y el control se efectúan por un operador manual, tal como sucede en el ejemplo presentado del llenado del vaso de agua. Tres criterios nos servirán de base para reconocer los sistemas automáticos de control por realimentación: 1. Su propósito es realizar de forma automática una acción de gobierno (controlar el valor de una variable). 2. El sistema opera en lazo cerrado (bucle de realimentación). 3. El sistema incluye un elemento sensor, un elemento comparador y un elemento actuador, como elementos físicamente separables del resto. Su importancia se ilustra por el hecho de haber dado su nombre a la cibernética. Cuando en 1948 Norbert Wiener (1948) cristalizaba los fundamentos de esta nueva disciplina no sabía que en 1834 A. M. Ampere había propuesto “Cybernetique” como un término para la ciencia del gobierno. Ampere utilizó la palabra griega kubernhthz, que significa ‘timonel’ a la cual había llegado a través de la etimología de la palabra ‘governor’, término propuesto por J. C. Maxwell (1868) en su trabajo “On governors” (ver sección 5.2).

3.  LOS ORÍGENES DE LA REALIMENTACIÓN Con mucha frecuencia desconocemos los orígenes de nuestras disciplinas científicas. Somos ignorantes de nuestro pasado y, lo que es peor, ignorantes de nuestra propia ignorancia. En este sentido viene a mi memoria lo que T. M Smith dice en su artículo “Algunas perspectivas sobre la historia primitiva de los computadores” (Smith, 1975). La ignorancia a la que aludo se puede comparar en palabras de Smith a la del tocólogo del cuento a quien estaban mostrando una buena biblioteca de investigación sobre historia de la medicina. Al finalizar la visita el tocólogo comentó que pensaba seriamente dedicarse, cuando se jubilase, a la historia de la medicina. “Buena 12

Sebastián Dormido Bencomo

idea”, respondió sin pestañear el historiador profesional encargado de la biblioteca. “Yo también había pensado dedicar mi tiempo al jubilarme al ejercicio de la obstetricia”. La verdad de la cuestión es que la mayoría de los expertos en problemas actuales desconocen el pasado de su especialidad, tanto en lo que afecta a su documentación como en lo que atañe al contexto en el que se produjeron los hitos mas relevantes que la conformaron. Desde hace tiempo he venido reflexionando sobre los orígenes de la automática, y por supuesto sin querer arrogarme la petulancia del tocólogo de la historia de T. Smith, y sí, por el contrario, reconociendo mis evidentes limitaciones sobre el tema, me parece un ejercicio bueno y saludable echar la vista atrás y contemplar los avances de una disciplina desde el contexto histórico en que se producen. Con frecuencia los libros de texto incluyen una relación cronológica sin sentido de los diferentes avances que se han ido sucediendo. Como dicen los manuales de historia, el paso del tiempo permite ver las cosas con una mejor perspectiva, y al distanciarnos de los sucesos ganamos en objetividad y valoramos mejor su impacto posterior. En realidad, el pasado es reticular y no lineal. Es una malla de acontecimientos entretejidos e interrelacionados de forma complicada e inesperada y no siempre racional. En consecuencia, el fenómeno histórico de convergencia es mucho más significativo que la simple cuestión de quien fue el creador o inventor de tal o cual teoría o dispositivo. Por convergencia histórica entendemos la conjunción de dos o más tradiciones que han tenido, por separado, sus propios pasados. Su confluencia pone en movimiento una nueva secuencia de acontecimientos. Estos nuevos acontecimientos se convierten en tradicionales con el paso del tiempo y participan en la red convergente de sucesos que conforman el presente a partir del pasado. El concepto de realimentación que arranca con fuerza con los filósofos griegos de la escuela de Alejandría es un ejemplo claro de este fenómeno de convergencia al que me he referido. Sin embargo podemos decir que las primeras evidencias de la actividad consciente 13

Realimentación: entre lo natural y lo artificial

del hombre en el campo del control automático utilizando las ideas de realimentación las tenemos ya en los sistemas de regadío empleados en Babilonia 2000 años antes de Cristo y conocidas a través de las leyes grabadas en el Código de Hamurabi. En un trabajo muy bien documentado, Otto Mayr (Mayr, 1970) analiza los distintos artificios que a lo largo de la historia se han ideado y que utilizan la realimentación para su funcionamiento. Durante la edad de oro de la escuela de Alejandría (R. MacLeod ed, 2004), el pensamiento griego evolucionó hacia lo que Newton dio en llamar siglos después “filosofía natural”. Este giro del pensamiento griego culmina en la búsqueda por la observación, la medida, el diseño y la construcción. La escuela de Alejandría está íntimamente unida a tres ingenieros del mundo helenístico: Ktesibios de Alejandría, Philon de Bizancio y Heron de Alejandría, que vivieron en un período que abarca desde el siglo II a. C. hasta el siglo I d. C. Sus contribuciones influyeron sobre la ciencia y la tecnología occidental, y sus escritos fueron reimpresos hasta el siglo XVI d. C. Ktesibios (circa 270 a. C.) fue un físico e inventor griego al que se le puede considerar por derecho propio como la primera gran figura de la antigua tradición ingenieril de la escuela de Alejandría. Se le atribuye el descubrimiento de la elasticidad del aire, así como la invención de algunos dispositivos utilizando aire comprimido. No obstante su invento más famoso fue una mejora de la clepsydra o reloj de agua, que consistía básicamente en un estanque receptor de un caudal. El nivel de agua que iba subiendo paulatinamente indicaba el tiempo transcurrido. Pero Ktesibios no se había conformado con hacer lo básico: había incluido un mecanismo para mantener constante el caudal (ver Figura 3). El mecanismo consistía en una cámara con un orificio en su cara superior (por donde debía entrar el caudal de agua en su camino al estanque), un orificio en la parte inferior (por donde debía salir el 14

Sebastián Dormido Bencomo

caudal de agua) y un flotador en el interior. Al aumentar el caudal, la masa de agua acumulada en la cámara aumentaba, el flotador subía obstruyendo el orificio superior, y el caudal debía por lo tanto disminuir. De este sencillo análisis se puede concluir que la clepsydra de Ktesibios incorporaba un genuino mecanismo de realimentación: el flotador que jugaba al mismo tiempo un doble papel de sensor y actuador para mantener el nivel de agua en la cámara aproximadamente constante. De esta forma aseguraba un caudal también constante y, por lo tanto, proporcionaba una medida precisa del paso del tiempo. Este dispositivo fue tan satisfactorio que estaba en uso en Bagdad hacia el año 1200 d. C. cuando los mongoles conquistaron la ciudad. Desgraciadamente los escritos de Ktesibios no han llegado hasta nosotros y sus inventos se conocen solo a través de las referencias de Vitruvius y Heron de Alejandría. qi

H

E

hr

F

G D

A

qo B C

hm Figura 3. Esquema del reloj de agua de Ktesibios.

Philon de Bizancio (circa 230 a. C.) escribió algunos libros (la mayoría de los cuales han sobrevivido al paso del tiempo) sobre palancas, relojes de agua, mecanismos neumáticos y máquinas militares entre otros, siendo su contribución más importante los engranajes 15

Realimentación: entre lo natural y lo artificial

cilíndricos. La transferencia de potencia mecánica y el efecto de multiplicación y división de las máquinas de movimiento circular se basan en este tipo de engranajes. Su tratado sobre neumática aborda propiedades físicas claves de los líquidos y gases respaldados por una plétora de experimentos. Philon avanzó aún más en los desarrollos de los mecanismos automáticos que había comenzado años atrás Ktesibios en Alejandría. En concreto, y por lo que respecta al reloj de agua, introdujo ciertos refinamientos al mecanismo para mantener constante el caudal de agua. Con mucho cuidado separó las labores de flotación (sensor) y obstrucción (actuador) cambiándolo por un sistema consistente en un flotador y un tapón conectados por palancas. La obstrucción del caudal entonces podía hacerse dependiente del agua acumulada en recintos alejados del propio caudal. La traducción al árabe de su obra Neumática es un tesoro de tales dispositivos automáticos, basados en las propiedades del aire, líquidos, fuego, flotadores y engranajes. En conjunto suponen una sólida fundamentación para una nueva tecnología: la automatización. Aunque no completó su trabajo, proporcionó las bases para los desarrollos tecnológicos europeos de los siguientes 1500 años. Ochocientos años de tradición en la ciencia y tecnología de la antigua Grecia culminaron con el enorme trabajo de Heron, científico de gran calado. Heron de Alejandría (circa 60 d. C.) enseñó en el museo de Alejandría y presentó en sus libros Acerca de la neumática y Acerca de la automatización todo el conocimiento hasta entonces disponible sobre las tecnologías de la automatización. Entre los textos que le han sobrevivido, su libro sobre automatización contiene los fundamentos del control automático moderno y es el documento más antiguo conocido que describe sistemas automáticos mecánicos capaces de efectuar movimientos programados. En sus escritos se refiere a máquinas automáticas que operan y mueven sin intervención humana al capitalizar las propiedades del vapor, líquidos y gases, e involucra sistemas mecánicos complejos y la programación ingeniosa de movimientos. Cada dispositivo mecánico era descompuesto en sus componentes constituyentes, que a su vez 16

Sebastián Dormido Bencomo

se refieren a palancas con una interpretación geométrica básica. Se buscaba una metodología aunque el objetivo último de los libros de Heron fueron las aplicaciones. En su libro Acerca de la neumática Heron introdujo el vapor como una importante fuerza motriz. No inventó la máquina de vapor de Watt, pero presentó nociones básicas, como la fuerza elevadora y motriz del vapor así como sus propiedades bajo comprensión y expansión. Estos dos libros son los más antiguos que se preservan en sus manuscritos griegos originales que describen aplicaciones de sistemas de control neumáticos e hidráulicos. Contiene una colección sistemática de máquinas realizadas antes y durante su vida. Estas máquinas se movían con agua, aire o la presión del vapor. Producían sonidos y se concibieron para decorar lugares públicos y asombrar o servir a las necesidades prácticas de los espectadores. Entre los inventos de Heron están los ‘teatros automáticos’, capaces de gestionar una representación teatral completa con escenarios automáticos, que cambiaban de forma automática los decorados y movían las marionetas que representaban una obra. Los logros mecánicos durante estos siglos fueron muy significativos. El mundo tuvo a uno de sus genios más grande, Arquímedes, quien ideó armas notables para proteger a su ciudad Siracusa de la invasión romana, y aplicó su prodigiosa mente a dispositivos mecánicos básicos como el tornillo, la polea y la palanca. Los ingenieros de Alejandría, tales como Ktesibios y Heron, inventaron una enormidad de artilugios mecánicos ingeniosos incluyendo bombas, órganos de viento e hidráulicos y máquinas de aire comprimido. También idearon juguetes y autómatas que pueden considerarse como la primera turbina de vapor satisfactoria. De este breve análisis sobre los orígenes de la realimentación en la cultura griega se puede concluir el poco uso práctico que dieron a todas estas invenciones, sin embargo la escuela de Alejandría marca 17

Realimentación: entre lo natural y lo artificial

una transición importante desde mecanismos muy simples a dispositivos más complejos que propiamente merecen ser consideradas como máquinas. En cierto sentido la escuela de Alejandría proporcionó un punto de arranque para la práctica mecánica moderna. 4. LA REALIMENTACIÓN EN LOS SERES VIVOS: PROCESOS HOMEOSTÁTICOS Los sistemas biológicos hacen uso de la realimentación en un número extraordinario de formas, en escalas que van desde las moléculas a las células, y desde los organismos vivos a los ecosistemas. Todo ser vivo es un sistema autorregulado que debe su existencia, su estabilidad y la mayor parte de su conducta a los mecanismos de realimentación que lleva implícitos. En realidad se puede decir que son en parte complejos sistemas de control realimentados, que interaccionan continuamente con su medio ambiente. La destrucción de algunos de estos sistemas provoca enfermedades como la ataxia locomotriz, que consiste en la desaparición de un lazo de realimentación, cuya misión es indicar al cerebro la posición de un miembro cuando se ejecuta un movimiento. Las personas que sufren esta enfermedad resultan torpes en sus movimientos, que pueden seguir ejecutando gracias a la sustitución del lazo de realimentación de origen nervioso por la vista. Hay muchos mecanismos de realimentación en biología y medicina. La realimentación es una característica central de la vida. Todos los organismos tienen la capacidad de saber cómo lo están haciendo y realizar las modificaciones necesarias. El proceso de realimentación gobierna cómo crecemos, cómo respondemos al esfuerzo, y regula factores tales como la temperatura del cuerpo, la presión de la sangre y el nivel del colesterol. La realimentación nos permite estar erguidos. Algunas de estas funciones son funciones simples pero otras son más complicadas, orientadas a tareas. El cuerpo humano está constituido por trillones de células que trabajan todas juntas de forma colaborativa para garantizar su funcio18

Sebastián Dormido Bencomo

namiento. Mientras las células, tejidos y órganos pueden efectuar funciones muy diferentes, todas las células de nuestro cuerpo son similares en sus necesidades metabólicas. La consecución de un entorno interno constante proporcionándole a las células todo lo que necesitan para sobrevivir (oxígeno, nutrientes y eliminación de desechos) es necesario para el bienestar no solo de las células a nivel individual sino de todo nuestro organismo. Los muchos procesos mediante los cuales el cuerpo controla su entorno interno se llaman colectivamente homeostasis. La actividad complementaria de los grandes sistemas del cuerpo mantiene la homeostasis. El término homeostasis fue acuñado por el fisiólogo americano Walter Cannon, quien lo propuso para ayudar a describir la función del cuerpo humano, aunque corresponde al fisiólogo francés Claude Bernard 50 años antes el honor de ser el primero que observó y estudió que el medio interno de nuestro cuerpo permanecía esencialmente constante a pesar de los cambios que pudieran producirse en su entorno exterior5 (Bernard, 1878; Cooper, 2008). Homeostasis es pues simplemente el mantenimiento de la constancia de nuestro entorno interno. Cannon justificaba la introducción de este nuevo neologismo, que pretende distinguir a los sistemas fisiológicos de los sistemas meramente físicos en los términos siguientes: Las reacciones fisiológicas coordinadas que mantienen la mayoría de los estados estacionarios del cuerpo humano son tan complejas y peculiares de los organismos vivos que he sugerido que se emplee un nombre específico para estos estados homeostasis (Cannon, 1929, p 400).

El contraste entre los procesos fisiológicos in vivo y las reacciones in vitro de los procesos químicos fueron el leitmotif de los trabajos de C. Bernard. Cannon lo que estaba haciendo, de esta forma, era reafirmar la posición de Bernard para la fisiología del siglo XX, indicando que los procesos vivos no se podían comprender solamente de los estudios derivados de una probeta de cristal en un laboratorio químico.   Este trabajo de Bernard se publicó póstumamente.

5

19

Realimentación: entre lo natural y lo artificial

Los seres vivos son sistemas abiertos en contacto continuo con el entorno exterior, que reaccionan frente a cambios en su medio, pero también están propensos a grandes fluctuaciones siempre que las condiciones medio ambientales se vean fuertemente perturbadas. Sin embargo, a través de su sistema de control, los organismos de la escala superior del reino animal son capaces de realizar los ajustes compensatorios internos que son necesarios dentro de unos “límites estrechos”. De esta forma no se consigue un valor constante, pero la variación de las variables fisiológicas se mantiene dentro de un pequeño rango de valores. Por esta razón Cannon manifestó su preferencia por el prefijo derivado del griego “homeo” (que significa “parecido” o “similar”) en lugar de “homo” (que quiere decir “mismo” o “igual”). La constancia del entorno interno es por lo tanto un atributo relativo en lugar de absoluto y debería entenderse en su sentido fisiológico en lugar de en una forma estrictamente físicoquímica. La homeostasis se refiere a estabilidad, balance o equilibrio dentro de una célula o del cuerpo humano en su totalidad. Es la capacidad que tiene un organismo para mantener un entorno interno constante. El mantenimiento de un entorno interno estable requiere un ajuste continuo cuando cambian las condiciones dentro y fuera de la célula. El ajuste de sistemas dentro de una célula se denomina regulación homeostática. La mayoría de la regulación homeostática se controla mediante la liberación de hormonas en el flujo sanguíneo. El sistema endocrino juega un papel importante en la homeostasis debido a que las hormonas regulan la actividad de nuestras células. La liberación de hormonas en la sangre se controla mediante estímulos. Por ejemplo, un estímulo puede originar un aumento o una disminución en la cantidad de hormona segregada. Entonces, la respuesta a un estímulo cambia las condiciones internas y puede por sí mismo hacerse un nuevo estímulo. Este mecanismo de ajuste se denomina regulación por realimentación. La regulación por realimentación ocurre cuando la respuesta a un estímulo tiene un efecto de algún tipo sobre el estímulo original. El 20

Sebastián Dormido Bencomo

tipo de respuesta determina cómo se llama la realimentación. Decimos que ocurre realimentación negativa cuando la respuesta a un estímulo reduce el estímulo original y realimentación positiva cuando la respuesta a un estímulo aumenta este mismo estímulo original. Todos los mecanismos de control homeostáticos tienen al menos tres componentes interdependientes para la variable que está siendo regulada: el receptor es el componente sensor que mide y responde a los cambios que se producen en el entorno. Cuando el receptor mide un estímulo, envía la información al “centro de control”, que es el componente que fija cuál es el rango en el que se mantiene una variable. El centro de control determina una respuesta apropiada al estímulo. En la mayoría de los mecanismos homeostáticos el centro de control es el cerebro. El centro de control envía entonces señales a un efector, que es el componente actuador y que pueden ser los músculos, órganos u otras estructuras que reciben las señales del centro de control. Después de recibir la señal, ocurre un cambio para corregir la desviación bien aumentándola con realimentación positiva o suprimiéndola con realimentación negativa. La realimentación negativa es el lazo de realimentación más común en los sistemas biológicos. El sistema actúa para invertir la dirección del cambio. Debido a que esta estrategia tiende a mantener las cosas constantes, permite el equilibrio dinámico del balance homeostático. Analicemos de forma muy conceptual algunos de estos lazos de realimentación negativa que el ser humano incorpora para su funcionamiento normal. 1. Regulación de la presión sanguínea. Un buen ejemplo de esto es la regulación de la presión de la sangre. Los vasos sanguíneos pueden medir la resistencia del flujo sanguíneo contra las paredes de las venas y las arterias cuando aumenta la presión sanguínea. Los vasos sanguíneos actúan como los receptores, y transmiten este mensaje al cerebro. El cerebro entonces envía un mensaje al corazón y a los vasos sanguíneos que, en este caso, son los efectores. La frecuencia cardiaca disminuye cuando aumenta el diámetro 21

Realimentación: entre lo natural y lo artificial

de los vasos sanguíneos (conocido como vaso-dilatación). Este cambio origina que la presión sanguínea se reduzca y vuelva a su valor normal. Lo opuesto sucedería cuando disminuye la presión sanguínea y se origina una vasoconstricción. 2. Regulación de la ingesta de alimentos. Otro ejemplo importante se observa cuando al cuerpo humano se le priva de la ingesta de alimentos. En esas condiciones el organismo “resetea” el punto de consigna metabólico a un valor por debajo del normal. Esto le permite continuar funcionando a un ritmo más lento, incluso aunque el cuerpo esté hambriento. Por lo tanto, aquellas personas que reducen su dieta alimenticia intentando perder peso les resultará más fácil conseguirlo al principio y mucho más difícil perderlo después. Esto se debe a que el cuerpo se reajusta a un punto de consigna metabólico inferior para permitir su supervivencia con un suministro más bajo de energía. El ejercicio puede cambiar este efecto aumentando la demanda metabólica. 3. Regulación de la temperatura corporal. La termorregulación es otro ejemplo de realimentación negativa. Cuando se eleva la temperatura del cuerpo humano, los receptores que hay en la piel y en el hipotálamo miden el cambio de temperatura. El hipotálamo que supervisa la temperatura del cuerpo humano es capaz incluso de determinar la más ligera variación de la temperatura de nuestro organismo (37º C). Este cambio de temperatura (estímulo) dispara una orden desde el cerebro que origina como respuesta la estimulación de las glándulas que producen sudor con el fin de reducir la temperatura. Los vasos sanguíneos cerca de la superficie de la piel se dilatan o dan una señal a diferentes músculos para que el organismo comience a tiritar y aumente la temperatura. 4. Regulación del nivel de glucosa en sangre. Es esencial que la concentración de glucosa en sangre en el cuerpo humano se mantenga dentro de una banda estrecha (0,7–1,1 g/L). La glucosa es utilizada por las células para producir energía. En la concentración de glucosa influyen muchos factores, como la ingesta de alimentos, 22

Sebastián Dormido Bencomo

la digestión y el ejercicio físico. En la Figura 4 se muestra un diagrama esquemático de las partes relevantes del cuerpo humano.

Glucógeno

Hígado

Páncreas

Estómago

Estómago

Insulina

Tejidos

Páncreas

Glucosa en sangre Intestino grueso

Intestino delgado

Hígado

Tejidos

Figura 4. Regulación del nivel de glucosa en sangre. a) Órganos relevantes del cuerpo. b) Esquema.

Cuando los niveles de glucosa aumentan (por ejemplo después de ingerir una comida), el páncreas segrega la hormona de la insulina, lo que origina que el exceso de glucosa se almacene en el hígado y en otras células, reduciendo así la concentración de glucosa en sangre. La insulina ayuda a evitar la hiperglucemia. Cuando la insulina es deficiente o las células se hacen resistentes a ella ocurre la diabetes. Si los niveles de glucosa disminuyen, el páncreas segrega glucógeno. Este glucógeno tiene un efecto opuesto, pues actúa sobre las células del hígado que producen glucosa. El glucógeno, liberado por el páncreas, estimula a las células a descomponerlo mediante la gluconeogénesis, evitando así la hipoglucemia. Refiriéndonos a la Figura 1, podemos visualizar el hígado como “sistema 1” y el páncreas como “sistema 2”. La salida del hígado es la concentración de glucosa en la sangre y la salida del páncreas es la cantidad de insulina o glucógeno producido. De esta forma la interrelación entre la producción de insulina y glucógeno a lo 23

Realimentación: entre lo natural y lo artificial

largo del día ayuda a mantener constante la concentración de glucosa. En enfermedades como la diabetes juvenil el páncreas es incapaz de producir insulina, y el paciente debe inyectársela en el cuerpo para mantener un nivel apropiado de glucosa. El cuerpo humano mantiene los niveles de glucosa constante la mayor parte del día, aún después de un ayuno de 24 horas. Incluso durante largos períodos de ayuno, los niveles de glucosa se reducen solo muy ligeramente. Los mecanismos que regulan la glucosa y la insulina son complicados. Experimentalmente se han observado escalas de tiempo que van desde segundos a horas. Se han desarrollado modelos de diferente complejidad que se han constatado con datos de experimentos donde se inyecta por vía intravenosa glucosa y se miden a intervalos de tiempos regulares la concentraciones de insulina y glucosa. 5. Regulación de la cantidad de agua y minerales en el cuerpo. Los riñones se utilizan para eliminar el exceso de agua e iones de la sangre. Estos son entonces expulsados como orina. Los riñones realizan un papel vital en la regulación homeostática en los mamíferos eliminando el exceso de agua, sal y urea de la sangre. Estos son los principales productos de desecho del cuerpo humano. Con respecto a cualquier sistema de vida un organismo puede ser un conformador o un regulador. Los reguladores intentan mantener sus parámetros a un nivel constante sobre un rango posiblemente amplio de condiciones medioambientales. Los conformadores permiten al entorno determinar el valor de los parámetros. Por ejemplo, los animales endotérmicos (mamíferos y pájaros) mantienen una temperatura del cuerpo constante, mientras que los animales exotérmicos (casi todos los otros organismos) exhiben una amplia variación en la temperatura de su cuerpo. La adaptación de comportamiento posibilita a los animales exotérmicos ejercer algún control sobre un parámetro dado. Por ejemplo, los reptiles a menudo descansan por la mañana colocándose en rocas que están expuestas al sol para elevar así la temperatura de su cuerpo. 24

Sebastián Dormido Bencomo

Los reguladores sin embargo son también receptivos a circunstancias externas: si en la misma roca expuesta al sol quien descansa ahora es una ardilla, su metabolismo se ajustará a una menor necesidad de producción de calor interno. Una ventaja de la regulación homeostática es que permite a un organismo funcionar de manera efectiva en un amplio rango de condiciones medioambientales. Por ejemplo, los exotérmicos tienden a permanecer inactivos a bajas temperaturas, mientras que un endotérmico puede estar totalmente activo. Esta estabilidad térmica tiene un precio, y es que su sistema de regulación automática requiere siempre de una cierta energía adicional. Una razón de por qué las serpientes pueden comer solamente una vez a la semana es debido a que gastan mucha menos energía para mantener la homeostasis. Muchas enfermedades aparecen como resultado de una perturbación sobre la homeostasis, lo que se conoce como desequilibrio homeostático. Cuando se envejece, los sistemas de control de los organismos se hacen menos eficientes. Estas ineficiencias gradualmente aparecen en un entorno interno inestable que aumenta el riesgo de contraer una enfermedad. Además, el desequilibrio homeostático es también responsable de los cambios físicos asociados con el envejecimiento. Más grave que la enfermedad y otras características del envejecimiento es la muerte. Se han producido fallos cardíacos en situaciones en las que los mecanismos de realimentación negativa se han superado y los mecanismos de realimentación positiva han tomado entonces el control. Las enfermedades que se producen en un desequilibrio homeostático incluyen la diabetes, la deshidratación, la hipoglucemia, la hiperglucemia, la gota y cualquier enfermedad originada por una toxina presente en el flujo sanguíneo. Todas estas condiciones resultan en la presencia de una cantidad creciente de una sustancia particular. En circunstancias ideales, los mecanismos de control homeostáti­cos deberían de evitar que ocurriese este desequilibrio, pero en algunas personas no funcionan con la suficiente eficacia, o la canti25

Realimentación: entre lo natural y lo artificial

dad de sustancia excede los niveles en los cuales se puede controlar. En este caso es necesaria una intervención médica para restaurar el equilibrio, de lo contrario, podría resultar un daño permanente sobre el organismo. En contraposición con la realimentación negativa, la realimentación positiva es menos común en los sistemas biológicos. Al contrario que la realimentación negativa, que se inicia para mantener o regular las funciones fisiológicas dentro de un rango estrecho de valores, la realimentación positiva se diseña para llevar los niveles fuera de sus rangos normales. Para conseguir este objetivo, una serie de eventos inician un proceso en cascada que hace aumentar el efecto del estímulo. Este efecto puede ser beneficioso, pero raramente lo utiliza el cuerpo humano debido a los riesgos de que la aceleración se haga incontrolable. Actúa pues para acelerar la dirección del cambio, lo cual conduce a un aumento de la concentración de la hormona, un estado que se mueve aún más fuera de la homeostasis. Un ejemplo de realimentación positiva es la lactación (producción de leche) en los mamíferos. Cuando el recién nacido succiona, el sistema nervioso envía un mensaje desde la glándula mamaria que origina que la hormona prolactina sea segregada por la glándula pituitaria. Cuanto más succiona el lactante, más prolactina se libera, lo cual estimula aún más la producción de leche. Otros ejemplos de realimentación positiva en el cuerpo humanos son la acumulación de plaquetas, que tiene como efecto la coagulación de la sangre en respuesta a una rotura de los vasos sanguíneos o la liberación de la oxytocina para intensificar las contracciones que tienen lugar durante el parto. Ambos tipos de realimentación (positiva y negativa) son igualmente importantes para el funcionamiento saludable de nuestro cuerpo. Pueden surgir complicaciones si cualquiera de los dos esquemas de realimentación se altera o quedan afectados por alguna causa. Adicionalmente cada sistema del cuerpo humano contribuye a la homeostasis de otros sistemas y del organismo en su globalidad. Ningún sistema del cuerpo trabaja de forma aislada, y el bienestar 26

Sebastián Dormido Bencomo

de la persona depende del bienestar de todos los sistemas que interaccionan. Una alteración dentro de un sistema generalmente tiene consecuencias en algunos otros sistemas adicionales del cuerpo. La mayoría de los órganos que constituyen los diferentes sistemas se controlan por hormonas segregadas por la glándula pituitaria, una parte del sistema endocrino. Muchos mecanismos homeostáticos mantienen el entorno interno dentro de ciertos límites (o puntos de consigna). Cuando las células de nuestro cuerpo no trabajan correctamente, se altera el balance homeostático. Este desequilibrio homeostático puede conducir a un estado de enfermedad. Las enfermedades y malformaciones celulares pueden originarse de dos formas básicas: por deficiencia (células que no obtienen todo lo que necesitan) o por toxicidad (células que se envenenan por cosas que no necesitan). Cuando se interrumpe la homeostasis, el organismo puede corregir o empeorar el problema, a partir de ciertas influencias. Además de las influencias heredadas (genéticas), hay influencias externas que se deben a la elección del estilo de vida y a la exposición medioambiental. Estos factores juntos influyen sobre la capacidad del cuerpo para mantener el balance homeostático. Al sistema endocrino de una persona con diabetes le cuesta mantener el nivel correcto de glucosa en sangre. Un diabético necesita verificar muchas veces durante el día sus niveles de glucosa en sangre y vigilar diariamente la ingesta de azúcar. Como conclusión de este análisis somero del fenómeno de la homeostasis se puede afirmar que cuando Claude Bernard comenzó sus investigaciones era totalmente consciente de que desde un punto de vista fisiológico encaraba un problema mucho más complicado que el de otras disciplinas científicas de su tiempo: ¿cómo explicar los sistemas complejos, altamente organizados y orientados a objetivos de los que depende nuestra vida? No disponía en realidad de medios para intentar responder a estas grandes cuestiones. El legado que Bernard había transmitido no caló inicialmente en la comunidad científica. Fue el fisiólogo americano Walter Cannon quien entendió, aunque relativamente tarde en su carrera científica, 27

Realimentación: entre lo natural y lo artificial

el significado del mensaje de Bernard. Cannon formuló una idea de cómo los diferentes sistemas que constituyen el cuerpo humano pueden trabajar de forma cooperativa en momentos de emergencia. Posteriormente se dio cuenta de que hacer uso de la integración de múltiples sistemas psicológicos y fisiológicos era también una característica de condiciones de normalidad. Es así como Cannon pudo entonces unir sus conocimientos con aquellos que había obtenido Bernard. El medio interior permanece estable a condición de que todos los sistemas de nuestro cuerpo funcionen en armonía para proporcionar una estabilización activa. El estado “normal” no es un estado de “reposo”. Unos años después el mejicano Arturo Rosenblueth, discípulo de Cannon, trabajando conjuntamente con Norbert Wiener demostró cómo la homeostasis se podía instrumentalizar introduciendo el concepto de realimentación negativa de la ingeniería (ver sección 7). La homeostasis fue entonces elevada de una simple puesta al día de los conceptos introducidos por Bernard a una proposición de trabajo universalmente aceptada. Las fuerzas y limitaciones de la homeostasis como una herramienta para explicar muchos fenómenos de nuestro entorno depende en gran medida de cómo se interpreta el concepto en las circunstancias en las que se aplica.

5.  DOS HISTORIAS DE ÉXITO DE LA REALIMENTACIÓN En este ir y venir entre lo natural y lo artificial, exponemos a continuación dos historias de éxito que cambiaron la forma de vida de nuestra sociedad y en las que la realimentación jugó un papel central. La primera de ellas, que hemos denominado “La máquina de vapor y el regulador de Watt”, dio origen a lo que se ha dado en llamar primera revolución industrial a finales del siglo XVIII. La segunda historia que hemos titulado “La telefonía de larga distancia y el desarrollo del amplificador de realimentación”, tuvo lugar en la primera parte del siglo XX y fue esencial para el nacimiento de las tecnología de la información y la comunicación, tal como las concebimos hoy día. 28

Sebastián Dormido Bencomo

5.1. Algunos antecedentes de la regulación de velocidad de la máquina de vapor En el siglo XVIII los constructores de molinos de viento en Inglaterra y Escocia constituían un grupo ciertamente ingenioso que combinaban la habilidad propia del oficio con el comienzo de una actitud científica. En realidad muchos de los ingenieros mecánicos británicos más famosos de este siglo comenzaron sus carreras como constructores de molinos. El primero de ellos que patentó un dispositivo de realimentación fue Edmund Lee en 1745. Consistía en un volante diseñado para mantener el molino de cara al viento. El volante es una pequeña rueda montada en ángulo recto con respecto a la rueda principal. Esta rueda está conectada con el lado posterior de la bóveda móvil del molino, que puede girar para posicionar sus paletas en la dirección conveniente. Mediante un tren de engranajes, el volante controla el giro de la bóveda de manera que cualquier giro del volante origina que la bóveda gire también. Cuando la rueda principal encara al viento en ángulo recto, el volante estará alineado en paralelo con el viento y por tanto no gira. Sin embargo, si el viento cambia su dirección de manera que la rueda principal no forma ya ángulo recto, el volante girará lentamente la bóveda del molino hasta que la ponga paralela al viento, y la rueda principal se queda de nuevo encarándolo. En resumen vemos que el sistema tiene una estructura de lazo cerrado aun cuando el viento esté cambiando constantemente de dirección. El volante se puede considerar como un servosistema6 rudimentario (ver Figura 5). El molino de viento de Lee también contenía un dispositivo que controlaba la velocidad del molino a pesar de los cambios en la velocidad del viento. La regulación de la velocidad de rotación se necesi En un servosistema se intenta conseguir que la variable del proceso siga a una función dada del tiempo (seguimiento del punto de consigna). Por el contrario en un regulador se trata de mantener la variable del proceso próxima al valor deseado que se supone fijado a priori (James et al., 1947).

6

29

Realimentación: entre lo natural y lo artificial

taba para proteger las ruedas del molino de un excesivo desgaste, y al mismo tiempo producir una harina de calidad uniforme. Lee atajó este problema permitiendo que las aspas del molino pivotasen alrededor de sus ejes. Las aspas se conectaban a un contrapeso que giraba hacia delante su arista delantera a velocidades moderadas. Cuando el viento adquiría velocidades excesivas, de forma que la fuerza sobre las aspas era mayor que la del contrapeso, la inclinación de las aspas se invertía y como consecuencia de ello se frenaba la velocidad de rotación de la rueda. Bóveda movible

Engranajes Volante de cola

Aspas principales

Contrapeso

Figura 5. Esquema del molino de Edmund Lee.

Este sistema no era sin embargo un genuino sistema de control por realimentación, al no intentar medir la velocidad. Para lograrlo tenía que encontrarse un método para determinar con cierta sensibilidad la velocidad del molino de viento. Esto se consiguió con el descubrimiento de un mecanismo conocido como “lift-tenter”. Este dispositivo se diseñó para contrarrestar la tendencia de las ruedas del molino a separarse cuando aumentaba su velocidad de rotación. En realidad lo que hacía era presionar las ruedas del molino una contra la otra con una fuerza proporcional a la velocidad de rotación. 30

Sebastián Dormido Bencomo

Thomas Mead, otro constructor de molinos de viento, combinó la idea del “lift-tenter” con el empleo de un péndulo centrífugo de bolas para diseñar un sistema de control de velocidad que sí que incorporaba el principio de realimentación. El giro del péndulo medía la velocidad de rotación de las ruedas del molino y, mediante apropiadas correcciones mecánicas, ajustaba el área de las aspas del molino de viento para mantener la velocidad deseada (ver Figura 6).

Figura 6. Regulador de velocidad de Mead.

En la segunda mitad del siglo XVIII, la aplicación del concepto de realimentación en la tecnología se manifiesta como una verdadera explosión. ¿Qué acontece realmente para que suceda este fenómeno? Factores puramente tecnológicos no fueron probablemente decisivos, ya que casi todos los dispositivos de regulación del siglo XVIII se podían haber construido en el Renacimiento. Quizás sea más plausible el argumento de que progresos en otros campos de la tecnología 31

Realimentación: entre lo natural y lo artificial

habían creado una necesidad de dispositivos reguladores iniciando así una gran actividad inventiva. Como ejemplo se puede apuntar el progreso en el suministro de agua en las casas, que necesitaba reguladores de flotación. En Inglaterra, y al mismo tiempo que surge la explosión del control por realimentación tiene lugar un proceso histórico de incomparable mayor significación: la Revolución Industrial. Esta se manifiesta en una multitud de inventos e innovaciones en campos tan diversos como la agricultura, el transporte, el comercio, etc. El fenómeno con el cual estamos interesados es indudablemente también un síntoma, pero clasificarlo así no lo explica. Así pues, ni factores puramente técnicos ni acontecimientos en el entorno económico han sido capaces de explicar la gran utilización del concepto de realimentación en el siglo XVIII. Como las invenciones eran de lo más variado y la mayoría de los inventores trabajaban de forma independiente, se puede sospechar que las verdaderas causas para este auge deben encontrarse en la corriente intelectual de la época. Durante los siglos XVII y XVIII las actitudes hacia el problema de la regulación sufren un cambio radical. Los técnicos del Renacimiento y del Barroco eran partidarios de un control programado de forma rígida, que podemos simbolizar en los llamados autómatas, y hacían caso omiso a la idea de la realimentación. Hacia la segunda mitad del siglo XVIII los ingenieros más progresistas en Inglaterra y Francia habían aprendido a apreciar el concepto y no dudaron en emplearlo en una diversidad de campos. Un desarrollo análogo tuvo lugar dentro de la política económica. El mercantilismo, preconizado especialmente por Colbert, enseña que para una nación el camino hacia la prosperidad es una planificación cuidadosa de su política económica, dirigida centralmente por políticos de gran competencia. En contraste con esto, el sistema económico del liberalismo, formulado en 1776 por el escocés Adam Smith en su obra maestra La 32

Sebastián Dormido Bencomo

riqueza de las naciones7 (The wealth of nations) (Smith, 1776), estaba basado en el postulado de “dejar hacer”; si el Estado se abstiene de toda interferencia, la economía automáticamente alcanza el equilibrio en condiciones óptimas. En lugar de un control centralizado, la función de excitación en este caso es el propio interés de los individuos participantes en la vida económica. La teoría de Smith era que las desviaciones de la economía de su estado óptimo automáticamente serían corregidas por el sistema de libre mercado y la ley de la oferta y la demanda. Esta concepción implica con claridad meridiana una relación causal en lazo cerrado, que es en principio idéntica al lazo cerrado de la realimentación. La similitud entre estos dos pares antitéticos: Mercantilismo

Liberalismo   Autómata

Control por realimentación

no representa por supuesto evidencia de conexiones históricas entre las dos áreas. En realidad sería erróneo interpretar uno de estos desarrollos como una consecuencia directa del otro. Un teórico como Adam Smith pudo haber observado, aunque esto es altamente improbable, dispositivos de realimentación en operación, y esto haría su formulación más concreta. Sin embargo los orígenes del liberalismo económico se remontan a comienzos del siglo XVIII, bastante antes del desarrollo espectacular del concepto de realimentación en la tecnología. Por otra parte, y en sentido inverso, es poco probable que los inventores del siglo XVIII hubiesen efectuado sus concepciones materializando teorías abstractas de política económica. 5.2.  La máquina de vapor y el regulador de Watt Aunque varias clases de dispositivos de control automático habían sido utilizados desde los comienzos de la tecnología, el regulador de Watt se puede tomar como punto de partida del control automático  Se considera generalmente como la partida de nacimiento de una ciencia, la economía; de una escuela económica, la clásica; y de una corriente de pensamiento, el liberalismo económico.

7

33

Realimentación: entre lo natural y lo artificial

realimentado como disciplina científica. Stuart Bennett (1979) en su libro A history of control engineering: 1800-1930 hace un análisis muy completo del regulador de Watt y de sus variantes. James Watt y su socio Mattew Boulton adaptaron la idea del péndulo centrífugo de bolas —que había sido ya incorporado por Thomas Mead en los molinos de viento—, a la nueva tecnología de la máquina de vapor que planteaba unos requerimientos de control de regulación de velocidad muy exigentes. El regulador centrífugo se conectaba a la válvula de admisión de vapor, como se ilustra en la Figura 7, de forma que cuando la velocidad de la máquina aumentaba (debido quizás a una disminución de la carga que tenía que mover) hacía que las bolas del regulador se separasen más, y esto originaba un cierre de la válvula de admisión de vapor. El resultado final era que la velocidad de la máquina disminuía y las bolas del regulador volvían a su posición original. La imagen del regulador de Watt iba a convertirse en una de las más familiares de la historia de la tecnología (Dickinson et al., 1927).

Figura 7. El regulador centrífugo y la máquina de vapor de Watt. Las bolas del regulador centrífugo de la izquierda se separan cuando la velocidad de la máquina aumenta. La máquina de vapor de Watt de la derecha utiliza un regulador centrífugo para regular su velocidad.

34

Sebastián Dormido Bencomo

Curiosamente Watt no patentó el regulador: lo consideraba simplemente una adaptación del péndulo centrífugo de Thomas Mead a un nuevo caso. De todas formas Watt y Boulton intentan preservar en secreto su innovación, y a los primeros compradores de su sistema les imponían mantener fuera de la vista el regulador. Sin embargo, el dispositivo muy pronto fue ampliamente conocido y al cabo de unos pocos años era considerado en todas partes como el símbolo de la máquina de vapor, que, al girar en su parte superior, demostraba con más fuerza que todas las palabras la acción del control por realimentación para regular la velocidad de la máquina. Los primeros reguladores de Watt funcionaban satisfactoriamente debido al considerable rozamiento que estaba presente en sus mecanismos. Por esta razón fue ampliamente adoptado, y se estima que hacia 1868 había unos 75.000 reguladores de Watt operando en Inglaterra (Mayr, 1970). Sin embargo hacia mediados del siglo XIX, cuando cambiaron las técnicas de diseño de las máquinas y se mejoró el proceso de fabricación, fue aumentando una tendencia que mostraba que la velocidad de la máquina variaba cíclicamente con el tiempo. Este fenómeno, que también aparecía al regular la velocidad de un telescopio astronómico accionado por un mecanismo de relojería, había sido ya investigado por George B. Airy (1840), quien atacó el problema con las herramientas de su propio campo: la teoría de la mecánica celeste. Esencialmente Airy consiguió llegar a la raíz del problema matemático que esta conducta anómala planteaba. Desgraciadamente su trabajo era un poco difícil de seguir y no tuvo la difusión deseada, de manera que permaneció en el más absoluto de los secretos para los ingenieros que estaban tratando de resolver el inconveniente de la fluctuación en la velocidad de las máquinas de vapor. El problema era tan serio que atrajo la atención de un gran número de importantes científicos e ingenieros (Mayr, 1971b). Finalmente fue resuelto por J. C. Maxwell (Maxwell, 1868; Mayr, 1971a), quien inició así la teoría de los sistemas de control automático con su trabajo “On governors”, y también por el ingeniero ruso J. A. Vyschnegradsky (1876), quien publicó sus resultados en térmi35

Realimentación: entre lo natural y lo artificial

nos de una regla de diseño que relacionaba los parámetros de ingeniería del sistema con su estabilidad. El análisis de Vyschnegradsky demostraba que los cambios de diseño de la máquina que habían tenido lugar desde la época inicial de Watt habían disminuido el rozamiento entre sus distintas partes, y esto llevaba inevitablemente consigo al fenómeno de las oscilaciones en la regulación de la velocidad. La contribución realmente importante de Maxwell estuvo en reconocer que la conducta de un sistema de control automático en la vecindad de su posición de equilibrio se podía aproximar por una ecuación diferencial lineal y, por lo tanto, su estabilidad se podía analizar en términos de las raíces de una ecuación algebraica asociada. Maxwell planteó así el problema general de investigar la estabilidad de un sistema dinámico en función de la localización de las raíces de su ecuación característica, pero no fue capaz de encontrar una solución general al mismo. (En esta época el trabajo de C. Hermite [1854] sobre este problema que había sido publicado unos años antes no era muy conocido). La solución de este problema la dio Edward J. Routh (1877) en su lectura del Adams Prize. Para Routh, esto representó el fin de una notable rivalidad que había mantenido durante años con Maxwell. Habían sido condiscípulos en Cambridge, y Routh había relegado a Maxwell del primer puesto de su promoción en el examen final. J. G. Truxal, en su libro Introductory system engineering (Truxal, 1955), describe que al comenzar Routh la exposición de su trabajo en el Adams Prize lo hizo con estas palabras: “Ha venido recientemente a mi atención que mi buen amigo James Clerk Maxwell ha tenido dificultades con un problema relativamente trivial...”. Evidentemente, no le faltaba a Routh ironía en sus palabras. De forma totalmente independiente, A. Hurwitz (1895), utilizando las técnicas clásicas de Cauchy y Hermite, resolvía asímismo el problema en términos de un conjunto de determinantes. Estos trabajos contienen la semilla del uso apropiado de la teoría de variable compleja para la investigación de la estabilidad (Bennett, 1996). 36

Sebastián Dormido Bencomo

La importancia práctica creciente del control automático y de la realimentación a finales del siglo XIX y comienzos del XX, se pone de manifiesto por la concesión, en 1912, del Premio Nobel de Física al sueco Dalen por su desarrollo de reguladores automáticos que se utilizan conjuntamente con los acumuladores de gas para balizas luminosas (Heathcote, 1953). También el Premio Nobel de Física del año 1986, que se le otorgó a Binnig y Rohrer por su diseño del microscopio de efecto túnel, es otro ejemplo de un uso inteligente de la realimentación. La idea clave es mover una punta muy fina a través de la superficie de un material y registrar las fuerzas que se producen sobre la misma. La deflexión que sufre la punta se mide usando el efecto túnel. Esto da una elevada precisión que permite incluso reconocer los átomos de forma individual. 5.3. La telefonía de larga distancia y el desarrollo del amplificador de realimentación Hasta bien entrado el siglo XX las únicas herramientas analíticas que poseía el especialista en automática eran la utilización de las ecuaciones diferenciales ordinarias junto con criterios algebraicos para determinar la posición de las raíces de la ecuación característica asociada. Los avances teóricos también se iban a producir en esta ocasión de la mano de otro problema técnico muy importante: la telefonía de larga distancia. Una revolución en la tecnología de la comunicación y del procesamiento de información comenzó con la adición de un electrodo extra por parte de Lee de Forest a la válvula termoiónica de Fleming, creando así, en 1906, la válvula amplificadora triodo. Esta invención eliminó el principal obstáculo para el desarrollo de la telefonía a gran distancia, que era la atenuación de la señal en el cable de transmisión. Es también durante esta época cuando comienzan a manifestarse dos enfoques distintivos para el estudio de los sistemas dinámicos. El punto de vista de los especialistas en mecánica era utilizar las ecua37

Realimentación: entre lo natural y lo artificial

ciones diferenciales para modelar su sistema después de un estudio detallado del mecanismo físico en cuestión. Por su parte, los expertos en comunicación seguían un esquema bastante diferente. Consideraban los distintos aparatos físicos que constituían su sistema como “cajas” en las cuales se inyectaban ciertas señales y como resultado emergían respuestas apropiadas. El siguiente paso natural fue sustituir estas llamémoslas “cajas reales” por “cajas abstractas” que representaban el efecto de las señales que pasaban a través de ellos. La combinación de este punto de vista operacional con la utilización de la representación en variable compleja de las formas de ondas sinusoidales hizo inevitable la introducción de técnicas basadas en el análisis de Fourier para estudiar fenómenos dinámicos en los sistemas de comunicación. Siguiendo el trabajo pionero de O. Heaviside (1899) sobre métodos operacionales para resolver ecuaciones diferenciales, las técnicas de transformaciones integrales y su aplicación a problemas prácticos fueron puestas sobre bases firmes entre otros por los trabajos de T. J. Bromwich (1916), J. R. Carson (1926), G. A. Campbell y R. M. Foster (Campbell, 1931). Se puede pues concluir que hacia finales de los años 20 y comienzo de los 30, estaban disponibles —para que alguien con la suficiente iniciativa comenzase el estudio de los sistemas realimentados— los métodos de transformaciones integrales para el análisis de los fenómenos dinámicos en los sistemas de comunicación. El suceso que verdaderamente marca época fue indudablemente la aparición del trabajo clásico de Harry Nyquist (1932) sobre la estabilidad de amplificadores realimentados. Su investigación surge directamente de los problemas que planteaba la telefonía a grandes distancias. En 1915, la Bell System había finalizado un enlace telefónico experimental entre New York y San Francisco que demostraba que era un objetivo práctico alcanzable la comunicación fiable de voz a distancias transcontinentales. Este enlace utilizó una línea aérea de cobre (que pesaba 500 kg/milla) que fue cargada inductiva38

Sebastián Dormido Bencomo

mente para tener una frecuencia de corte de 1000 Hz. La atenuación a lo largo de las 3 000 millas era de 60 db que se redujeron a 18 db utilizando seis amplificadores de repetición con una ganancia neta de 42 db. Pronto se avanzó en la utilización de los sistemas con portadora en los circuitos de línea aérea, lo que resultó en un ahorro sustancial en el coste del conductor con operaciones de “multiplex” en un rango de frecuencia muy por encima de la audible. Sin embargo, el cambio a operaciones mediante cable, planteó una serie de problemas técnicos muy severos. En particular, debido a que los conductores eran pequeños, la atenuación era grande, y esto requería que se utilizasen muchos amplificadores repetidores. Así pues se tenía que superar un problema crucial, el de pasar señales repetidamente a través de un conjunto de etapas de amplificación, cada una de las cuales contenía no linealidades inevitables y significativas, mientras que al mismo tiempo se trataba de mantener la distorsión total a distancias transcontinentales dentro de los límites aceptables. Se requería pues una linealidad efectiva del amplificador muy lejos de lo que la tecnología era capaz de dar (una distorsión del orden del 0,005%) para mantener la inteligibilidad de las señales de audio transmitidas. Tal dificultad solo se pudo resolver gracias al gran invento de H. Black, del Bell Telephone Laboratory, que propuso la idea del amplificador realimentado. El descubrimiento importante de Harold Black, en 1927 (Black, 1934), fue que la elevada ganancia en un dispositivo amplificador no lineal, cuyos parámetros eran variables con el tiempo, se podía negociar para conseguir una reducción en la distorsión no lineal de manera que el sistema se comportase como una ganancia lineal, estable y precisa. El mecanismo era simplemente utilizar componentes pasivos lineales apropiados y de gran precisión en el lazo de realimentación de un amplificador no lineal de elevada ganancia. Lo que Black descubrió fue que si una parte de la salida de un amplificador se realimentaba en el amplificador con la fase invertida (realimentación negativa), la distorsión invertida cancelaría las dis39

Realimentación: entre lo natural y lo artificial

torsiones que se introducían en el amplificador. Este principio de realimentación negativa iba a encontrar un amplio rango de aplicaciones en los sistemas de control industrial, computación, cibernética, sistemas de guiado, teoría de la información y muchos otros campos de la ingeniería. El mérito real de Harold Black fue haber formulado el problema de la realimentación negativa en términos muy generales, fácilmente reutilizables con otras tecnologías, y haber sido el origen de la generalización de este concepto a otros dominios técnicos. Con el paso de los años, la noción de realimentación negativa se había introducido en numerosas disciplinas más allá de las ingenierías, incluyendo psicología, sociología, fisiología, economía, ecología y educación, por citar algunas de ellas. De hecho, los lazos de realimenta­ción negativa, donde un producto o acción actúa en la etapa anterior de un proceso para invertir la dirección del cambio, se encuentra frecuentemente en la naturaleza donde resulta vital para mantener el equili­brio en los sistemas biológicos, tal como ya hemos puesto de manifiesto en la sección anterior al tratar la realimentación en los seres vivos. La época del descubrimiento de Black fue seis años después de haber obtenido el grado en Ingeniería Eléctrica en el Worcester Polytechnic Institute (WPI), Worcester, MA (1921). Nacido en New Jersey, consiguió un puesto de trabajo en el Departamento de Ingeniería de la Western Electric Company en New York City, una empresa que se fusionaría, pocos años después, con el Departamento de Investigación de la AT&T para formar los laboratorios Bell. Como ingeniero en fase de formación, a Black se le asignaron tareas que él consideraba de poca importancia, por lo que le propuso a su supervisor poder dedicarse al estudio de los amplificadores de alta calidad destinados a las comunicaciones telefónicas a gran distancia. Obtuvo el permiso de su superior con la condición de que ello no interfiriese con el trabajo que se le había asignado. El interés de Black era comprensible. Unos de los retos técnicos más acuciantes que tenía planteado AT&T era encontrar una forma fia40

Sebastián Dormido Bencomo

ble de transmitir miles de canales de llamadas telefónicas de costa a costa con una mínima distorsión. La compañía había demostrado la viabilidad técnica de un proyecto de esta envergadura en 1915 al construir la primera línea telefónica transcontinental, pero ahora, incluso con las bobinas de carga inductiva, que había que colocar cada 8 millas (lo cual atenuaba la señal en su transmisión) y los bancos de repetidores con tubos de vacío, la calidad del sonido era muy pobre y el coste de una llamada telefónica astronómico. Para lograr un servicio telefónico de larga distancia económico, AT&T necesitaba desarrollar amplificadores de una calidad muy superior a los que entonces estaban en uso. Black fue capaz de emplear su sagaz mente a este problema, al principio trabajando con Mervin Kelly, quien posteriormente dirigiría los Laboratorios Bell. Intentó construir mejores tubos de vacío para reducir las distorsiones e inestabilidades que se introducían. En 1923, cuando se convencieron de que este enfoque tenía pocas probabilidades de éxito, empezaron a pensar en el problema de una forma diferente. En lugar de reducir la distorsión, intentarían eliminarla de la salida del amplificador, dejando simplemente la señal pura original. Su primera solución, con la cual obtuvo la primera de sus 357 patentes, fue un amplificador con prealimentación. En este dispositivo la señal de entrada se restaba de la salida, dejando simplemente la distorsión. La distorsión entonces se amplificaba separadamente y se utilizaba para cancelarla en la señal amplificada original. Esta técnica llego a funcionar pero el equipo era delicado y difícil de mantener. Black continuó refinando este amplificador durante tres años más tratando de lograr un enfoque más elegante. Esa búsqueda finalizó el 1 de agosto de 1927. Ese día comenzó como cualquier otro para Black. Desayunó en su apartamento alquilado en East Orange, N. J., tomó el tren Lackawana hasta Hoboken y caminó hasta la calle Christopher donde cogía el ferry que le llevaría hasta la zona sur de Manhattan, a través 41

Realimentación: entre lo natural y lo artificial

del río Hudson. Era una mañana clara y el sol se reflejaba sobre la estatua de la Libertad. Otros ingenieros, que también se dirigían hacia la Western Electric, reunidos en la proa del ferry charlaban animadamente disfrutando de la vista, pero Black, como solía hacer casi siempre, se mantenía apartado, ensimismado en sus propios pensamientos. Exactamente a las 8:15 horas, la solución al problema contra el que había estado luchando durante seis años le vino a su mente como un flash. Buscó en sus bolsillos y no encontró nada para escribir, así que bajó rápidamente al quiosco que había en el ferry y compró un ejemplar del New York Times. Examinó el periódico y encontró una página con espacio suficiente para poder hacer sus anotaciones y donde aparecía claramente la fecha del diario. En este apunte esquematizó un diagrama canónico de un amplificador con realimentación negativa y unas pocas ecuaciones básicas para describirlo, y luego firmó la página. Cuando atracó el ferry, corrió hacia su laboratorio y pidió a otro ingeniero que revisase lo que había escrito, y que le testificase que lo entendía. Esa página convenientemente enmarcada se guarda hoy día como un tesoro en los archivos de los Laboratorios Bell. Esta descripción de la inspiración de Black se ha convertido en uno de los grandes mitos en la historia de la ingeniería. Black siempre mantuvo que la noción de la realimentación negativa le vino de repente, como si de una revelación se tratase, sin embargo algunos autores (Mindell, 2002) piensan que Black llevaba tiempo trabajando sobre los detalles de la realimentación negativa antes de su famoso viaje en el ferry cuando se encontraba de camino hacia su oficina aquella mañana, y que solamente necesitaba llegar a la solución matemática final. Aunque hoy día el amplificador realimentado de Black es una herramienta fundamental en ingeniería eléctrica, su descubrimiento se encontró inicialmente con el escepticismo dentro de los Laboratorios Bell, en parte debido a que la idea era radical, pero también porque Black, un joven ingeniero con un simple grado y solo unos pocos años de experiencia, irritaba en cierta forma a los reconocidos 42

Sebastián Dormido Bencomo

investigadores y teóricos, con una gran formación y con doctorados en las mejores universidades, que tenía en su plantilla AT&T, ya que se consideraban los impulsores del desarrollo técnico en los Laboratorios Bell. Black trabajó con diligencia para construir prototipos que funcionasen de un amplificador con realimentación negativa. En 1928 AT&T decidió someter el descubrimiento a un gran test. La compañía simuló una línea telefónica transcontinental en un laboratorio localizado en Morristown, N. J., con millas de cable, plegadas sobre sí mismo, y un amplificador con realimentación negativa cada 25 millas. La prueba se consideró un éxito, y el invento de Black se convirtió en un componente vital de la infraestructura telefónica nacional de larga distancia. Black permaneció en los Laboratorios Bell durante 40 años, donde realizó innovaciones en muchas áreas de la electrónica, incluyendo la modulación de señal. Desarrolló numerosas patentes y se ganó el reconocimiento internacional, aunque en ningún caso alcanzó las cotas de excelencia por el logro alcanzado en una edad tan temprana en su carrera. El descubrimiento de la realimentación negativa le trajo una innumerable serie de reconocimientos y premios. Entre los numerosos premios que recibió a lo largo de su vida cabe destacar la Medalla Lamme del IEEE que se le concedió en 1957 con la siguiente cita, “Muy pocos hombres han tenido la fortuna de influir de forma tan profunda sobre un campo completo de la industria como lo ha hecho Harold S. Black”. Las notas de Black, que se encuentran en los archivos del WPI, ponen de manifiesto que disfrutaba con estos honores y que sentía un gran orgullo por sus logros. Una frase que incluyó en su autobiografía manuscrita resume mejor que nada su opinión respecto a su lugar en la historia de la ingeniería (opinión que ahora parece que es ampliamente compartida): No es una exageración decir que sin la invención del amplificador con realimentación negativa de Black, combinado con su investigación y desarrollo continuado de nuevos conceptos sobre la realimentación, nuestras exóticas comunicaciones de hoy día no serían posible.

43

Realimentación: entre lo natural y lo artificial

La situación hacia 1932 era que Black y su equipo podían construir amplificadores que funcionaban razonablemente bien, y el problema de la telefonía a gran distancia se desarrollaba satisfactoriamente para los intereses económicos de AT&T. Sin embargo, había un problema que Black no sabía explicar completamente y era que los amplificadores diseñados presentaban una tendencia a inestabilizarse. Algunos lo hacían cuando aumentaba la ganancia del lazo del amplificador realimentado, lo cual se podía esperar y justificar, pero otros manifestaban estas características cuando se disminuía la ganancia, y esto sí que era completamente inesperado. La situación era muy análoga a la asociada con los reguladores de velocidad del siglo XIX —un dispositivo práctico importante exhibía una conducta misteriosa—. Más aún, la explicación de dicha conducta no era sencilla con el abanico de herramientas teóricas existentes, ya que un amplificador realimentado de esa época podía muy bien contener del orden de 50 elementos independientes almacenadores de energía (tales como condensadores, autoinducciones, etc.). Su descripción en términos de un conjunto de ecuaciones diferenciales, como en el análisis clásico de los sistemas de control automático de origen mecánico era casi una tarea imposible a la vista de las rudimentarias facilidades disponibles en esos años para la solución por computador de tales ecuaciones. El famoso trabajo de Nyquist resolvió este misterio; abrió totalmente nuevas perspectivas en la teoría de los mecanismos realimentados, y por lo tanto comenzó una nueva era en el control automático. Antes de 1932, el enfoque basado en las ecuaciones diferenciales había si­do la gran herramienta del teórico del control; en la década que siguió a la contribución de Nyquist estas técnicas fueron casi completamen­te reemplazadas por métodos basados en la teoría de variable compleja, los cuales fueron la consecuencia natural y directa de su nuevo planteamiento. La solución del problema de la estabilidad de un sistema realimentado, propuesta por Nyquist, se basaba en la forma de la respuesta 44

Sebastián Dormido Bencomo

en frecuencia de la ganancia en lazo abierto, y esto era de un valor práctico inmenso ya que se formulaba en términos de una cantidad (la ganancia) que era directamente medible. Este enlace directo con medidas experimentales era un desarrollo completamente nuevo en trabajos dinámicos de tipo aplicado. La aplicación del criterio de estabilidad de Nyquist no dependía de la disponibilidad de un modelo del sistema en la forma de una ecuación diferencial. Más aún, el contorno del lugar de Nyquist daba una indicación inmediata de cómo se podía mejorar la conducta de un sistema realimentado que estaba muy poco amortiguado o que incluso era inestable simplemente modificando, de una manera apropiada, su característica de ganancia en lazo abierto en función de la frecuencia. Desde la perspectiva actual puede resultarnos demasiado fácil subestimar la magnitud de la invención de Black y el logro teórico de Nyquist, sin embargo las cosas eran muy diferentes en su tiempo. La idea de Black se encontró con una firme resistencia de la Oficina de Patentes de EE UU, que tardó casi 10 años en aprobar su propuesta. El retardo en obtener la patente se debió en parte al gran número de pretensiones que Black incluyó (la patente final consistía en un texto de 52 páginas y 35 hojas de esquemas y dibujos) y a su tenaz rechazo a compartir con alguien su invención (Black, 1928). La Oficina de Patentes citaba trabajos técnicos que decían que la salida de un amplificador no se podía conectar a la entrada y permanecer estable, a menos que la ganancia del lazo fuese menor que uno, y la Oficina de Patentes Británica, en palabras de Black, trató la aplicación “como si se tratase de una máquina de movimiento continuo.” Por otra parte, el trabajo de Nyquist dejaba sin resolver cómo estaban relacionadas la amplitud y la fase, en función de la frecuencia, de la función de transferencia en lazo abierto. En otro de los trabajos clásicos que están en los fundamentos de la teoría del control realimentado, Hendrik W. Bode (1940) realizó este análisis, extendiendo resultados previos de Lee y Wiener (Lee et al. 1932). Bode demostró que dada cualquier función de respuesta en frecuencia A(w) siendo 45

Realimentación: entre lo natural y lo artificial

A la amplitud de la ganancia en lazo abierto se le puede asociar una función F(w) siendo F la fase mínima de dicha función de respuesta en frecuencia. De esta forma, fue capaz de dar reglas para obtener la forma óptima de la ganancia del lazo en función de la frecuencia para un amplificador realimentado.

6.  PROPIEDADES DE LA REALIMENTACIÓN La realimentación es una idea poderosa que como se ha visto se utiliza de forma extensiva en los sistemas naturales y artificiales (tecnológicos). El principio de realimentación es muy simple: las acciones de corrección se basan en la diferencia entre el comportamiento actual y el comportamiento deseado. En ingeniería, la realimentación se ha redescubierto y patentado muchas veces en contextos diferentes. El uso de la realimentación a menudo ha dado como resultado grandes mejoras en las capacidades del sistema y algunas veces estos beneficios han sido revolucionarios, tal como hemos expuesto. La razón, para esto, es que la realimentación tiene algunas propiedades, verdaderamente notables. En esta sección se analizan algunas de estas propiedades que pueden entenderse de forma intuitiva. 6.1.  Robustez de la realimentación frente a las incertidumbres Uno de los usos claves de la realimentación es para proporcionar robustez frente a la incertidumbre. Al calcular la diferencia entre el valor medido de una señal regulada y su valor deseado, podemos suministrar una acción correctiva. Si el sistema sufre algún cambio que afecta a la señal regulada, entonces medimos este cambio e intentamos llevar el sistema al punto de operación deseado. Este fue precisamente el efecto que Watt explotó en su utilización del regulador centrífugo de bolas aplicado a las máquinas de vapor. Como ejemplo de este principio se analiza el sencillo sistema de realimentación que se muestra en la Figura 8. En este sistema se con46

Sebastián Dormido Bencomo

trola la velocidad de un vehículo ajustando la cantidad de combustible que entra al motor. Se emplea un controlador de realimentación “proporcional-integral (PI)” para hacer que el caudal de combustible dependa del error entre la velocidad actual y la deseada y de la integral de ese error. La gráfica situada a la derecha de la figura muestra el resultado de esta realimentación cuando se introduce un cambio brusco (un salto) en la velocidad deseada para diferentes masas del coche (que puede deberse a tener un número variable de ocupantes). Se puede observar que independientemente de la masa (que puede variar por un factor de 3), la velocidad en estado estacionario del vehículo siempre tiende a la velocidad deseada y la consigue en un tiempo de 5 segundos. Se puede decir que el comportamiento del sistema es robusto con respecto a la incertidumbre.

Figura 8. Sistema de realimentación para controlar la velocidad de un vehículo.

Otro ejemplo del uso de la realimentación para proporcionar robustez es el amplificador de realimentación negativa. Cuando se desarrollaron las comunicaciones telefónicas, los amplificadores se empleaban para compensar la atenuación de la señal en las líneas de gran distancia. El tubo de vacío era un componente que se empleaba para construir los amplificadores. La distorsión originada por la característica no lineal del amplificador de tubos de vacío junto con la deriva del amplificador eran los obstáculos que evitaron el desarrollo de la telefonía a gran distancia durante bastante tiempo. Como ya se ha comentado, un gran avance fue la invención en 1927 del amplificador realimentado por Harold S. Black. Black utilizó realimentación negativa que reduce la ganancia del amplificador, pero al mismo tiempo lo hace muy insensible a las variaciones en las 47

Realimentación: entre lo natural y lo artificial

características del tubo de vacío. Este descubrimiento hizo posible construir amplificadores con características lineales a pesar de las no linealidades que tenía el amplificado de tubos de vacío. 6.2.  Diseño de la dinámica mediante realimentación Otro uso de la realimentación es para cambiar la dinámica de un sistema. A través de la realimentación, se puede alterar la conducta de un sistema para satisfacer las necesidades de una aplicación: sistemas que son inestables se pueden estabilizar, sistemas que son lentos se pueden hacer más rápidos y sistemas que tienen puntos de operación variable se pueden mantener constante. La teoría de control proporciona una rica colección de técnicas para analizar la estabilidad y la respuesta dinámica de sistemas complejos y colocar límites sobre la conducta de tales sistemas mediante el análisis de las ganancias y de los operadores lineales y no lineales que describen sus componentes. Un ejemplo de la utilización del control en el diseño de la dinámica proviene del área del control de vuelo (McFarland, 1953; Osgood, 2005). La siguiente cita de una conferencia de Wilbur Wright en la Western Society of Engineers en 1901 ilustra el papel del control en el desarrollo del aeroplano: Lo hombres ya sabían cómo construir alas o aeroplanos, los cuales cuando se pilotaban a través del aire a velocidad suficiente no solamente sostenían el peso de las propias alas sino también el del motor y el piloto. Los hombres también conocían cómo construir motores y piezas de suficiente ligereza y potencia para mover a estos aparatos a velocidad sostenida. La incapacidad para estabilizar y pilotar todavía enfrenta a los estudiosos del problema del vuelo. Cuando esta característica se haya resuelto, la era de la aviación habrá llegado, porque todas las otras dificultades son de menor importancia.

Los hermanos Wright se dieron cuenta así que el control era un tema clave para el vuelo de los aeroplanos. Resolvieron el compromiso entre estabilidad y maniobrabilidad al construir su aeroplano, el Kitty Hawk, que era inestable pero maniobrable e hicieron el primer vuelo satisfactorio en 1905. Kitty Hawk tenía un timón en la parte 48

Sebastián Dormido Bencomo

delantera del aeroplano, que lo hacía muy maniobrable. Una desventaja era la necesidad de que el piloto tuviese que ajustar el timón para poder volar el aeroplano: si el piloto permitía que el timón se quedase atascado el aeroplano se estrellaría. Otros aviadores de esta época intentaron construir aeroplanos estables que habrían sido más fáciles de volar. Sin embargo a causa de su pobre maniobrabilidad no podían sostenerse en el aire. Como era bastante fatigado pilotar un aeroplano inestable, hubo una fuerte motivación para encontrar un mecanismo que los estabilizase (Hughes, 1993). Este dispositivo, inventado por Sperry, se basaba en el concepto de realimentación. Sperry usó un péndulo giro-estabilizado que proporcionaba una indicación de la vertical. Introdujo un mecanismo de realimentación que tiraría del timón de mando para hacer que el avión subiese y viceversa. El autopiloto de Sperry es el primer uso de la realimentación en la ingeniería aeronáutica. Sperry ganó en 1912, en París, un premio en una competición para seleccionar el aeroplano más seguro. El autopiloto es un buen ejemplo de cómo se puede emplear la realimentación para estabilizar un sistema inestable y por lo tanto “diseñar su dinámica”. 6.3.  Algunas desventajas de la realimentación Aunque la realimentación tiene muchas ventajas, también tiene algunas desventajas. La principal entre estas es la posibilidad de que el sistema realimentado sea inestable si no se diseña adecuadamente. Todos estamos familiarizados con los efectos de la “realimentación positiva” cuando la amplificación de un micrófono se pone demasiado alta en una habitación. Esto es un ejemplo de inestabilidad por realimentación, algo que obviamente deseamos evitar. Esto se complica por la incertidumbre, ya que la realimentación se introdujo para compensarla: no solamente se debe diseñar el sistema para que sea estable con el sistema nominal que se está diseñando sino que debe permanecer estable bajo todas las posibles perturbaciones de la dinámica. 49

Realimentación: entre lo natural y lo artificial

Además del potencial para causar inestabilidad, la realimentación inherentemente acopla diferentes partes de un sistema. Un problema común es que por su estructura de causalidad circular, la realimentación introduce ruido de medida en el sistema. En los sistemas de ingeniería, las medidas deben filtrarse cuidadosamente de forma que la dinámica de la actuación y del proceso no respondan a ello, mientras que al mismo tiempo se asegura que la señal medida del sensor se acopla convenientemente con la dinámica en lazo cerrado (de forma que se alcanzan los niveles de comportamiento deseados). Otra desventaja potencial del control es la complejidad de introducir un sistema de control en un producto. Aunque el coste del elemento sensor y de computación y, a un nivel algo menor de la actuación ha disminuido considerablemente en las pasadas décadas, permanece el hecho de que los sistemas de control son con cierta frecuencia muy complicados, y por este motivo se deben equilibrar cuidadosamente los costes y beneficios. Un ejemplo de ingeniería de esto es el uso de sistemas de realimentación basados en el microprocesador en los automóviles. El empleo de los microprocesadores en aplicaciones de automoción comenzó a principio de los años setenta y se debió a los requisitos cada vez mas estrictos en los estándares de emisión que podía satisfacerse solo a través de controles electrónicos. Los primeros sistemas eran costosos y fallaban con una frecuencia superior a la deseada, lo que provocaba el descontento frecuente del cliente. Fue solamente mediante las continuas mejoras de la tecnología que el comportamiento, fiabilidad y coste de estos sistemas permitieron que se pudiesen utilizar de un modo transparente. Incluso hoy, la complejidad de estos sistemas es tal que es difícil para el dueño de un coche solucionar por sí solo los problemas.

7.  INTERDISCIPLINARIEDAD DE LA REALIMENTACIÓN En la actualidad se considera que el concepto de realimentación que estamos analizando no está solamente encuadrado en la estructura de los sistemas de ingeniería sino que universalmente se le reconoce 50

Sebastián Dormido Bencomo

como un concepto importante y unificador en el marco formal de la Ciencia en su sentido más amplio. Realimentación es un concepto abstracto que no esta adscrito a ningún medio físico en particular. En tecnología se puede utilizar en sistemas de origen mecánico, eléctrico, neumático, hidráulico o químico, pero su significación principal y más profunda hoy día está en que se puede aplicar beneficiosamente en economía, sociología, biología, educación, etc., y los métodos matemáticos de los sistemas de control son igualmente válidos en todos estos campos. Esta situación pone de manifiesto de manera inequívoca el carácter interdisciplinar de la realimentación. El término interdisciplinariedad surge por primera vez en 1937, y le atribuyen su invención al sociólogo Louis Wirth8. Con el transcurrir del tiempo, el propio desarrollo científico-técnico ha hecho que fueran surgiendo paulatinamente numerosas ramas científicas. En general empezaron a aparecer especialistas en cada una de esas disciplinas que no eran expertos en otras áreas de conocimiento, por lo que ciertos estudios que requerían de conocimientos en diversas áreas eran inasequibles a la mayoría de científicos especializados en una cierta área. A partir del siglo XIX, y con el asombroso crecimiento producido por el conocimiento científico, surgen numerosas ciencias con yuxtaposiciones de parcelas establecidas por ciencias anteriores: bioquímica, sociolingüística, biotecnología, bioética, biofísica, biogeografía, etc., y los campos en los que se ejercen se multiplican exponencialmente, unidos ya a la tecnología que se incorpora como un medio importante, si no fundamental, en el propio método científico y en el campo de la investigación concreta. En definitiva, las ciencias se constituyen tanto por fragmentación de una parte, como por interdisciplinariedad de otra. La interdisciplinariedad del concepto de realimentación, entendido en los términos que se acaba de exponer, tiene su origen a partir   Louis Wirth (1897–1952), sociólogo americano y miembro de la Escuela de Sociología de Chicago.

8

51

Realimentación: entre lo natural y lo artificial

de los acontecimientos que se producen durante los últimos años de la Segunda Guerra Mundial, cuando la Oficina de Investigación Científica y Desarrollo (OSRD9) de los Estados Unidos focalizó la mayor parte de su esfuerzo y recursos en la búsqueda de soluciones para dos problemas que consideraban estratégicos. El primero fue el desarrollo de la bomba atómica y el segundo la construcción de un cañón antiaéreo para atacar a los bombarderos alemanes. La investigación para el primer problema se desarrolló en Los Álamos y se conoció como Proyecto Manhattan. Estuvo bajo la dirección de Robert Oppenheimer. El proyecto del cañón antiaéreo se le asignó a Norbert Wiener, que era un reconocido matemático que trabajaba como profesor en el Massachusetts Institute of Technology (MIT). Wiener era un brillante matemático que ya a la edad de diez años había escrito su primer trabajo titulado ‘La Teoría de la Ignorancia’. A los dieciséis años obtuvo su grado en Matemáticas por la Universidad de Harvard y a los diecinueve presentó su tesis doctoral también en esta misma Universidad. El principal problema que se planteaba en el proyecto que le encargaron a Wiener era el de la predicción de la posición de un avión. El objetivo era guiar a la artillería antiaérea de forma automática mediante el empleo del radar. Se trataba de predecir la trayectoria de los bombarderos, y con ello orientar adecuadamente los disparos de las baterías mediante correcciones basadas en las diferencias entre la trayectoria prevista y la real. Esto se debía a la velocidad limitada que tenían los proyectiles, por lo que el operario del mismo no podía apuntar directamente hacia el avión. Si lo hacía de esta forma, cuando el proyectil alcanzaba el punto donde se encontraba el blanco, este ya no estaba allí. En muchos casos era de esperar que el piloto siguiese una estrategia de movimientos aleatorios para evitar la destrucción del aeroplano. Wiener desarrolló una teoría matemática para predecir eventos futuros mediante la extrapolación de información incompleta del pasado. Esto posteriormente fue la base de la  Office of Scientific Research and Development: Agencia creada por el Gobierno Federal de los Estados Unidos para coordinar la investigación científica con objetivos militares durante la Segunda Guerra Mundial.

9

52

Sebastián Dormido Bencomo

moderna teoría de comunicación estadística. Trabajando conjuntamente con Julian Bigelow, un joven y brillante ingeniero, construyó una máquina antiaérea al conectar un cañón con el radar que había sido desarrollado poco tiempo antes (Bennett, 1994; Mindell, 1995). Terminada la Segunda Guerra Mundial, Wiener públicamente proclamó que nunca más participaría en proyectos de naturaleza militar, y fijó su interés en la filosofía de la ciencia organizando algunos congresos relacionados con esta temática. Fue precisamente en uno de estos congresos donde contactó con Arturo Rosenblueth que había estado trabajando durante algunos años en comprender la naturaleza de la ataxia: una enfermedad neurológica que, entre otras manifestaciones, hacía que aquellos que la padecían realizasen movimientos erráticos y oscilatorios con sus brazos cuando tenían que coger un objeto. Durante el curso de sus conversaciones con Rosenblueth, Wiener enseguida se dio cuenta de que era posible explicar este desorden biológico aplicando las mismas ideas utilizadas en la construcción de la máquina antiaérea. Lo que hacía posible que el cañón antiaéreo pudiese alcanzar su objetivo era el mecanismo de realimentación incorporado en la operación de su sistema. La información que suministraba el radar se introducía en el sistema de control del cañón, y el resultado de esta operación conducía de inmediato a obtener información adicional del radar, que otra vez alimentaba al cañón de forma iterativa. Este lazo de realimentación permitía la interconexión entre comunicación y control en tiempo real y fue el nexo de explicación común que Wiener reconoció, en sus conversaciones con Rosenblueth, entre la ataxia y el control de un cañón antiaéreo. A partir de este hecho, Wiener y Rosenblueth sugirieron que la razón por la que las personas que sufrían de ataxia movieran sus brazos de forma oscilatoria se debía a que había un retardo en su mecanismo de realimentación. En realidad, cuando una persona intenta alcanzar un objeto moviendo su brazo hacia donde se encuentra este, inicia este lazo de realimentación. Si durante este proceso su brazo se mue53

Realimentación: entre lo natural y lo artificial

ve en una dirección equivocada, su cerebro ordenará a sus músculos que corrijan este movimiento. Cuando los músculos finalmente se activan, el brazo se habrá movido equivocadamente en la otra dirección. La persona lo detectará y tratará de reaccionar rápidamente para corregirlo moviendo su brazo en la dirección opuesta. Pero si el retardo continúa, el resultado es que el brazo retrocederá otra vez al movimiento incorrecto previo. Es decir, ocurrirá un movimiento oscilatorio característico en los enfermos que padecen ataxia. Las investigaciones que se llevaron a cabo con personas que sufrían esta enfermedad demostraron que tenían este retardo en su sistema moto-sensorial. Wiener y Rosenblueth escribieron conjuntamente con Bigelow un trabajo inspirado en estas ideas (Rosenblueth et al., 1943). El artículo, que fue un éxito, lo que exponía era que se podía utilizar el concepto de realimentación para explicar y comprender fenómenos que pertenecían al mundo de la mecánica (como la operación de un cañón antiaéreo) o al campo biológico (como la ataxia). De 1946 a 1953 se celebraron una serie de encuentros en New York, patrocinados por la Fundación Josiah Macy Jr., para analizar las aplicaciones de estas ideas en diferentes dominios y dando lugar a una interacción clave y fructífera entre los científicos “naturales” y “sociales”. Sin esta financiación, el avance de muchas de las ideas de la realimentación como concepto universal, unificador y ubicuo no habría acontecido. Al mismo tiempo hay que considerar los programas de investigación que los gobiernos comenzaron a poner en marcha sobre estas temáticas y la participación de los mismos investigadores en proyectos de desarrollo durante la Segunda Guerra Mundial, que también contribuyeron a conformar las ideas que finalmente cristalizaron en los fundamentos de la cibernética. Las “reuniones Macy” congregaron a un grupo de académicos de campos tan diferentes como la ingeniería, la biología, la medicina, la física, la psicología y la antropología que analizaron temas de control, regulación y realimentación tanto en máquinas como en seres vivos. Steve Heims ha presentado una visión histórica de esta serie de conferencias de carácter bianual (Heims, 1991). 54

Sebastián Dormido Bencomo

Quizás ningún otro concepto unificador está más presente a lo largo del libro de Heims que la idea de realimentación y causalidad circular. Todos los participantes en la conferencia aplicaron estas nociones a sus propias teorías y llevaron a cabo un análisis profundo y crítico de conceptos tales como realimentación, homeostasis y la idea de “caja-negra10” (Aström, 2000). Fueron utilizadas para explicar, por ejemplo, los procesos mentales (tales como el aprendizaje y la percepción) y la interacción entre la sociedad y el individuo. Las reuniones fueron lideradas por Warren McCulloch, un neurofisiólogo americano cuyo trabajo para modelar la operación del sistema nervioso dio lugar entre otras cosas a la teoría de las redes neuronales (McCulloch, 1989; Bishop, 1995); que es hoy día un campo de innumerables aplicaciones prácticas (Berry et al., 1997) En 1948 Wiener encapsuló el resultado de muchos de estos enfoques acerca de los lazos de realimentación y causalidad circular en sistemas autorregulados en un libro seminal que tituló Cibernética o el control y comunicación en animales y máquinas (Wiener, 1948). Se puede considerar formalmente la publicación de este libro como el comienzo de la cibernética como disciplina. En su segunda edición Wiener añadió unos capítulos que demostraban la relevancia de la cibernética para el aprendizaje, la inteligencia artificial, la adaptación y el lenguaje (Wiener, 1961). 7.1.  Realimentación en sociología Durante el siglo XIX emergió un movimiento para hacer las ciencias sociales más “científicas”. Pero, ¿qué significa exactamente hacer las ciencias sociales más científicas? Auguste Comte11 fue un acérrimo defensor de un estudio científico de la sociedad que permitie La idea de la representación con cajas-negras es considerar a un sistema como un compuesto de bloques con entradas y salidas. Los bloques se ven como dispositivos que transforman una entrada en una salida. Esta idea fue la clave para obtener una descripción que era independiente de un dominio físico particular. 11   Auguste Comte (1798-1857) está considerado el creador del positivismo y de la sociología. 10

55

Realimentación: entre lo natural y lo artificial

se formular leyes uniformes, por medios científicos, que crease un conocimiento universal atemporal acerca de la sociedad (Mazlish, 1998). La idea básica de Comte era que todas las ciencias formaban una jerarquía, de manera que cada eslabón dependía del anterior de acuerdo a la complejidad de los fenómenos estudiados. En la base estaban las matemáticas, seguida de la física, la química, la biología y por último, encabezando la pirámide de las ciencias se encontraba la ciencia de la sociedad, la sociología. Comte vio en esta ciencia las respuestas a los problemas del hombre y la sociedad. Los problemas sociales han de ser analizados desde una perspectiva científica positiva que se fundamente en la observación empírica de los fenómenos, y que permita descubrir y explicar el comportamiento de las cosas en términos de leyes universales susceptibles de ser utilizadas en provecho de la humanidad. Los científicos sociales estaban entonces, al menos en parte, motivados por los grandes logros de las ciencias naturales para explicar el mundo natural. Buscaban transferir ideas y métodos de las ciencias naturales a las sociales. Este movimiento tomó varias direcciones, y Comte se identificó particularmente hacia la ciencia social positiva. Hoy día, este planteamiento de las ciencias sociales está caracterizado por una visión objetiva de la realidad, una visión positiva del conocimiento, una comprensión determinista de la naturaleza humana y un enfoque metodológico para el descubrimiento de leyes científicas generales para las ciencias sociales. La sociedad puede verse como un organismo, como un agregado de partes que están en orden y tratando de mantener el equilibrio (Burrell et al., 1977). El origen de la aplicación de las teorías de control de sistemas realimentados en sociología puede rastrearse en los movimientos que sobre la teoría general de los sistemas sociales y la cibernética se producen en los años cuarenta del siglo pasado (Rosenblueth et al. 1943; Wiener, 1948) en las reuniones del Grupo Macy. Los dos únicos participantes de las ciencias sociales en este grupo fueron Gregory Bateson y Margaret Mead, que comenzaron a plantearse la aplicación de estas ideas no solo en organismos vivos sino en sistemas sociales 56

Sebastián Dormido Bencomo

completos. El antropólogo inglés Bateson desarrolló posteriormente la teoría del doble vínculo12 con la finalidad de comprender los trastornos de esquizofrenia (Bateson, 1972). Mead, esposa de Bateson y también antropóloga como él, estudió la conducta y cultura de las tribus de Samoa (Mead, 1961). El surgimiento de la teoría de control fue una fuente de conceptos que se mostró muy útil en un tiempo en el que lo que se consideraba importante era la estabilidad social y el equilibrio. Los mecanismos de realimentación se utilizaban para describir el proceso de adaptación social, de actividad económica (la idea de “información”), de comportamiento organizacional, de aprendizaje y educación. Se pensó entonces que la conexión entre la personalidad individual y la cultura es circular, y que las tensiones tanto en los individuos como en los sistemas sociales llevan mutuamente a ambos a buscar un equilibrio en armonía. La cibernética y los desarrollos en la teoría general de sistemas sociales de los años cuarenta condujeron a una proliferación productiva de teorías sociológicas formales que hacían uso de ideas tomadas de los sistemas de control. Las teorías de sistemas de control en sociología son diversas tanto en las formas como en su enfoque empírico. Todas comparten un mecanismo común para describir procesos en equilibrio en fenómenos sociales, a diferentes niveles de análisis. En último término, la verdadera medida de cuán importante se están haciendo las ideas de control en sociología está en su utilidad teórica y práctica. La teoría de los sistemas de control sociológicos ha acumulado una impresionante lista de evidencias empíricas y aplicaciones. Los principios de los sistemas de control realimentados han permitido examinar las manifestaciones y mítines multitudinarios, las deliberaciones de jurados populares, las interacciones de grupos 12

 Situación comunicativa en la que una persona recibe mensajes diferentes o contradictorios. El término, acuñado por el antropólogo Gregory Bateson, intenta dar cuenta del ataque de esquizofrenia sin asumir, simplemente, una disfunción orgánica del cerebro. Se basa en la paradoja hecha contradicción.

57

Realimentación: entre lo natural y lo artificial

de trabajo, trastornos y procesos de identidad, conductas institucionales rutinarias y no rutinarias, procesos luctuosos, conducta interpersonal, conducta colectiva, conducta de las organizaciones, relaciones sociales y conducta de los sistemas políticos y económicos por nombrar unos pocos. La ventaja esencial ofrecida por estos enfoques es su capacidad de modelar de forma satisfactoria procesos sociales fundamentales, y al mismo tiempo ofrecer soluciones para algunos problemas sociológicos clásicos. Incluso cuando los grupos sociales “cibernéticos” estaban ocupados pensando en los lazos de realimentación y en los sistemas autorregulados, Vilfredo Pareto, un sociólogo con una formación sólida en ingeniería, estaba argumentando que para modelar la sociedad como un equilibrio dinámico era mejor entenderlo como un sistema con un conjunto de influencias recíprocas mutuas (Pareto, 1935). De acuerdo con Pareto, el conocimiento clave radicaba en el hecho de que la introducción de un cambio en una parte del sistema necesariamente generaba cambios en otra parte del mismo. Muchos de estos cambios, argumentaba Pareto, se pueden ver como formas de compensaciones del propio sistema para mantener su estructura. Desde un punto de vista matemático, Pareto lo expresaba diciendo que el estado de cada variable del sistema es una función de las otras variables.

7.2.  Realimentación en economía El reduccionismo es un concepto clave utilizado a lo largo y ancho de la ciencia. La idea que subyace es que si se conocen los componentes de un sistema se puede comprender el todo a través de las interacciones entre sus partes. Esto no quiere decir que las propiedades del sistema global sean una simple yuxtaposición de los elementos constituyentes. En la interacción entre las partes surgen propiedades complejas que no estaban presentes en ningún componente individual. Los huracanes, por ejemplo, se pueden explicar por la interacción de las moléculas en el aire, pero una molécula aislada no puede formar un huracán. 58

Sebastián Dormido Bencomo

En muchos sistemas, estas interacciones toman la forma de una estructura en red. En esta red, cada elemento individual afecta a algunos de sus vecinos de forma específica mientras que a su vez se ve afectado por otros elementos. Aunque cada elemento no está directamente relacionado con todos los demás, sí que lo está de forma indirecta. La economía se ajusta claramente a este esquema, donde las personas, las organizaciones y el entorno donde operan son sus componentes básicos. Algunos elementos tienen enlaces directos como los flujos de género, los servicios, el dinero, los instrumentos financieros, los acreedores y muchas otras cosas. Una característica crucial en tales sistemas es el fenómeno de realimentación. Por ejemplo, un aumento en el precio del calzado puede conducir a un exceso de existencias, lo que puede originar que los minoristas reduzcan sus precios —es decir, un aumento en la variable que llamamos precio origina un suministro en exceso y esto a su vez produce una caída de los precios—. En otras situaciones, sin embargo, un aumento en el precio de algún activo, por ejemplo la vivienda, puede atraer a más compradores al mercado y producir un nuevo aumento en el precio. El primer caso es un claro ejemplo de realimentación negativa, un proceso donde un cambio dado tiende él mismo a invertirse, mientras que el último es una realimentación positiva; un proceso donde un cambio tiende a alimentarse sobre sí mismo puede llevar a un cambio desenfrenado. La mayoría de los eventos en economía se pueden explicar de for­ ma sencilla y elegante a través de los mecanismos de realimentación positiva y negativa. En algunos casos, la realimentación positiva solo puede operar en una dirección —siendo capaz de causar un aumento del autorreforzamiento en alguna variable—. El crecimiento económico a largo plazo se asemeja a esto. Una nueva tecnología que genera más actividad económica promueve la irrupción de nuevas tecnologías adicionales siempre que no se generen mecanismos de realimentación negativa que originen que desaparezca el conocimiento técnico o que disminuya dicha actividad económica. 59

Realimentación: entre lo natural y lo artificial

En otros escenarios, la realimentación positiva (Arthur, 1990) puede operar en cualquiera de las dos direcciones, causando o un aumento, o una disminución del auto reforzamiento. En los precios de las acciones o de las viviendas surgen burbujas cuando las personas esperan que continúe el alza de los precios, y ocurren quiebras si lo que se espera es lo opuesto, que continúen bajando. Estas fases, cada una conducida por una realimentación positiva, en una u otra dirección, alternan entre sí a lo largo del tiempo con otro tipo de realimentación —la realimentación negativa—, que normalmente es responsable de los puntos de cambio. Esto último ocurre, por ejemplo, cuando los inversores se dan cuenta que el aumento de los precios se les ha ido de las manos y comienzan a vender, originando así que el mercado de un viraje brusco. Dinámicas similares son las que originan los altibajos del desempleo y las fases alternativas de inflación y deflación que se observan en la economía de mercado. La realimentación en economía se ajusta perfectamente a la disciplina emergente de la economía conductual, que busca explicar las acciones económicas en términos de la psicología humana y no con los abstrusos teoremas de la economía clásica. En esencia, los enfoques conductuales explican las propiedades e interacciones de los actores en la economía, mientras que la realimentación justifica las propiedades que surgen de estas interacciones. En la ciencia política, la realimentación apunta a un sistema de economía mixta en el cual el Estado juega un gran papel. El crecimiento del PIB puede depender de un lazo de realimentación de capacidad tecnológica de mejora continua. Sin embargo, si las empresas no tienen capacidad para financiar la investigación científica a largo plazo ni a los doce a veinte años de educación que se necesitan por persona, entonces el Estado debe claramente asumir un rol de moderador. De igual manera, si los mercados son propensos a oscilaciones salvajes en los precios de las acciones, intereses de los créditos, niveles de precio, empleo, PIB y otras variables, entonces debería regular el comportamiento de los actores claves (especialmente las instituciones financieras) para mitigar esta tendencia y mover el dinero en circulación y su 60

Sebastián Dormido Bencomo

propio déficit o excedentes presupuestarios de forma que contrarreste cualquier tipo de conducta cíclica. Hoy día sabemos de la historia que la planificación central de las tesis comunistas, aunque bien intencionadas, son muy ineficientes. El Estado no puede encargarse de todo, y la única respuesta es por lo tanto una economía de tipo mixto. La teoría del equilibrio clásico en la economía, en esencia, pone el énfasis solo en la realimentación negativa, despreciando que en cada caso hay también realimentación positiva. En el desempleo, por ejemplo, las pérdidas significativas de puestos de trabajo implican reducción en los gastos y cierre de más empresas. Esto origina más pérdidas de puestos de trabajo y caída de los precios de una forma tal que hace que aquellos que todavía tienen ingresos contengan el gasto. Estiman que los bienes y servicios serán más baratos en el futuro. Se establece así un lazo de realimentación positiva que arrastra a la economía hacia el colapso, a menos que intervenga el Estado para frenarlo. La economía clásica concluye que esta clase de intervenciones son innecesarias, y que las leyes del libre mercado son casi siempre el mejor antídoto. Esto es así porque se focalizan sobre la realimentación negativa y desprecian la realimentación positiva. Al hacerlo así ignoran la mitad de la historia de cómo realmente trabaja la economía. 7.3.  Realimentación en educación Enseñanza puede significar dos cosas completamente diferentes. En primer lugar puede simplemente querer decir presentar información, de forma que si doy una clase sobre un determinado tema puedo decir que enseño, independientemente de que alguien haya aprendido. El segundo significado de enseñanza es ayudar a alguien a aprender. De acuerdo con este significado —que personalmente acepto—, si doy una clase sobre algo y los estudiantes no aprenden, yo no he enseñado. Lo que resulta digno de consideración es que se pueden dar todos los escenarios posibles en la relación enseñanza13 13

_  Enseñar (del lat. vulg. ‘insigna re): Mostrar o exponer algo, para que sea visto y apreciado.

61

Realimentación: entre lo natural y lo artificial

versus aprendizaje14, ya que puede haber aprendizaje sin enseñanza, enseñanza sin aprendizaje, aprendizaje con enseñanza y, lo que es más chocante, aprendizaje a pesar de la enseñanza. El enfoque tradicional de “enseñar un curso” implícitamente utiliza el primer significado. Preparo un programa, explicitando los temas que planifico que voy a cubrir, los expongo en clase y por esta tarea me gano mi sueldo como profesor. No importa cuántos estudiantes aprenden, si he explicado el programa he hecho mi trabajo. Incluso si cubrimos el programa en su totalidad, si nuestros estudiantes no aprenden lo que pensamos que tienen que aprender deberíamos aceptar que hemos fallado en nuestra tarea. La verdadera medida de la efectividad de la enseñanza es la calidad del aprendizaje de los alumnos. La realimentación en educación representa el nexo de unión entre la enseñanza de un profesor y el aprendizaje de sus alumnos. En un artículo ya clásico en el mundo de la educación A. W. Chickering y Z. F. Gamson (Chickering y Gamson, 1987) analizan lo que ellos denominan los siete principios de la docencia de calidad. Estos principios son los siguientes: 1) Estimular el contacto entre profesores y alumnos. 2) Estimular la cooperación entre alumnos. 3) Estimular el aprendizaje activo. 4) Proporcionar “realimentación” a tiempo. 5) Dedicar tiempo a las tareas más relevantes. 6) Proyectar en los alumnos expectativas elevadas. 7) Respetar los diferentes talentos y formas de aprendizaje. La realimentación se conceptualiza como información proporcionada por un agente (el profesor, un compañero, los padres, los libros, la propia experiencia) considerando aspectos de la capacidad o comprensión de quien la recibe. Un profesor puede proporcionar información correctiva, un compañero puede sugerir una estrategia alternativa, un libro puede dar información para clarificar ideas, un padre puede proporcionar estímulo y el propio alumno puede bus14

 Aprender (del lat. ‘apprehende˘re’): Adquirir conocimiento de algo por medio del estudio o de la experiencia.

62

Sebastián Dormido Bencomo

car la respuesta para evaluar si es correcta o no. La realimentación es así una “consecuencia” del comportamiento del sistema (Hattie et al., 2007). En el entorno educativo es muy importante proporcionar al estudiante una realimentación apropiada sobre su rendimiento y evolución académica con el fin de facilitar y mejorar su aprendizaje. La realimentación en educación no tiene efecto en el vacío; para ser eficaz en su efecto, debe existir un contexto de aprendizaje dentro del cual se establece la realimentación. Es parte del proceso de enseñanza y es lo que acontece después de que un estudiante haya respondido a la instrucción inicial —cuando la información se proporciona considerando algunos aspectos del rendimiento alcanzado—. Es mucho más eficiente cuando se relaciona con interpretaciones erróneas y no con una total falta de comprensión del tema que se trata. En este último caso puede ser incluso intimidatorio para el estudiante: Si no está familiarizado con el material estudiado o le resulta abstruso, el proporcionar realimentación debería tener poco efecto sobre el objetivo que se persigue puesto que no hay forma de relacionar la nueva información con lo que ya se conoce (Kulhavy, 1977).

La finalidad de la realimentación es reducir las discrepancias entre la comprensión actual y el objetivo que se persigue. Las estrategias que los profesores y estudiantes utilizan para aminorar esta discrepancia pueden ser más o menos efectivas en mejorar el aprendizaje, así que resulta importante comprender las circunstancias que han llevado a dicha discrepancia. Una realimentación efectiva debe responder a tres cuestiones importantes que se deben plantear tanto el profesor como el estudiante: ¿hacia dónde voy? (¿cuáles son los objetivos?), ¿cómo estoy yendo? (¿qué progresos se están dando hacia el objetivo?) y ¿qué es lo siguiente? (¿qué actividades necesitan realizarse para mejorar el progreso?). Según sean las respuestas a estas cuestiones será posible reducir la discrepancia, que es parcialmente dependiente del nivel en el cual opera la realimentación. Se pueden considerar diferentes tipos de 63

Realimentación: entre lo natural y lo artificial

niveles: el nivel de cumplimiento de la tarea, el nivel del proceso de comprensión de cómo hacer una tarea, el nivel de proceso regulatorio o meta cognitivo y/o el nivel personal (que no está relacionado con lo específico de la tarea). La realimentación tiene efectos diferentes a través de estos niveles. Al estudiante se le debe guiar a través del contenido específico de la materia y también sobre los aspectos formales de su trabajo. De igual manera, el alumno debe suministrar la realimentación necesaria para que su profesor pueda evaluarlo eficaz y satisfactoriamente. En las comunicaciones que tienen lugar durante el proceso de aprendizaje se producen dos tipos de realimentación, tal y como se observa en la Figura 9. El primero de ellos, observado desde el punto de vista del profesor, la obtiene del alumno a través de los diferentes medios de evaluación que utiliza. Por otra parte, desde la perspectiva del estudiante, el profesor produce una realimentación a base de acciones de enseñanza que tratan de guiarlo durante su proceso de aprendizaje. En la Figura 9 se puede apreciar el sistema colaborativo que forman el profesor y el estudiante, cuyo principal objetivo es la consecución de determinados hitos en el aprendizaje del estudiante y del cumplimiento de su tarea por parte del profesor.

Acciones de enseñanza (realimentación profesor-estudiante)

Objetivos de aprendizaje

Logros en el aprendizaje

Profesor

Estudiante

Medios de evaluación (realimentación estudiante-profesor)

Figura 9. Tipos de realimentación generados entre profesor y estudiante.

64

Sebastián Dormido Bencomo

Una serie de influyentes meta-análisis ha confirmado que la realimentación es central para el aprendizaje de los estudiantes (Hattie et al., 1996). Paul Ramsden (2003) sostiene que los comentarios efectivos sobre el trabajo de los estudiantes representan una de las características claves de la calidad de la enseñanza. La realimentación juega un papel decisivo en el aprendizaje y en el desarrollo individual de los estudiantes mas allá de lo que pueda expresarse en el marco educativo formal. Aprendemos más rápido y mucho más efectivamente cuando tenemos un sentido claro de cuán bien lo estamos haciendo y qué podríamos necesitar hacer con el fin de mejorar. A pesar de su impacto central sobre el aprendizaje, la realimentación en educación necesita todavía muchos más esfuerzos de investigación. Es un proceso que encara retos tales como tiempo, falta de comunicación y barreras emocionales.

7.4.  Realimentación en biología En una diversidad de niveles de organización —desde el molecular al celular y desde el organismo individual al poblacional— la biología se está haciendo cada vez más accesible a planteamientos que se utilizan de forma rutinaria en ingeniería: modelado matemático, teoría de sistemas, computación y enfoques abstractos para la síntesis. Inversamente, el ritmo acelerado de descubrimientos en las ciencias biológicas sugiere nuevos principios de diseño que pueden tener importantes aplicaciones prácticas en los sistemas que diseñamos y construimos. Esta sinergia en la interfaz de la biología y la ingeniería ofrece oportunidades sin precedentes para alcanzar retos inimaginables en ambas áreas. Los principios de realimentación y control son centrales a muchas de las cuestiones claves en la ingeniería biológica y van a jugar un papel muy activo en el futuro de este campo. Un gran tema actualmente en fase de progreso en la comunidad de biología es la ciencia de la ingeniería inversa (y eventualmente directa) de redes de control biológicas. Hay una gran variedad de 65

Realimentación: entre lo natural y lo artificial

fenómenos biológicos que proporcionan una rica y variada fuente de ejemplos para el mundo del control de los sistemas realimentados, incluyendo ente otros: regulación de genes y transducción de señal; mecanismos de realimentación hormonal, inmunológicos y cardiovasculares; control muscular y locomoción; percepción activa, visión y propiocepción15; atención y consciencia; dinámica de poblaciones y epidemias. Cada uno de estos (y muchos más) representan oportunidades para descubrir qué funciona, cómo funciona y qué se puede hacer para modificarlo. 7.5.  Realimentación en ecología Debido a que los ecosistemas son complejos sistemas dinámicos que operan en diferentes escalas de tiempo, proporcionan un amplio espectro de nuevos retos para el modelado y el análisis de los sistemas de control realimentados. Las experiencias recientes de aplicar herramientas de control y sistemas dinámicos a redes de bacterias sugieren que mucha de la complejidad de estas redes se debe a la presencia de múltiples capas de lazos de realimentación que proporcionan una funcionalidad robusta a la célula individual. El análisis a nivel de sistemas se puede aplicar a los ecosistemas con el objetivo de comprender su robustez. El alcance de las decisiones y eventos que afectan a las especies individuales contribuyen a la robustez y/o fragilidad del ecosistema como un todo. El concepto de homeostasis que hemos introducido es central al tema de la estequiometría ecológica. Con esto queremos referirnos a la relación entre las composiciones químicas de los organismos y la de los nutrientes que consumen. La homeostasis estequiométrica ayuda a explicar el reciclado de los nutrientes y la dinámica de poblaciones. Históricamente, se pensaba que la sucesión ecológica tenía una etapa final estable conocida como climax que estaba fundamentalmente 15

  La propiocepción es el sentido que informa al organismo de la posición de los músculos.

66

Sebastián Dormido Bencomo

condicionada por el clima local. Esta idea ha sido abandonada por los ecologistas modernos en favor de ideas de no equilibrio en relación a cómo funcionan los ecosistemas. Solamente en pequeños hábitat aislados, conocidos como islas ecológicas, se puede observar este fenómeno. Uno de estos casos de estudio es el de la isla de Krakatoa después de la gran erupción de su volcán en 1883: la homeostasis estable establecida del climax de la selva previa a la erupción fue destruida y se eliminó todo vestigio de vida de la isla. En los años siguientes a la erupción, Krakatoa sufrió una secuencia de cambios ecológicos en los cuales aparecieron sucesivos grupos de nuevas plantas y especies animales una después de otra, conduciendo a una biodiversidad creciente y culminando en la actualidad en una comunidad con un climax reestablecido. Esta sucesión ecológica en Krakatoa ocurrió en una serie de etapas: la isla alcanzó su climax en 1983 con ochocientas especies diferentes registradas, es decir, cien años después de que la erupción hubiese eliminado cualquier forma de vida de la isla, se había alcanzado un nuevo equilibrio ecológico. La evidencia confirma que este número ha sido homeostático durante algún tiempo, con la introducción de nuevas especies que rápidamente llevan a la eliminación de algunas antiguas. La evidencia de Krakatoa, y de otros ecosistemas de islas perturbados, ha confirmado muchos principios de la biogeografía de islas16, imitando principios generales de sucesión ecológica en un sistema virtualmente cerrado constituido casi exclusivamente de especies endémicas.

8. CONCLUSIONES La reciente aparición de nuevos sistemas integrados de medida, comunicación y cálculo distribuido ha comenzado ya a crear un entorno en el cual se tiene acceso a cantidades enormes de datos con capacidad de procesamiento y comunicación, que eran inimaginables 16

 La biogeografía de islas es un campo dentro de la biogeografía que establece y explica los factores que afectan a la riqueza de las especies de comunidades naturales.

67

Realimentación: entre lo natural y lo artificial

hace apenas 25 años (Fleming, 1988; Åström, 1994; Murray, 2003). Esto va a tener como consecuencia inmediata un efecto profundo sobre las aplicaciones científicas, comerciales y militares, especialmente cuando los sistemas informáticos comiencen a interaccionar con sistemas físicos de manera cada vez más integrada. De forma natural, pues, la realimentación va a ser un elemento esencial en la construcción de tales sistemas interconectados, que deben proporcionar un funcionamiento con elevadas prestaciones, capacidades de reconfiguración y gran fiabilidad frente a la presencia de incertidumbres y perturbaciones. En todas estas áreas, una característica común es que los requisitos al nivel del sistema global exceden con mucho a la de sus componentes individuales. Es precisamente en este punto donde el control (en su sentido más general) juega un papel central, ya que permite asegurar la consecución de los objetivos al nivel del sistema global a través de la corrección de sus acciones basándose en la medida de su estado actual (principio de realimentación). El reto que se plantea es, pues, ir desde una concepción tradicional y superada del sistema de control de un proceso simple con un único controlador, a reconocer los sistemas de control como una colección heterogénea y compleja de sistemas físicos y de información con complicadas interconexiones e interacciones. Además de una proliferación, a costes cada vez más reducidos, de dispositivos integrados con capacidades de cálculo, comunicación y medida, una tendencia importante con la realimentación es su desplazamiento a niveles jerárquicos superiores donde la toma de decisiones juega un papel crucial, como por ejemplo en la integración de lazos de realimentación locales en los sistemas de gestión de recursos y planificación del funcionamiento de las empresas entendido en un sentido global. Extender los beneficios de la realimentación a estos sistemas no tradicionales ofrece enormes oportunidades en la mejora de su eficacia, productividad, seguridad y fiabilidad. Desde esta perspectiva el control es una tecnología crítica y fundamental para el desarrollo de una sociedad cada vez más orientada hacia la información y el conocimiento como base para la toma de decisiones. 68

Sebastián Dormido Bencomo

Los sistemas de control realimentados de manera creciente se han convertido en componentes críticos en el sentido que si el controlador falla también fallará el sistema, sin que apenas sea reconoci­do por la sociedad el valor crucial que esta tecnología tiene en sus actua­les niveles de bienestar. Esta capacidad de operación silenciosa es lo que le ha valido la consideración de “tecnología oculta” (Åström, 1994). En este sentido, los sistemas de control automático se han convertido pues en el verdadero “talón de Aquiles” de muchos de nuestros sistemas. La destrucción o mal funcionamiento de un lazo de realimentación puede producir consecuencias catastróficas en el funcionamiento del proceso al que se encuentra conectado. Ejemplos de esto se encuentran en los automóviles, aeroplanos, sistemas industriales y reproductores de CD que dejarían de funcionar si sus sistemas de control realimentados fallasen. Sus principios y fundamentos están también teniendo, tal como hemos analizado, un profundo impacto en campos tan diversos como la biología, la economía, la educación, la ecología y la sociología. 9.  REFERENCIAS BIBLIOGRÁFICAS Airy, G. B. (1840): On the regulator of the clockwork for effecting uniform movement of equatoreals, Mem. Roy. Astron. Soc., 11, 249-267. Arthur, W. Brian (1990): Positive Feedback in the Economy, Scientific American, 262, 92-99. Åström, K. J. (1994): The future of control, Modeling, Identification and Control, 15 (3), 127-134. — (2000): Cajas Negras y Ruido Blanco, Discurso de su Doctorado Honoris Causa por la UNED, Madrid. —; Murray, R. M. (2008): Feedback Systems: An Introduction for Scientists and Engineers, Princeton University Press. Bacon, F. (1986): De Augmentis Scientiarum, II, c.2, Works i, 500; cit. en C. Dijksterhuis Bateson, G. (1972): Steps to an ecology of mind, Ballantine, New York. Bennet, S. (1979): A History of Control Engineering 1800-1930, Peter Peregrinus, London.

69

Realimentación: entre lo natural y lo artificial

Bennet, S. (1994): Norbert Wiener and Control of Anti-Aircraft Guns, IEEE Control Systems, 14 (6), 58-62. — (1996): A Brief History of Automatic Control, IEEE Control Systems, 16 (3), 17-25. Bernard, C. (1878): Leçons sur les phénomènes de la vie communs aux animaux et aux végétaux, Paris, Bailliere. Berry, M.; Linoff, G. (1997): Data mining techniques: for marketing, sales and customer support, vol. 2. Wiley, Chichester. Bishop, C. (1995): Neural networks for pattern recognition, Oxford University Press, Oxford. Black, H. S. (1928): U S . Patent, 1 686 792, filed, Feb. 3. 1925. issued Oct. 9. 1928. — (1934): Stabilized feedback amplifiers, Bell Syst. Tech. J., 13, 1-18. Bode, H. W. (1940): Relations between attenuation and phase in feedback amplifier design, Bell System Technical Journal, 19, 421-454. Bromwich, T. J. (1916): Normal coordinates in dynamical systems, Proc. London Math. Soc., 15, 401-448. Burrell, G.; Morgan, G. (1979): Sociological Paradigms and Organizational Analysis, London, Heinemann. Campbell, G. A.; Foster, R. M. (1931): Fourier integrals for practical applications, Bell Telephone Syst. monograph B-584. Cannon, W. B. (1929): Organization for physiological homeostasis, Physiological Reviews, 9, 399–431. Carson, J. R. (1926): Electrical Circuit Theory and the Operational Calculus, McGraw-Hill. Chickering, A. W.; Gamson, Z. F. (1987): Seven Principles for Good Practice in Under-graduate Education, AAHE Bulletin, 39 (7), 3–7. Cooper, S. J. (2008): From Claude Bernard to Walter Cannon. Emergence of the concept of homeostasis, Appetite, 51, 419–427. Dickinson, H. W.; Jenkins, R. (1927): James Watt and the steam engine, Oxford University Press. Dijskterhuis, C. (1986): The Mechanization of the World Picture, Princeton. Dormido, S. (2004): Control learning: Present and future, Annual Reviews in Control, 28, 115-136. Fleming, W. H., Ed. (1988): Future Directions in Control Theory-A Mathematical Perspec­tive, Society for Industrial and Applied Mathematics, Philadelphia. Fuller, A. T. (1975): Stability of Motion, Taylor and Francis.

70

Sebastián Dormido Bencomo

Hattie, J. A.; Biggs, J.; Purdie, N. (1996): Effects of learning skills intervention on student learning: A meta-analysis, Review of Research in Education, 66, 99–136. Hattie, J. A.; Timperley, H. (2007): The Power of Feedback, Review of Educational Research, 77, 1, 81-112. Heathcote, N. (1953): Nobel Prize Winners in Physics. 1901-1950, Schuman. Heavisde, O. (1899): Electromagnetic Theory, London, 1899. Heims, S. J. (1991): The Cybernetics Group, MIT Press, Cambrigde, MA. Hermite, C. (1854): Sur le nombre des racines de une equation algebrique comprise entre des limites donees, J. Reine Angew. Math., 52, 39-51. Hdez. Reynés, J. (2009): Lo natural y lo artificial en Aristóteles y Francis Bacon. Bases para la tecnología moderna, Ontology Studies, 9, 289-308. Hughes, T. P. (1993): Elmer Sperry Inventor and Engineer. The John Hopkins University Press, London. Hurwitz, A. (1895): On the conditions under which an equation has only roots with negative real parts, Mathematische Annalen, 46, 273-284. James, H. M.; N. B. Nichols; Phillips, R. S. (1947): Theory of Servomechanisms. McGraw-Hill, New York. Kulhavy, R. W. (1977): Feedback in written instruction, Review of Educational Research, 47 (1), 211–232. Lee, Y. W.; Wiener, N. (1932): Synthesis of electrical networks by means of Fourier transforms of Laguerre’s functions, J.Math. Phys., 11, 83-113. MacLeod, R. ed (2004): The Library of Alexandria: Center of Learning in the Ancient World , I. B. Tauris; London. McCulloch, W. (1989): Collected papers of Warren S. McCulloch, Intersystems, Salinas, CA. Maxwell, J. C. (1868): On governors, Proceedings of the Royal Society of London, 16, pp. 270-283. También publicado en Mathematical Trends in Control Theory, R. Bellman and R. Kalaba eds, Dover Publications, New York 1964, 3-17. Mayr, O. (1970): The Origins of Feedback Control, MIT Press. — (1971a): Maxwell and the Origins of Cybernetics, Isis, 62 (4), 424-444. — (1971b): Vicrorian Physicist and Speed Regulation: An Encounter between Science and Technology, Royal Society of London, 26 (2), 205-228. Mazlish, B. (1998): The uncertain sciences, New Haven, Yale University Press. McFarland, M. W. e. (1953): The Papers of Wilbur and Orville Wright. Mc Graw Hill, New York. Mead, M., (1961): Coming of age in Samoa, Harper Collins Books, New York.

71

Realimentación: entre lo natural y lo artificial

Mindell, D. A. (1995): Automation’s Finest Hour: Bell Labs and Automatic Control in World War II, IEEE Control Systems, 15 (6), 72-80. — (2002): Between Human and Machine: Feedback, Control, and Computing before Cybernetics, Johns Hopkins University Press. Murray, R. M. editor (2003): “Control in an Information Rich World” Report of the Panel on Future Directions in Control, Dynamics and Systems, SIAM, http://www.cds.caltech.edu/∼murray/cdspanel. Nyquist, H. (1932): Regeneration theory, Bell System Technical Journal, 11, 126-147. Also published in Mathematical Trends in Control Theory, R. Bellman and R. Kalaba eds, Dover Publications, New York 1964, 83-105. Osgood, C. (2005): Como los hermanos Wright realizaron el primer vuelo propulsado, Ciencia y cultura, diciembre, 27-36 (traducción de Liza Niño). Ramsden, P. (2003): Learning to Teach in Higher Education (2nd ed.), London and New York, RoutledgeFalmer. Rosenblueth, A.; Wiener, N.; Bigelow, J. (1943): Behavior, purpose and teleology. Philosophy Science, 10, 18–24. Routh, E. J. (1877): A Treatise on the Stability of a Given State of Motion. Macmillan, London. Reprinted in Fuller (1975). Smith, A. (1776): The Wealth of Nations, The Modern Library, 1937, https:// www.marxists.org/reference/archive/smith-adam/works/wealth-ofnations/. Smith, T. M. (1975): Algunas perspectivas sobre la historia primitiva de los computadores, Publicado en Perspectivas de la revolución de los computadores Z. W. Pylyshyn ed, Alianza Universidad, 1975, 31-57. Truxal, J. (1955): Automatic Feedback Control System Synthesis. McGraw-Hill, New York. Von Neumann, J. (1946): The principles of large-scale computing machines, Annals History Computing, 3(3), 263–273. Wiener, N. (1948): Cybernetics or control and communication in the animal and the machine, MIT Press, Cambridge, MA. — (1961): Cybernetics: or control and communication in the animal and the machine, 2nd edition. MIT Press, Cambridge, MA. Vyshnegradskii, J. (1876): Sur la théorie générale des régulateurs, Compt. Rend. Acad. Sci. Paris, 83, 318-321.

72

Juan del Rosal, 14 28040 MADRID Tel. Dirección Editorial: 913 987 521

Get in touch

Social

© Copyright 2013 - 2024 MYDOKUMENT.COM - All rights reserved.