PUEDE UNA COMPUTADORA TENER MENTE?* Roger Penrose. Introducción

¿PUEDE UNA COMPUTADORA TENER MENTE?* Roger Penrose Introducción Durante las últimas décadas, la tecnología electrónica de computación ha logrado enor

1 downloads 60 Views 108KB Size

Recommend Stories


Qué es una computadora?
¿Qué es una computadora? La computadora es una máquina de tipo electrónico-digital, capaz de procesar información a gran velocidad y con gran precisi

MONTAJE DE UNA COMPUTADORA
qwertyuiopasdfghjklzxcvbnmqwerty uiopasdfghjklzxcvbnmqwertyuiopasd fghjklzxcvbnmqwertyuiopasdfghjklzx cvbnmqwertyuiopasdfghjklzxcvbnmq wertyuiopasdfgh

CONSTRÚYETE UNA MENTE FELIZ
CONSTRÚYETE UNA MENTE FELIZ Araceli Estévez Escuela de Terapia Transpersonal 2005-2006 Lo que genera sufrimiento en el mundo es la falta de imaginaci

Una mente maravillosa; Ron Howard
Cine. Inteligencia. Personas superdotadas. Esquizofrenia. John Nash. Argumento. Personajes. A beautiful mind

Story Transcript

¿PUEDE UNA COMPUTADORA TENER MENTE?* Roger Penrose

Introducción Durante las últimas décadas, la tecnología electrónica de computación ha logrado enormes avances; además, es indudable que en las siguientes décadas habrá grandes adelantos en velocidad, capacidad y diseño lógico. Las computadoras de hoy pueden acabar por parecer lentas y primitivas, tal y como ahora se ven las calculadoras mecánicas del pasado. Hay algo casi aterrador en el ritmo del desarrollo. Actualmente, Ias computadoras pueden desempeñar numerosas tareas que antes eran del dominio exclusivo del pensamiento humano, con una velocidad y exactitud que superan, por mucho, lo que el ser humano puede lograr. Ya estamos acostumbrados a que las máquinas nos superen físicamente con mucha facilidad. Esto no nos produce la más mínima angustia, por el contrario, nos sentimos bastante contentos de tener aparatos que nos pueden impulsar con regularidad a grandes velocidades por el suelo −por lo menos cinco veces más rápido que el atleta más veloz− o que pueden cavar hoyos, o demoler estructuras no deseadas a tal ritmo que avergonzarían a cuadrillas de docenas de hombres. Incluso nos sentirnos complacidos por tener máquinas que nos permiten hacer físicamente cosas que no hubiéramos sido capaces de hacer sin ellas: nos pueden elevar hacia el cielo y trasladarnos al otro lado del océano en cuestión de horas. Estos logros no molestan a nuestro orgullo. Pero ser capaces de pensar ha sido una capacidad intrínsecamente humana. Es esta habilidad de pensar la que a fin de cuentas −cuando se traduce a términos físicos− nos permite trascender nuestras limitaciones físicas, lo que siempre ha parecido ponernos, en cuanto a logros, por encima del resto de los seres vivos. Si las máquinas pudieran un día superarnos en esa única e importante cualidad, por la cual creemos que somos superiores, ¿debimos entregar a nuestra creación esa superioridad única? La pregunta de si se puede decir que un aparato puede pensar − e incluso, quizás, tener sentimientos, o tener mente─ no es realmente nueva. Pero se le ha dado un nuevo impulso, incluso cierta urgencia, debido al avance de la tecnología computacional moderna. La pregunta abarca profundos problemas filosóficos. ¿Qué significa pensar, o sentir?, ¿qué es la mente?, ¿existen verdaderamente Ias mentes? Si se asume que existen, ¿hasta qué punto son las mentes dependientes de las estructuras físicas a las que están asociadas?, ¿podrían las mentes existir independientemente de esas estructuras?, ¿o son sencillamente las funciones de tipos apropiados de estructuras físicas? En cualquier caso, ¿es necesario que las estructuras relevantes sean de naturaleza biológica (cerebro), o es posible que las mentes puedan ser * Tomado y adaptado de “The Emperor's New Mind” de Roger Penrose, próxima publicación del Fondo de Cultura Económica.

asociadas de igual forma con piezas de equipo electrónico?, ¿están las mentes sujetas a las leyes físicas? Es más, ¿qué son las leyes físicas? Pedir respuestas definitivas a preguntas tan grandiosas sería, por supuesto, pedir una labor de gran envergadura. No puedo dar respuestas; nadie puede hacerlo, aún cuando algunos traten de impresionarnos con sus suposiciones. Mis suposiciones desempeñarán un papel importante en lo que sigue, pero tratar de ser claro al distinguir las especulaciones de los hechos científicos contundentes; también trataré de ser claro sobre las razones en las que sustento mis especulaciones. Mi propósito principal, no es adivinar algunas respuestas, sino llamar la atención sobre problemas aparentemente nuevos que tienen que ver con la relación entre la estructura de las leyes físicas, la naturaleza de las matemáticas y el pensamiento consciente; y presentar un punto de vista novedoso. Este punto de vista no puede ser descrito adecuadamente en unas cuantas palabras, pero de forma breve y quizá tendenciosamente, puedo al menos establecer que mi punto de vista sugiere que es nuestra actual falta de comprensión de las leyes fundamentales de la física la que nos impide hacerle frente al concepto de mente en términos físicos o lógicos. Con esto no quiero decir que las leyes nunca serán bien conocidas, por el contrario, parte de la intención de este trabajo es estimular futuras investigaciones hacia direcciones que puedan ser prometedoras en este sentido, además, de hacer sugerencias en apariencia nuevas, y hasta cierto punto específicas, sobre el lugar que la mente puede ocupar dentro del desarrollo de la física actual. Dejaré claro, que mi punto de vista no es convencional entre los físicos y, en consecuencia, es poco probable que sea adoptado en la actualidad por científicos de la computación o fisiólogos. La mayoría de los físicos afirmarán que las leyes operativas fundamentales, en el cerebro humano, son perfectamente conocidos. Claro que no se discutirá que aún hay muchas lagunas en nuestro conocimiento de la física en general. Por ejemplo, no conocemos las leyes básicas que rigen los valores de masa de las partículas subatómicas de la materia, ni la fuerza de sus interacciones. No sabemos como hacer para que la teoría cuántica esté completamente de acuerdo con la teoría de la relatividad de Einstein, eso si es que se pudiera construir una teoría de "gravedad cuántica", que pudiera hacer que la teoría cuántica estuviera de acuerdo con la teoría general de la relatividad. Como consecuencia de esto, no entendemos la naturaleza del espacio en la escala absurdamente pequeña de 1/100 000 000 000 000 000 000 de las partículas fundamentales conocidas, aunque se supone que en dimensiones más grandes nuestro conocimiento es adecuado. No sabemos si el universo como un todo es finito e infinito −tanto en tiempo como en espacio− aunque tales incertidumbres no parecen tener relevancia alguna en la física en nivel humano. No entendemos la física que debe operar en el corazón de los hoyos negros, ni en la del origen del big-bang del universo. Aunque todos estos problemas parecen tan alejados como uno quiera imaginar de los problemas de “todos los días”,

o incluso a un nivel menor, son relevantes para el funcionamiento del cerebro humano. ¡Y en verdad son remotos! No obstante, existe otro vasto desconocimiento de nuestro entendimiento físico que está en ese nivel, que es de hecho fundamental en el funcionamiento del pensamiento humano y en nuestra conciencia. Este desconocimiento no es reconocido por la mayoría de los físicos, tal y como trataré de explicarlo, e incluso objetaré que, de forma bastante notable, los hoyos negros y el big-bang son consideraciones que tienen en verdad un peso definitivo en estos problemas.

La prueba de Turing Imaginemos que un nuevo modelo de computadora ha salido al mercado, con una capacidad de memoria y un número de unidades lógicas mayores que las de la mente humana. Supongamos también que estas máquinas han sido cuidadosamente programadas y alimentadas con grandes cantidades de datos apropiados. Los fabricantes afirman que los aparatos en verdad piensan. Tal vez, incluso afirmen que son genuinamente inteligentes. O pueden ir más allá y sugerir que los aparatos de veras sienten dolor, felicidad, compasión, orgullo, etc. y que están conscientes y entienden lo que están hacienda. De hecho, afirman que tienen conciencia. ¿Cómo sabremos que lo que afirman los fabricantes es veraz? Por lo general, cuando compramos una pieza de maquinaria, juzgamos su valor exclusivamente por el servicio que nos da, y si cumple satisfactoriamente con Ias funciones a la que está destinada, entonces nos sentimos satisfechos. Si no, la regresamos para que sea reparada o cambiada por una nueva. Para poner a prueba la afirmación de los fabricantes de que tal aparato tiene atributos humanos, lo que debemos hacer −según este criterio− es, simplemente preguntar si se comportaría como un ser humano en determinados aspectos. Si se probara que lo hace satisfactoriamente, no tendríamos razón para quejarnos de los fabricantes, y no habría necesidad de regresar la computadora para repararla o cambiaria. Esto nos ofrece una visión bastante operacional de estos asuntos. El operador diría que la computadora piensa si actúa en tal forma que no se distingue de los procesos del pensamiento humano. Por el momento, adoptemos este punto de vista operacional. Claro que esto no significa que le pidamos a la computadora que se mueva como una persona mientras piensa. Mucho menos esperamos que parezca un ser humano, o tenga sensibilidad al tacto, éstos serían atributos irrelevantes para el propósito de la computadora. De cualquier modo, esto significa que le estamos pidiendo que genere respuestas como humano ante cualquier pregunta que se nos

ocurra hacerle, y exigimos que sea satisfactoriamente probado que piensa (o siente, entiende, etc.) a partir de que conteste preguntas de una manera similar a las de un ser humano. Este punto de vista fue argumentado con vehemencia por Alan Turing en su famoso artículo titulado "Maquinaria computacional e inteligencia", que apareció en 1950 en el Boletín Filosófico Mind. En este articulo se describió por primera vez la idea a la que nos referimos ahora coma la prueba Turing. Su intención fue probar si podría decirse razonablemente, que una máquina podía pensar. Supongamos que hay una computadora (como la que nuestros fabricantes están tratando de vendernos en la descripción mencionada) de la que se afirma que puede pensar. Según la prueba Turing, la computadora y un voluntario son puestos fuera de la vista de algún perceptivo interrogador, el cual tiene que tratar de decidir cuál es la computadora y quién es el ser humano al escuchar las respuestas. Estas preguntas, y más importantes aún las respuestas, que ella** recibe, son todas transmitidas de manera impersonal, digamos que se escriben en un teclado y luego se muestran en una pantalla. A la interrogadora no se le permite tener ninguna información de las dos partes, sólo la obtenida en la sesión de preguntas y respuestas. El sujeto humano contesto las preguntas verazmente y trata de persuadir de que él es el ser humano, y que el otro sujeto es la computadora; pero la computadora está programada para "mentir', para tratar de convencer al interrogador de que ella es el ser humano. Si en el transcurso de una serie de tales pruebas el interrogador es incapaz de identificar al sujeto humano real de alguna manera consistente, entonces se asume que la computadora (o el programa de la computadora, o el programador o el que hizo su diseño, etc.) ha pasado la prueba. Se puede argumentar que esta prueba es injusta para la computadora. Si los roles fueran invertidos y se le pidiera al humano que pretendiera ser una computadora, y a la computadora se le pidiera que respondiera verazmente, entonces sería más fácil para el interrogador identificar quién es quien. Sólo necesitaría preguntarle al sujeto algún cálculo aritmético muy complicado. Una buena computadora debería ser capaz de responder con exactitud al momento, pero el humano titubearía con demasiada facilidad. Se debe tener cuidado con esto, ya que existen "prodigios del cálculo" que pueden desempeñar notables logros en aritmética mental con exactitud infalible y aparentemente sin gran esfuerzo. La tarea aritmética que el interrogador escoge para la prueba debe ser mucho más exigente, por ejemplo, multiplicar dos números de treinta dígitos en dos segundos, cálculo que seria fácilmente resuelto por una buena computadora.

**Existe un problema inevitable al escribir un trabajo como este al tener que decidir si se usa el pronombre “él” o “ella” en algo a donde es claro que no se tiene intención de implicar nada respecto al género. Por lo cual me refiero a una persona abstracta, usaré en adelante “él” para significar la frase “el o ella”, lo cual asumo que es la práctica normal. De cualquier modo, espero que se me disculpe una clara tendencia de “sexismo” al expresar una preferencia por un interrogador femenino aquí. ¡Supuse que ella podría ser mucho más sensitiva que su contraparte masculina, para reconocer la esencia humana verdadera!

Por lo que se refiere a la tarea de los programadores de la computadora deberían hacerla parecer “estúpida”, ya que si el interrogador le hiciera una pregunta aritmética complicada, como lo hemos considerado arriba, la computadora, entonces, pretendería no ser capaz de contestarla, porque si no, se pondría en evidencia de inmediato. Pero no creo que el trabajo de hacer parecer a la computadora más "estúpida " en este aspecto, sea un problema particularmente serio para sus programadores. La dificultad principal radicaría en hacerla contestar algunos de los más sencillos tipos de preguntas de “sentido común”, preguntas con las cuales un humano no tendría la más mínima dificultad. Sin embargo, hay un problema inherente al citar ejemplos específicos de tales preguntas. Porque para cualquier pregunta que uno puedo sugerir en primera instancia, sería cosa fácil pensar subsecuentemente una forma para que la computadora responda esa pregunta particular tal y coma lo haría una persona. Pero toda carencia de un entendimiento real, por parte de la computadora, seria fácil de hacerse evidente con un entendimiento sostenido, y en especial con preguntas de naturaleza original que requieran de un entendimiento real. La habilidad del interrogador, sería tener la capacidad de crear tales formas originales de cuestionamiento, y hacer un seguimiento de las mismas con otros interrogatorios de carácter examinativo, para que a partir de un diseño, pueda revelar si se ha producido o no un verdadero “entendimiento”. Ella puede incluso elegir el hacer preguntas completamente sin sentido, para ver si la computadora puede percibir la diferencia, o sumar una a dos aparentemente sin sentido, por ejemplo puede preguntar, “Escuche que hoy en la mañana un rinoceronte voló sobre el Mississippi en un globo rosado. ¿Qué te parece esto?” (Uno puede imaginar las gotas de sudor frío formándose en la frente de la computadora, por usar la metáfora más inapropiada.) La computadora puede sugerir de forma reservado que “Eso me suena un tanto ridículo.” Hasta ahí, todo va bien, pero el interrogador continúa: “¿En serio? Mi tío lo hizo una vez−de ida y regreso− sólo que iba todo de blanco con rayas, ¿qué tiene de ridículo eso? Es fácil de imaginar que si no ha habido un "entendimiento” apropiado, una computadora pronto se verá obligada a delatarse. Puede incluso tomar por abordaje un "Los rinocerontes no vuelan", ya que sus bancos de memoria le han asistido con el hecho de que no tienen alas, en respuesta a la primera pregunta, o "Los rinocerontes no tienen rayas", en respuesta a la segunda. La próxima vez puede intentar una verdadera pregunta sin sentido, como es el cambiarlo por "bajo el Mississippi”, o "dentro de un globo rosado”, o "con un vestido de noche rosado" para ver si la computadora tiene el sentido para darse cuenta de la diferencia esencial. Dejemos por el momento el problema de si se puede, y de ser así, cuándo construir una computadora que pueda resolver la prueba Turing. Supongamos, con el propósito de argumentar, que esas máquinas ya han sido construidas. Podríamos preguntar si la computadora que logra pasar la prueba Turing necesariamente piensa, siente, entiende, etc. consideremos algunas de las

implicaciones. Si los fabricantes están en lo cierto en sus afirmaciones más contundentes, en especial el hecho de que su aparato es un ente pensante, sensible, sensitivo, comprensivo y consciente, entonces la compra del aparato nos involucraría en responsabilidades morales. En verdad sucedería si se ha de creer en lo que dicen los fabricantes. El simple hecho de operar una computadora para satisfacer nuestras necesidades, sin tomar en cuenta su propia sensibilidad, sería reprensible. Moralmente, no seria diferente a maltratar a un esclavo. El hacer que la computadora experimenta el dolor, que los fabricantes afirman que es capaz de sentir, seria algo que deberíamos evitar. Apagar la computadora, o incluso venderla, cuando puede haberse encariñado con nosotros, nos presentaría dificultades morales, y habría otros incontables problemas del tipo que tienden a involucrarnos en las relaciones con las personas y con los animales. Todo esto se convertiría en un problema fundamental. Por lo que seria de gran importancia para nosotros (y para las autoridades también) el saber si lo que afirman los fabricantes es verdad, lo cual es de suponer está basado en el enunciado que dice: Cada aparato pensante ha sido examinado exhaustivamente con la prueba Turing por nuestro equipo de expertos. Me parece, a pesar del absurdo aparente de algunas de estas afirmaciones −en particular las morales−, que reconocer la prueba Turing, aprobada exitosamente, como un indicador válido de Ia presencia de pensamiento, inteligencia, entendimiento o conciencia es en verdad de mucho fuerza. ¿De qué otro modo formamos normalmente nuestros juicios sobre que otras personas poseen tales cualidades, si no es gracias a la conversación? De hecho, hay otro tipo de criterio, el cual involucra la expresión facial, los movimientos del cuerpo y las actitudes en general. Pero podemos imaginar que (quizá en un futuro más lejano) un robot podría ser construido para imitar exitosamente todas nuestras expresiones y movimientos. Entonces no sería necesario esconder al robot y al sujeto humano de la vista del interrogador, pero los criterios que el interrogador tiene a su disposición son, en principio, los mismos que antes. Desde mi propio punto de vista, debería estar preparado para debilitar considerablemente los requerimientos de la prueba Turing. Me parece que el pedirle a la computadora que imite al ser humano de forma tan exacta como para ser indistinguible es pedirle más de lo necesario. Lo que yo requeriría seria que nuestro perceptivo interrogador debería sentirse verdaderamente convencido, a partir de la naturaleza de las respuestas de la computadora, que hay una presencia consciente aun cuando posiblemente sea extraña. Esto es algo ausente en todos los sistemas computacionales construidos hasta ahora. De cualquier modo, puedo apreciar que existiría el peligro de que si el interrogador fuera capaz de decidir cuál sujeto era la computadora, quizá de forma inconsciente, pudiera mostrarse reticente a atribuirle conciencia a una computadora aunque pudiera percibirla. O, por el otro lado, podría tener la impresión de “sentir” una cierto “presencia

extraña” y estar preparada para darle −la computadora− el beneficio de la duda aun cuando no haya tal. Por estas razones, la versión original de la prueba Turing tiene una ventaja considerable por ser más objetiva y me atendré a ella a continuación. La consecuente “injusticia” hacia la computadora a la que me refería antes (i.e. que debe ser capaz de hacer todo lo que un ser humano puede realizar para poder posar la prueba, mientras que el humano no tiene necesidad de resolver lo que la computadora puede hacer) no es algo que parezca preocuparles a los que apoyan la prueba Turing como la prueba verdadera del pensamiento. En cualquier caso, su punto de vista suele tender a que no pasará mucho tiempo antes de que una computadora sea en verdad capaz de pasar la prueba, digamos que para el año 2010. (Turing sugirió originalmente que un rango del treinta por ciento de éxito para la computadora, con un interrogador “promedio” y con una sesión de preguntas de sólo cinco minutos, podía ser conseguida para el año 2000.) Todas estas consideraciones son relevantes para una pregunta esencial: ¿desde el punto de vista operacional se puede proveer a un objeto de una serie razonable de criterio suficiente para poder juzgar la presencia o ausencia de cualidades mentales? Algunos afirmarán que no. La imitación, sin importar qué tan lograda sea, no es como el original. Mi posición es intermedia a este respecto. Estoy inclinado a creer, como principio general, que la imitación, puede ser siempre detectada mediante un buen examen; aunque esto sea más un asunto de fe (o de optimismo científico) que un hecho probado. Por lo que estoy preparado a aceptar que la prueba Turing −en su totalidad− es una prueba, aunque rudimentaria, válida en el contexto elegido. Esto es para decir, que si la computadora fuera en verdad capaz de contestar todas las preguntas que se le hicieran, de forma tal que no se pudiera distinguir del modo en el que un ser humano las contestaría −y por tanto engañar de forma propia y consistente a nuestro perceptivo interrogador−entonces, en ausencia de toda evidencia contraria, mi suposición seria que la computadora en verdad piensa, siente, etc. En la utilización de palabras como “evidencia”, “en verdad”, y “suposición”, implico que cuando me refiero a pensar, sentir o entender, o de modo particular a tener conciencia, asumo los conceptos de tal modo que significan “cosas” objetivas, cuya presencia a ausencia en cuerpos físicos, es algo que aún estamos por concretar, y no como meras conveniencias de lenguaje. Reconozco que éste es un punto crucial, ya que para tratar de discernir la presencia de tales cualidades, hacemos suposiciones basadas en toda la evidencia que tenemos a nuestra disposición. (Lo que no es −en principio− muy distinto, digamos, de un astrónomo tratando de concretar la masa de una estrella distante.) ¿Qué tipo de evidencia en contra se debería considerar? Es difícil el estipular reglas sobre esto antes de tiempo. Pero quiero dejar claro que el mero hecho de que una computadora puede estar hecha de transistores, alambres y cosas por el estilo, en vez de neuronas, arterias, etc., no es, en si mismo, el tipo de evidencia en contra que yo reconocería. La circunstancia que sí tengo en mente, es que en el futuro podría desarrollarse exitosamente una teoría de la conciencia, cierta

en el sentido de que sea una teoría física coherente y apropiada, con bella concordancia con el resto del entendimiento físico, y de forma tal que sus predicciones se correlacionen de forma precisa con las exigencias de los seres humanos del cuándo, el cómo y a qué grado ellos mismos son conscientes y que esa teoría pueda, de hecho, tener implicaciones que conciernan a la conciencia putativa de nuestra computadora. Uno incluso puede concebir un “detector de conciencia”, construido según los principios de esta teoría, lo que sería completamente confiable en función de los sujetos humanos, pero cuyos resultados variarían con aquellos de la prueba Turing en el caso de la computadora. En tales circunstancias se tendría que ser muy cuidadoso al interpretar los resultados de la prueba Turing. Si la prueba Turing es apropiada, me parece que depende, parcialmente, de lo que se espera del desarrollo de la ciencia y la tecnología.

Inteligencia artificial Un área de mucho interés en la actualidad es a la que se denomina inteligencia artificial (IA). Los objetivos de la IA son imitar por medio de máquinas, en general, electrónicas tanto actividad mental semejante a la humana como sea posible, y quizá, con el tiempo, aventajar las habilidades humanas. Hay interés por los resultados de IA por lo menos en cuatro direcciones. En particular, está el estudio de la robótica, que tiene que ver, en gran medida, con los requerimientos prácticos de la industria y que pueden efectuar tareas “inteligentes” −tareas de una versatilidad y complejidad que antes exigían la intervención o control humano− y que éstas fueran desempeñadas con una velocidad y confiabilidad por encima de Ias capacidades humanas, o bajo condiciones adversas en las cuales la vida estaría en riesgo. También está el interés comercial del desarrollo de sistemas expertos, según los cuales el conocimiento básico de una profesión −médica, legal, etc.− puede ser codificado dentro de un paquete computacional. ¿Será posible que la experiencia y dominio de los integrantes de esta profesión puedan, en verdad, ser suplantados por tales paquetes? ¿O es meramente que largas listas de información, junto con un cotejamiento compresible, sea todo lo que se espera alcanzar? La pregunta de si las computadoras pueden exhibir (lo simular) inteligencia genuina, tiene una clara implicación social. La psicología es otra área en la cual la IA podría tener una relevancia directa. Se espera que por tratar de imitar el comportamiento del cerebro humano (o de algún otro animal) por medio de implementos electrónicos −o por fracasar al intentarlo− se puede aprender algo de importancia del funcionamiento cerebral. Finalmente, hay una esperanza muy optimista de que por razones similares la IA tenga algo que decir respecto a preguntas profundas de filosofía, y en el conocimiento del significado del concepto de mente. ¿Qué tanto ha sido capaz de progresar la IA hasta hoy? Me seria muy difícil tratar de hacer un resumen. Hay muchos grupos activos en diferentes partes del mundo y sólo estoy

familiarizado con detalles de una parte mínima de su trabajo. A pesar de ello, seria justo decir que, aunque se han hecho muchas cosas ingeniosas, la simulación de cualquier cosa que pudiera pasar por inteligencia genuina todavía está lejos. Para ahondar en la materia, primero mencionaré algunos de los (aún sorprendentes) logros tempranos, y después hablaré de los recientes progresos notables que se han tenido con computadoras que juegan ajedrez. Uno de los primeros aparatos de IA fue la "tortuga” de Grey Walter, hecha a principios de los cincuenta, la cual se movía por el piso a su voluntad hasta que sus baterías se bajaban, y cuando esto sucedía iba a la fuente de poder más cercana se conectaba a sí misma y recargaba sus baterías. Cuando quedaba nuevamente cargada se desconectaba de la fuente y emprendía otra vez sus aventuras por el piso. Desde entonces se han construido otros objetos similares (ver por ejemplo, Waltz 1982). Una línea algo distinta de desarrollo se ejemplifica con el programa de computadora de Terry Winograd, diseñado en 1972, que puede distinguir de forma sensible un grupo de bloques de diferentes colores y formas, a los cuales, por simulación, los ordena y dispone de formas distintas. A pesar de tales éxitos tempranos, es notable lo difícil que ha resultado hacer un sencillo 'brazo robot' coyunturado, el cual debe maniobrar y evitar obstáculos con movimientos que le parezcan "obvios" al humano que los observa. La interpretación de las escenas visuales es por lo general, también, un área en donde los procedimientos de la IA no ha logrado aproximarse a lo que el cerebro humano (y, de hecho, el de la mayoría de los animales) puede lograr sin que se vea “esfuerzo aparente”. Las computadoras que juegan ajedrez probablemente sean los mejores ejemplos de máquinas que muestran lo que puede pensarse que es un "comportamiento inteligente". De hecho, algunas máquinas han alcanzado hoy (1989), un nivel extremadamente respetable de desempeño en relación a los jugadores humanos, alcanzando incluso a aquellos que son “Maestros Internacionales" (Los niveles de las computadoras serían un poco menos a 2300, en donde por comparación, Kasporov, el campeón mundial, tiene un nivel mayor a 2700.) En particular, un programa de computadora (para un microprocesador comercial Fidelity Excell) hecho por Dan y Kathe Spranklen ha logrado un nivel (Elo) de 2110 y ha sido galardonado con el titulo de maestro por la USCF. Aún más notable es el "Deep Thought”, programado en su mayor parte por Hsiung Hsu, de la Universidad Carnegie Mellon, que tenia un nivel de aproximadamente 2500 y que recientemente consiguió el notable logro de compartir el primer lugar (con el maestro Tony Miles) en un torneo de ajedrez en (Longberch, California, noviembre de 1988), en el cual derrotó a un maestro (Bent Larsen) por primera vez. Los computadoras de ajedrez ahora también sobresalen al resolver problemas de ajedrez y pueden fácilmente superar a los humanos en tal desempeño.

Las máquinas que juegan ajedrez se basan mucho en “conocimiento de libros", a lo que se suma su acertadísimo poder de cálculo. Vale la pena señalar que las máquinas que juegan ajedrez son mejores en un desempeño total en relación a un jugador humano, cuando se requiere que los movimientos sean hechos con rapidez; los jugadores se desempeñan relativamente mejor en −relación a las máquinas− cuando se permite mayor tiempo para cada movimiento. Uno puede entender esto en función del hecho de que Ias decisiones de la computadora están hechas con base en lo rápido y preciso de sus computaciones extendidas, mientras que el humano toma ventaja de “juicios” que se basan en estimaciones conscientes que comparativamente son más lentas. Estos juicios humanos sirven para eliminar el número de posibilidades que necesitan ser consideradas en cada etapa del juego: cuando se dispone de tiempo, se puede alcanzar mayor profundidad en el análisis; mientras que la máquina está simplemente calculando y eliminando posibilidades en forma directa, sin necesidad de tales juicios. (Esta diferencia es aún más notable en el difícil juego oriental “go”, en donde el número de posibilidades por movimiento es considerablemente mayor que en el ajedrez.

IA fuerte y el cuarto chino de Searle Hay un punto de vista, al cual uno se refiere como IA fuerte, el cual adopta una posición un tanto extrema en estos problemas.1 Según IA fuerte, los aparatos a los que nos hemos referido no sólo serían de hecho inteligentes y tendrían mente, etc., sino que este tipo de cualidades mentales sería atribuido a todo funcionamiento lógico de cualquier aparato computacional, aun los mecánicamente más sencillos, como el termostato. La idea es que la actividad mental es sencillamente el llevar a cabo alguna secuencia bien definida de operaciones, la que con frecuencia es referida como algoritmo. Seré más preciso, un poco más adelante, en cuanto a lo que un algoritmo es en realidad. Por el momento, sería adecuado definir un algoritmo sencillamente como un proceso do cálculo de cierto tipo. En el caso del termostato, el algoritmo es extremadamente simple. Registra si la temperatura es mayor o menor de la que tiene puesto, y entonces hace que el circuito se desconecte en el primer caso, o lo conecte debido al segundo. Para cualquier tipo significativo de actividad mental del cerebro humano, el algoritmo tendría que ser algo mucho más complicado, pero, según el punto de vista de la IA fuerte, es a fin de cuentas un algoritmo. Diferirá enormemente en grado del algoritmo sencillo del termostato, pero no diferirá en principio. Por lo tanto, según la IA fuerte, la diferencia entre las funciones esenciales del cerebro humano (incluyendo todas sus manifestaciones conscientes) y las de un termostato yace sólo en el hecho de que esta complicación es mucho mayor (o quizá “estructura de alto orden”, a propiedades autorrferenciales” o algún otro atributo que se le pueda asignar a un algoritmo para el caso del cerebro.) Lo más importante es que todas las cualidades mentales −pensamiento,

sentimientos, inteligencia, entendimiento, conciencia− deben ser tomados en cuenta, según este punto de vista, meramente como aspectos de este complicado funcionamiento; esto es para decir que son meramente atributos algoritmicos llevados a cabo por el cerebro. La virtud de cualquier algoritmo específico radica en su desempeño, en particular por la exactitud do sus resultados, su alcance, su economía y la velocidad con la que opera. Un algoritmo que pretendo conseguir lo que se supone que opera en el cerebro humano necesitaría ser algo estupendo. Pero si un algoritmo de este tipo existe en el cerebro −y los que apoyan la IA fuerte afirman que lo hay− entonces en principio podría funcionar en una computadora. De hecho podría funcionar en cualquier electrónica moderna de uso general, si no fuera por Ias limitaciones del espacio de memoria y por la velocidad de operación. (La justificación de este comentario vendrá después, cuando tomemos en consideración la máquina Turing universal.) Se anticipa que tales limitaciones podrán ser resueltas por las enormes y rápidas computadoras de un futuro no muy lejano. En esta eventualidad, tal algoritmo, de ser encontrado, podría pasar la prueba Turing. Los que apoyan la IA fuerte afirman que al hacer funcionar el algoritmo, en sí mismo experimentaría sentimientos, tendría conciencia, seria una mente. Bajo ninguna condición se puede estar de acuerdo con que los estados mentales y los algoritmos pueden ser identificados do este modo. En particular, el filósofo americano Johan Searle (1980, 1987) ha debatido en contra de este punto de vista. Ha citado ejemplos en donde versiones simplificadas de la prueba Turing han sido pasadas por computadoras programadas de forma apropiada, pero ofrece fuertes argumentos para apoyar el punto de vista en el que el relevante atributo mental del “entendimiento” está, sin embargo, completamente ausente. Tal ejemplo está basado en el programa de computadora diseñado por Roger Schank (Schank y Abelson 1977). El objetivo do este programa es el de proveer una simulación de entendimiento de historias sencillas como: “Un hombre entró a un restorán y ordenó una hamburguesa; cuando le trajeron Ia hamburguesa estaba quemada, al punto que crujía, y el hombre salió enfurecido del restorán sin pagar la cuenta o dejar una propina." Como segundo ejemplo: "Un hombre entra a un restorán y ordena una hamburguesa; cuando le trajeron la hamburguesa él estuvo muy complacido y cuando se iba del restorán le dio a la mesera una gran propina antes de pagar su cuenta." Como una prueba de “entendimiento” de estas historias, se le pide a la computadora que responda si el hombre se comió o no la hamburguesa en cada caso (hecho que no fue explicitado en ninguna de las dos historias). A este tipo de historias y de preguntas tan sencillas la computadora puede dar respuestas que son esencialmente indistinguibles de Ias respuestas que daría un ser humano que hable inglés, para estos ejemplos en particular, “no" en el primer caso y "si" en el segundo. Así en función de este sentido muy limitado, una máquina ha logrado ya aprobar la prueba Turing.

La pregunta que debemos tomar en cuenta es si este tipo de éxito indica en verdad un entendimiento genuino por parte de la computadora o quizá, del programa mismo. El argumento de Searle es que no es así e invoca su concepto de “cuarto china”. En primer lugar él propone: Ias historias deben ser contadas en chino y no en inglés −que es un cambio poco esencial− y que todas las operaciones de algoritmo de la computadora, para ese ejercicio en particular, deben ser todos (en inglés) en un equipo de instrucciones para manipular tableros con ideogramas chinas. Searle se imagina a sí mismo hacienda todas las manipulaciones dentro de un cuarto cerrado. Las secuencias de símbolos que representan a las historias y las preguntas, son alimentadas hacia el interior de la habitación a través de una pequeña ranura. No se permite ningún otro tipo de información del exterior. Finalmente, cuando todas Ias manipulaciones han sido completadas, los resultados pasan a través de la ranura. Ya que estas manipulaciones sólo llevan a cabo el algoritmo del programa de Schank, la secuencia final resultante es sencillamente el chino para “si” o para “no”, como puede ser el caso dando una respuesta correcta a la pregunta original hecha en china sobre una historia contada en chino. Ahora, Searle nos dice claramente que él no entiende una solo palabra de china, por la que no tendrá la más mínima idea de lo que tratan las historias. A pesar de ello, al llevar a cabo correctamente la serie de operaciones que constituyen el algoritmo de Schank (las instrucciones para este algoritmo se le han dado en inglés) el seria capaz de hacerlo tan bien como una persona china que si entendiera las historias. El punto de Searle −y yo pienso que es bastante importante− es que por el mero hecho de llevar a cabo un algoritmo de forma exitosa, no implica que cualquier tipo de entendimiento haya sido llevado a cabo. El Searle imaginado en su corto chino, no entendería palabra alguna de estas historias. Hay varias objeciones en contra del argumento de Searle. Sólo mencionaré aquellas a las que les reconozco un significado serio. En primer lugar, quizás haya algo “confuso” en la frase “no entender palabra alguna”, como fue usada arriba. El entendimiento tiene tanto que ver con patrones como con palabras individuales. AI llevar a cabo algoritmos de este tipo, uno puede empezar a percibir algo en los patrones que hacen los símbolos, sin entender los verdaderos significados de muchos de los signos individuales. Por ejemplo, el carácter chino para "hamburguesa” (si existe) podría ser reemplazado por aquel de otro plato, digamos “chow mein”, y las historias no se verían afectadas de forma significativa. A pesar de ello, me parece razonable suponer que de hecho, muy poco del verdadero significado de Ias historias (incluso al considerar que estos reemplazos son de poca importancia) podría llevar a uno meramente por seguir los detalles de un algoritmo tal. En segundo lugar, se debe tomar en cuenta el hecho de que la ejecución de un programa sencillo de computadora seria normalmente excesivo, largo y tedioso si fuera llevado a cabo por humanos que manipularan los símbolos. (Es por esto, después de todo, por lo que tenemos a Ias computadoras.) Si Searle llevara en verdad a cabo el algoritmo de Schank de la manera sugerida, es muy probable que se pasara días, meses o años envuelto en un trabajo en extremo aburrido para poder contestar una sola pregunta; no sería una actividad

plausible para un filósofo. De cualquier modo, ésta no me parece una objeción seria ya que nos conciernen los asuntos de principio y no lo práctico de los mismos. La dificultad es mayor con un programa de computadora, el cual se supone que tiene la suficiente complicación como para competir con un cerebro humano y, por tanto, pasar la prueba Turing de forma apropiada. Un programa así tendría que ser muy complicado. Uno puede imaginar la operación de este programa, paro poder dar la respuesta, incluso para la pregunta más simple de la prueba Turing, que puede involucrar tantos pasos que no habría posibilidad de que algún ser humano pudiera realizar el algoritmo dentro de un lapso normal de vida. Si este fuera el caso, seria difícil de decirlo, en ausencia de tal programa.2 Pero, de cualquier modo, esta pregunta de complejidad extrema no puede, en mi opinión, ser ignorada. Es cierto que aquí nos conciernen asuntos de principio, pero no me es inconcebible que puedo haber una cierta cantidad “critica” de complicación en el algoritmo que sería necesario conseguir para que pudiera exhibir cualidades mentales. Quizás este valor critico sea tan grande que no haya algoritmo, con ese grado de complejidad, que puedo ser llevado a cabo por un ser humano, del modo que nos lo presenta Searle. Existen otras dificultades serias referentes al punto de vista IA fuerte. Según la IA fuerte, es sólo el algoritmo el que cuenta. No hay diferencia alguna si ese algoritmo es efectuado por un cerebro, por una computadora electrónica, un aparato mecánico de ruedas y engranes a un sistema de tubos de agua. El punto de vista es que sencillamente la estructura lógica del algoritmo es la que es significativa para el "estado mental" que se supone que representa, y que la continencia física particular de tal algoritmo es enteramente irrelevante. Como Searle lo señala, esto realmente se vincula a una forma de "dualismo”. El dualismo es un punto de vista filosófico expuesto por René Descartes, filósofo y matemático del siglo diecisiete que afirma que hay dos tipos separados de sustancias: la "cosa mental” y la materia ordinaria. El hecho de que si −y en tal caso, cómo− una de estas sustancias puede afectar a la otra es una pregunta adicional. El punto es que se supone que esta cosa mental no está compuesta de materia y que puede existir independiente de la misma. La cosa mental de la IA fuerte es la estructura lógica del algoritmo. Como he hecho notar hace un momento, la contención física particular de un algoritmo es algo totalmente irrelevante. El algoritmo tiene un cierto tipo de "existencia” descorporeizada que está muy aparte de cualquier realización de este algoritmo en términos físicos. Es parte de una pregunta general de la realidad platónica de los objetos matemáticos abstractos. Por el momento pondré de lado este problema general, y haré notar que aquellos que apoyan la IA fuerte, parecen estar considerando seriamente la realidad, por lo menos la de los algoritmos, ya que creen que esta forma la sustancia de sus pensamientos, sus sentimientos, su entendimiento y sus percepciones conscientes. Hay una ironía destacable en el hecho de que −tal y como lo señaló Searle− la postura de la IA fuerte, nos lleva a una forma extrema de dualismo, el punto de vista con el cual los que apoyan la IA fuerte no quieren verse involucrados.

Este dilema permanece, detrás de la escena, en un argumento presentado por Douglas Hofstadter del punto de vista de la IA fuerte en el diálogo titulado: “Una conversación con el cerebro de Einstein”. Hofstadter imagina un libro, de proporciones absurdamente monstruosas, en el que se supone que está contenida la descripción completa del cerebro de Albert Einstein. Toda pregunta que uno quisiera hacerle a Einstein puede ser contestada, tal y como Einstein la hubiera respondido, tan sólo con hojear el libro y seguir cuidadosamente las instrucciones detalladas. Claro que "tan sólo" no describe acertadamente lo que se tiene que hacer, tal y como Hofstadter cuidadosamente señala. Pero su afirmación, es que en principio, el libro es completamente equivalente, en el sentido operacional de la prueba Turing, para una versión ridículamente desacelerada del verdadero Einstein. Por lo que, según Ias aseveraciones de la IA fuerte, el libro podría pensar, sentir, entender como Einstein, pero quizá viviendo a un nivel monstruosamente lento (por lo que para el libro-Einstein el mundo exterior parecería pasar a una velocidad ridículamente rápida). De hecho, yo que se supone que el libro es meramente un continente particular del algoritmo que constituye al "ser” de Einstein, seria en verdad Einstein. Pero ahora se presenta una nueva dificultad. El libro podría no ser abierto nunca, o podría ser utilizado continuamente por innumerables estudiantes e investigadores en busca de la verdad. ¿Cómo podría el libro saber la diferencia? Quizás el libro no necesitaría ser abierto y su información podría ser obtenida por medio de tomografías, por rayos X, o por alguna otra genialidad tecnológica. ¿Se desarrollaría la conciencia de Einstein sólo cuando el libro es examinado? ¿Se daría cuenta si dos personas escogieran hacerle al libro la misma pregunta en dos momentos completamente distintos?, ¿o eso encerraría dos instancias separadas y temporalmente distintas del mismo estado de la conciencia de Einstein? ¿Quizá su conciencia se desarrollaría sólo si el libro es cambiado? Después de todo, normalmente cuando nos damos cuenta de algo, lo recibimos a partir de la información que viene del mundo exterior, que afecta a nuestra memoria y los estados de nuestras mentes sólo cambian ligeramente. Si es así, ¿Esto significa que estos cambios (sutiles) en algoritmos (y aquí incluyo la memoria como parte del algoritmo) que deben ser asociados con eventos mentales más que (o quizás en adición a) la activación de algoritmos? ¿O es que el libro Einstein permanecería perfectamente consciente incluso cuando nunca sea examinado o molestado por alguien o algo? Hofstadter toca algunas de estas preguntas, pero no intenta verdaderamente contestarlas o llegar a buen término con la mayoría de ellas. ¿Qué significa activar un algoritmo o contenerlo en una forma física? ¿Cambiar un algoritmo sería diferente en algún sentido al mero hecho de descartar un algoritmo y reemplazarlo con otro? ¿Qué demonios tiene que ver todo esto con nuestros sentimientos de conciencia propia? El lector (a menos que sea un partidario de la IA fuerte) puede estarse preguntando por qué he dedicado tanto espacio a una idea tan absurda. De hecho, no reconozco la idea

intrínsicamente como absurda; sólo equivocada. Hay, de hecho, algo de fuerza en el razonamiento detrás de la IA fuerte que debe ser considerado, y esto trataré de explicarlo. También hay, en mi opinión, un cierto atractivo en algunas de las ideas −si se modifican apropiadamente− como también intentaré mostrar. Más aún, en mi opinión, el punto de vista particular contrario expresado por Searle también contiene algunos serios rompecabezas y absurdos, aun cuando, y de forma parcial esté de acuerdo con él. Searle, en su discusión, parece aceptar implícitamente que el tipo de computadoras electrónicas de nuestros días, pero con un aumento considerable en la velocidad, en el tamaño de la memoria de rápido acceso (y posiblemente de acción paralela), puede muy bien ser capaz de pasar la prueba Turing de forma apropiada, en un futuro no muy distante. Está preparado a aceptar el contenido de la IA fuerte (y la mayoría de los otros puntos de vista "científicos”) de que “somos las instancias de algún número de programas de computadora”. Más aún, sucumbe ante: “Claro, el cerebro es una computadora digital. Como todo es una computadora digital, el cerebro también lo es. “Searle afirma que la distinción entre el funcionamiento del cerebro humano (que puede tener mente) y las computadoras electrónicas (que, según afirma, no pueden) pueden ejecutar el mismo algoritmo, en el material de construcción de cada uno. Afirma, por razones que no es capaz de explicar, que los objetos biológicos (el cerebro) pueden tener “intencionalidad” y “semántica”, que él reconoce como características determinantes de la actividad mental, en tanto que las electrónicas no pueden. En sí mismo esto no me parece que señale un camino hacia alguna teoría científica de la mente que pueda sernos de ayuda. ¿Qué tienen de especial los sistemas biológicos, además de −quizás− el camino histórico a través del cual han tenido que evolucionar (y el hecho de que nosotros somos ese tipo de sistemas), qué los distingue como los objetos que pueden tener intencionalidad y semántica? La afirmación me parece tan sospechosa como una aseveración dogmática, incluso más que la afirmación de la IA fuerte de que la simple puesta en acción de un algoritmo puede conjurar un estado de conciencia. En mi opinión, Searle y otras muchas grandes personas, han sido mal llevadas por la gente de las computadoras. Y éstos, han sido mal llevados por los físicos. (No es culpa de los físicos. ¡Ni siquiera ellos lo saben todo!) Se ha estado esparciendo la idea de que, de hecho, "todo es una computadora digital".

Notas 1

A través de este trabajo he adoptado el término de Searle “IA fuerte”, para este punto de vista

extremo, sólo para ser específico. El término “funcionalismo” es usado frecuentemente para lo que es esencialmente el mismo punto de vista, pero es posible que no de forma tan específica. Algunos de los que proponen este tipo de punto de vista son Minsky (1986), Michie (1988), Fodor (1983), y Hofstadter (1979). 2

En su crítica a la ponencia original de Searle, que fue reimpresa como “El yo de la mente”,

Douglas Hofstadter se queja de que ningún ser humano podría “internalizar” de forma concebible la descripción completa de la mente de otro ser humano, debido a la complicación involucrada. ¡De hecho no se puede! Pero, tal y como lo veo, ese no es ni mucho menos el punto. A uno le concierne meramente el llevar a cabo esa parte de un algoritmo que se supone que contiene la ocurrencia de un solo evento mental. Esto podría ser alguna “realización consciente” momentánea al responder una pregunta de la prueba Turing, o podría ser mucho más sencillo. ¿Será que un “evento” tal requiera necesariamente de un algoritmo de una complicación estupenda?

Get in touch

Social

© Copyright 2013 - 2024 MYDOKUMENT.COM - All rights reserved.