La robótica se ha encargado desde que la electrónica existe, de tratar de crear robots que puedan hacer las tareas de los seres humanos. Pareciera que estos androides pueden realizar tareas complejas, particularmente ahora que la Inteligencia Artificial ha despegado vía las redes neuronales. Claramente tenemos hoy en día robots más y más inteligentes pero esto no parece ser suficiente.
Por ejemplo, podemos tener software que pueda llevar una conversación telefónica, en donde se engaña al interlocutor, el cual está pensando que habla con otro ser humano y no con una máquina. Google ha hecho una fantástica demostración de este sistema, llamado Dúplex, que se acaba de presentar en el Google I/O.
Es interesante ver cómo el software lidia con la plática, con los detalles de la misma. Claramente, como Google admite, en ocasiones las conversaciones no salen tan bien, pero los avances son notables. Y en este sentido probablemente tengamos que detenernos a pensar si ya hoy los robots modernos, esta combinación de hardware y software pueden pasar la prueba de Turing, la cual es simplemente un experimento en donde una persona se comunica a través de una terminal con otra persona, la cual puede no serlo, sino tratarse de un robot que puede seguir una conversación. Si la persona es engañada y no se da cuenta que hablaba con una máquina y no con otro ser humano, el sistema pasa la prueba de Turing y finalmente tenemos que conceder que es inteligente.
Y si esto le parece asombroso, lector de unocero, habría que pensar si se puede ir un paso más allá. Ya Turing se preguntaba: ¿Puede una máquina tener sentimientos como nosotros? (*) Y la pregunta no es ociosa porque si queremos emular a través de máquinas lo que somos, tenemos que ver todos los aspectos.
Los robots, sean parte hardware y software o simplemente software, deberían quizás poder exhibir sentimientos. El problema es que ¿cómo se programan lo que sentimos? ¿qué hace que nos pongamos tristes o contentos? ¿o qué mecanismos se disparan para el miedo? por ejemplo. Y hay esfuerzos interesantes como el de Eliza, que era un programa de Weizenbaum, quien simuló a un psiquiatra que usaba el procesamiento del lenguaje natural para dar la sensación de cierta empatía con el usuario. Eliza era un fraude en el sentido que no entendía las conversaciones con los seres humanos. Lo que hacía era tomar palabras claves de la conversación y contestaba de manera que “parecía” inteligente. Por ejemplo, si el usuario le decía: “Mi familia no me entiende”, el programa respondía: “Dime más acerca de tu madre”.
Otro interesante ejemplo de querer codificar emociones fue Parry, un programa escrito en 1972 por Kenneth Colby, en ese entonces en la Universidad de Stanford. Parry intentaba simular ser una persona con esquizofrenia paranoica (**). Al igual que Eliza, Parry no entendía conversaciones. Trabajaba bajo el mismo mecanismo de Eliza y el mismo Colby definió a su programa como una “Eliza con actitud”.
Así, a pesar de que la ideas pudiese ser interesante, probablemente tanto Colby como Weizenbaum, se enfrentaron a las limitaciones propias de su época. Hay que señalar que sin embargo, los robots platicadores actuales -aunque cada vez son mejores- siguen estando lejos de demostrarse como una alternativa real a decir que se han programado los sentimientos de las personas en los robots.
Y he aquí el problema. Supongamos que tenemos un robot. Supongamos que este robot puede llevar una conversación. ¿Podrá eventualmente tener sentimientos y querernos? ¿Cómo puede ser posible hacer esto? ¿Podrá apoyarnos “moralmente” cuando estemos abatidos quizás por la muerte de un familiar cercano? ¿Y qué podríamos pensar en ese caso? ¿No sonarían como palabras huecas? ¿Cuál es la clave para que la gente termine por creer que los robots nos aman?
Y pensemos en una mascota, un perrito. Sin duda sus actitudes demuestran ese cariño fiel de los canes hacia sus amigos humanos. Nadie piensa que ese cariño que demuestran es falso o ficticio. ¿Y por qué con un robot no podemos pensar igual? ¿Será acaso que los animales sienten como nosotros y además, son consciente de sí mismos y por ello la empatía que nos demuestran es real?
Hoy la robótica moderna puede hacer muchas cosas pero aún está lejos, y diría yo, demasiado lejos de mostrar un robot que exhiba emociones y que además, sea creíble en este aspecto. Digamos que esto podría ser una nueva prueba de Turing que las máquinas están aún lejos de poder pasar.
(*) Alan M. Turing, Chess, Faster Than Thought, pp. 286-295, London (1953).
(**) El código fuente de Parry (escrito en Lisp), puede accederse aquí.