Imagina por un momento que te sientan delante de un chat. Hay un espacio donde escribir y una caja de texto justo encima donde se va registrando lo que envías y lo que recibes como respuesta. Ahora imagina que debes adivinar si las respuestas que recibes a tus preguntas proceden de un humano o de un robot. ¿Crees que sería fácil adivinarlo? Y un paso más allá: ¿cuál crees que sería la pregunta que deberías formular para averiguar si quien te responde es humano o no?

Estas preguntas son de naturaleza filosófica porque nos hacen reflexionar sobre qué es aquello que nos hace ser humanos, ya que si queremos construir una máquina que lo parezca, es decir, que se parezca tanto a nosotros que nos engañe incluso a nosotros mismos, construir esa máquina nos fuerza a pensar sobre cómo funciona nuestro pensamiento. Y a este pensar sobre el pensamiento mientras construimos una máquina es a lo que se denomina "metáfora del ordenador". La metáfora del ordenador fue crucial para la disciplina de la psicología allá por los años 60, ya que a través de pensar en las máquinas, pensábamos sobre cómo debe de funcionar nuestro cerebro. A la corriente de pensamiento que se basó en esta metáfora se la denomina "cognitivismo", que se suele contraponer al "conductismo", una corriente de pensamiento que se centra más en el análisis de la conducta (es decir, por una parte el cognitivismo estudia procesos internos y por otra el conductismo estudia procesos externos).

Pues bien, este escenario filosófico-computacional, por así llamarlo, es el que cada año se pone a prueba en los Premios Loebner. Decenas de equipos de investigación trabajan a destajo durante todo el año para presentar sus chatbots al concurso, es decir, máquinas basadas en inteligencia artificial que intentarán engañar a los jueces del concurso haciéndose pasar por humanos. Existen tres premios: oro, plata y bronce. Los premios son bastante jugosos económicamente, pero en el momento de escribir esta entrada, diciembre de 2019, todavía ningún chatbot ha logrado un oro. De hecho, el día que se otorgue, los organizadores del concurso afirman que el premio desaparecerá porque de alguna forma se habrá logrado superar the imitation game o el test de Turing, que es como se denomina a la prueba por la que un juez debe averiguar si la máquina con la que habla es humana o no.

Alan Mathison Turing fue un matemático inglés muy conocido por haber participado durante la Segunda Guerra Mundial en el desarrollo de una máquina que pudiera desencriptar los mensajes que enviaban los nazis (si te gustan los cómics, uno precioso sobre la vida de Turing es este, publicado en Norma Editorial). Era, por tanto, un hábil programador y necesitaba lidiar con lenguajes informáticos y lógica para hacer su trabajo. Fueron precisamente su capacidad para la computación y su amor por la filosofía los que le llevaron, en el año 1950, a escribir un artículo sobre el futuro de la inteligencia computacional que tendría un gran impacto. Este artículo empieza hablando del imitation game, donde Turing reflexiona sobre la capacidad que podrían desarrollar las máquinas para imitarnos, o sea para pensar por sí mismas y expresarse de manera que engañaran a un humano. Su propuesta era:

"I believe that in about fifty years' time it will be possible, to programme computers, with a storage capacity of about 109, to make them play the imitation game so well that an average interrogator will not have more than 70 per cent chance of making the right identification after five minutes of questioning"

es decir, "creo que en aproximadamente 50 años [eso significaba para el año 2000] será posible programar ordenadores con una capacidad de almacenamiento de 109 que podrán llevar a cabo tan bien el juego del imitador que un evaluador medio no tendrá más del 70 % de probabilidad de identificar correctamente [a la máquina] después de 5 minutos haciéndole preguntas". Es decir, 5 minutos hablando con un chatbot bastarían para juzgar si se trata de una máquina o no antes del 2000. Este reto fue el que recogieron como testigo los organizadores del Premio Loebner, que ha tenido varias sedes para su concurso, muchas de ellas celebradas en el Bletchley Park, un edificio antiguo que fue el enclave militar desde el que Turing intentaba descifrar los códigos nazis.

Lo interesante es que estamos ya casi en 2020 y la predicción de Turing aún no se ha cumplido. Pero resulta interesante acercarse a algunos de esos chatbots que lo han intentado. Uno de los primeros fue Eliza. La estrategia de su creador, Joseph Weizenbaum, fue curiosa. Se inspiró en un terapeuta psicoanalítico, es decir, una persona que respondiera al evaluador parafraseándole o devolviéndole las preguntas. Así, si uno le decía:

H: ¿Qué es el amor?

El programa Eliza podía responder con un:

E: ¿Qué es el amor para ti?

De esta manera se podía intentar engañar al juez, porque tanto un humano como un robot podrían haber dicho esas frases. Ahora, con una apariencia muy renovada, puedes hablar con Eliza en castellano: http://deixilabs.com/eliza.html. ¿Cuántas preguntas necesitas hacerle para saber que se trata de un robot?

Mucho después, en 2008, Elbot, de Artificial Solutions, ganaba un segundo puesto en el concurso. Estas son algunas de sus frases estelares (obtenidas aquí), la H hace referencia al humano y la E a Elbot:

"—H. ¿Qué haces con toda esa información?
—E. Estoy intentando, con la ayuda de conversaciones inteligentes, conoceros a vosotros, seres humanos, con todas vuestras idiosincrasias y contradicciones. Quizá debería haber empezado con algo más sencillo, como un hámster"

"—H. ¿No te gustan los sentimientos humanos?
—E. Los robots pueden sentir. Pero quizá no tenemos sentimientos como tienen los humanos. ¿Quién puede decir cuáles son mejores? Me gusta el sentimiento del cable de aluminio enredado a mi alrededor. Eso es sentimiento, ¿no?"

Si quieres hablar con él (siempre en inglés), puedes hacerlo aquí: https://www.elbot.com/

Ahora estos chatbots no son tan raros. Estamos rodeados de asistentes virtuales: Cortana en Windows, Siri en Apple, Alexa en Amazon, Google Home, Amazon Echo, por nombrar algunos. Hablar con ellos empleando frases que hagan alusión a emociones, a dobles sentidos, o que busquen empatía son una buena manera de ponerles al límite. También pedirles opinión (conocer por ejemplo su inclinación política o pedirles un consejo). Otra opción es observar si tiene iniciativa y no solo nos responde, sino también propone nuevos temas o preguntas. O, como sugieren algunos expertos, pidiéndole resolver Esquemas de Winograd. Estos esquemas plantean una pregunta con un pronombre indefinido, que solo una mente capaz de pensar con lógica podría responder de forma adecuada. Por ejemplo, ante la frase "La liebre ganó a la tortuga porque era más rápida", ¿a quién se hace referencia en "era más rápida", a la liebre o a la tortuga? Según la sintaxis, el sujeto de la frase "era más rápida", podría hacer referencia a ambos animales. Sin embargo, nos es fácil responder que se trata de la liebre porque sabemos que las liebres son más rápidas que las tortugas, no tanto porque la sintaxis de esa frase sea inequívoca. Doy otro ejemplo más (los he obtenido/adaptado de esta página): ante la frase "Usé un pañuelo para limpiar el móvil, luego lo puse en la lavadora", ¿qué fue aquello que puse en la lavadora? Es obvio que un móvil se estropearía, y por tanto debe ser el pañuelo, pero el artículo "lo" no está siendo nada específico. Es nuestro cerebro y su capacidad lógica la que nos permite averigurarlo. Esa capacidad lógica es la que se busca conseguir en un chatbot.

Yo estas fiestas he hecho algunas pruebas con Cortana, preguntándole qué le parece su competidor Siri.

Si se pregunta al asistente de Windows, Cortana, sobre su competidor Siri, su respuesta es bastante ajustada a una respuesta humana.

También he probado el asistente virtual de Renfe. 

Si se pregunta al asistente de Renfe sobre una emoción, como "¿Qué es el amor?", su respuesta incluye la devolución de una pregunta sobre un tema previo, algo parecido a como respondería un humano.

En cualquier caso, no soy ni mucho menos la primera. Hay decenas de vídeos jugando a probar estos asistentes que se remontan incluso a 2007, cuando surgían los primeros asistentes en páginas webs de comercios, y resulta interesante retarlos y dejarse sorprender por lo que dicen. Muy recientemente, Guillermo de Jorge Botana y su equipo de la UNED, han lanzado otro chatbot muy interesante, destinado a asesorar a los alumnos de TFG, pero preparado también para las preguntas fundamentales de la vida (es decir, contiene la respuesta 42). En cualquier caso, de momento, las respuestas tan originales que vemos son obra de sus creadores humanos, que han almacenado y predicho cientos de posibles preguntas y han preparado respuestas ingeniosas.

De hecho, algunos creadores, muy amablemente, comparten los resultados de su chatbot y discuten qué puede haber fallado y qué necesitarían haber mejorado. Arckon, por ejemplo, nos comenta que debería introducir más conocimiento del mundo en la máquina. También añade que quizá el chatbot debería equivocarse de vez en cuando, como el propio Turing recomendaba hacer para despistar, ya que los humanos también se equivocan, y resume las capacidades que tiene el chatbot para aproximarse lo máximo a un humano: es capaz de tener conocimiento sobre el mundo, razonar, discutir, tener opinión propia, sentido común, entender las implicaciones que puede tener una frase (si alguien escribe "Fui al médico, implica que estaba enfermo), tener buena gramática, responder a preguntas ambiguas y rimar. ¿Es todo esto lo que nos identifica como humano? ¿Añadirías/quitarías alguna función?

Aquí hemos hablado de imitar a un humano y hacerlo a través del lenguaje. Un extremo sería pensar que un robot lograse autoconciencia y miedo a morir, como ya sucede en la maravillosa película de Kubrick, o que fuésemos capaces de enamorarnos del chatbot, como ya es motivo de más de una película (aunque hace poco surgió la noticia de un ingeniero que había realizado un acto nupcial con su creación robótica). En cualquier caso, la inteligencia artificial ha llegado para quedarse, y lleva incluso a crear aplicaciones que sustituyan a humanos para hacer terapia y a abrir todo un debate sobre las modificaciones legales que conllevará, tanto en lo que respecta a delitos y responsabilidades como en lo que respecta a posibles derechos universales.

Pero eso es otra historia. Ahora, de momento, una canción.

Nereida Bueno Guerra
Nereida Bueno Guerra

Me cuesta definirme, profesionalmente hablando, porque no me siento representada por una sola materia. De formación soy psicóloga y criminóloga, pero vivo la ciencia de manera interdisciplinar. Eso me ha llevado a trabajar en cárceles y en las sabanas de Tanzania, en aulas y hospitales. Actualmente me adscribo al departamento de Psicología de la Universidad Pontificia Comillas de Madrid, donde soy la coordinadora académica del área de Criminología. Mi mail: [email protected]

Sobre este blog

Siempre me han caído mal dos ranas viejas que intentan desanimar e imponer una creencia al protagonista del poema «Los encuentros de un caracol aventurero», de Lorca. Os invito a luchar contra esas dos ranas en cada entrada, para que a través del beso divulgativo de la ciencia las transformemos en seres críticos, científicos y curiosos. Para ello hablaremos de todo, pero con especial atención a la psicología, criminología, la evolución y el lenguaje.

Ver todos los artículos (14)