Utilizamos cookies propias y de terceros para mejorar nuestros servicios y facilitarte el uso de la web mediante el análisis de tus preferencias de navegación. También compartimos la información sobre el tráfico por nuestra web a los medios sociales y de publicidad con los que colaboramos. Si continúas navegando, consideramos que aceptas nuestra Política de cookies .

1 de Febrero de 2020
Psicología

Confiar en los robots

La IA propicia una mejor cooperación a través de la impostura.

THOMAS FUCHS

Conforme los productos de la inteligencia artificial (IA) mejoren en su pretensión de pasar por humanos (como una voz generada mediante IA que tome las reservas para el restaurante por teléfono, o un asistente virtual que resuelva las dudas del consumidor conversando con él en línea), nos veremos inmersos cada vez más en la situación inquietante de no saber si estamos dialogando con una máquina. Parece ser que saber la verdad iría en detrimento de la eficacia de estos productos: investigaciones recientes han constatado contrapartidas entre la transparencia y la cooperación en las interacciones entre los humanos y los ordenadores.

En el estudio se recurrió a un juego sencillo pero sutil donde parejas de participantes tomaban una serie de decisiones simultáneas en las que decidían cooperar o engañar a su compañero. A la larga, lo más rentable es que ambos cooperasen, pero siempre había la tentación de optar por el engaño y ganar unos pocos puntos extra a corto plazo, a expensas del compañero. Los investigadores se sirvieron de un algoritmo de IA que, cuando se hacía pasar por una persona, utilizaba una estrategia que fue mejor que la empleada por los humanos a la hora de buscar la cooperación de un semejante. Pero trabajos precedentes indicaban que la gente tiende a desconfiar de las máquinas, por lo que se preguntaron qué sucedería si el robot se revelase como tal.

El equipo esperaba que las personas que jugaran a sabiendas con un robot reconocerían su capacidad para cooperar (sin ser manipulable) y dejarían de desconfiar en él. «Por desgracia, no lo conseguimos», afirma Talal Rahwan, especialista en computación de la Universidad de Nueva York en Abu Dabi y uno de los autores del artículo, publicado el último noviembre en Nature Machine Intelligence. «No importa lo que hiciese el algoritmo, la gente no dejó a un lado sus prejuicios.» Un robot que juegue sin ocultar que lo es tiene menos posibilidades de conseguir que las personas cooperen con él, por mucho que su estrategia resulte claramente más beneficiosa para ambos. (En cada modo, el robot jugó 50 partidas contra al menos 150 individuos.)

En otro experimento, se les dijo a los jugadores: «Los datos indican que a la gente le va mejor si trata al robot como si fuera una persona». No tuvo efecto alguno.

Virginia Dignum, que dirige el grupo de Inteligencia Artificial Ética y Social en la Universidad de Umeå y que no ha formado parte del estudio, alaba a los investigadores por explorar la contrapartida entre la transparencia y la eficacia, pero le gustaría verla sometida a prueba más allá del experimento del artículo.

Los autores afirman que, en la esfera pública, se le debe pedir a la gente su consentimiento para dejarse engañar por la identidad de un robot. No podrá ser un permiso que deba concederse con cada interacción, porque, de ser así, el «engaño» no funcionaría. Pero la autorización general para el engaño ocasional, aunque se pueda obtener, suscita dilemas éticos. Dignum cree que la gente debe poder saber que ha interaccionado con un robot, aunque matiza que si ella llamase a un servicio de atención al cliente con una pregunta sencilla «solo desearía obtener una respuesta».

Puedes obtener el artículo en...

Los boletines de Investigación y Ciencia

Elige qué contenidos quieres recibir.