Algoritmos, espías de las emociones

Las empresas tecnológicas analizan nuestros sentimientos en las entrevistas de trabajo y los espacios públicos mediante inteligencia artificial. Pero esta tiende a incurrir en sesgos raciales, culturales y sexuales

[Juan Mabromara, AFP y Getty Images]

En síntesis

La inteligencia artificial ya ha traspasado el reconocimiento facial y se adentra en la identificación de los sentimientos, las motivaciones y las actitudes a través del análisis de la expresión facial y corporal y del discurso. 

Existe el riesgo de que los diseñadores introduzcan inadvertidamente sesgos de índole racial, étnica, sexual o cultural en el proceso de aprendizaje de tales programas, que no siempre emitirían juicios acertados. 

Esas capacidades incipientes suscitan un vivo debate en torno a la ética y la legalidad de la intromisión en la intimidad más profunda, la del pensamiento. 

En una feria celebrada en Liverpool en febrero de 2020, dedicada al poco glamuroso tema de las compras gubernamentales, los asistentes deambulaban entre los expositores y las muestras de los proveedores deteniéndose en algunos y pasando de largo ante otros. Entretanto eran vigilados de cerca: instaladas discretamente por todo el recinto 24 cámaras seguían los movimientos de cada individuo, observando sus reacciones a lo que veían y catalogando las sutiles contracciones de los músculos faciales a una velocidad de entre cinco y diez fotogramas por segundo. Las imágenes se enviaban a una red de ordenadores, donde una serie de algoritmos de inteligencia artificial determinaban el sexo y la edad aproximada de cada persona y analizaban sus expresiones en busca de señales de «satisfacción» o «interés». 

Un año después del evento de Inglaterra, Panos Moutafis, director ejecutivo de Zenus, la empresa tejana con sede en Austin que se encuentra detrás de esta tecnología, continuaba entusiasmado por los resultados. «No he visto demasiados sistemas comerciales que consigan este grado de precisión», me dijo durante una videollamada al tiempo que enseñaba una fotografía de la multitud, cuyos rostros aparecían enmarcados por recuadros. El sistema había aprendido a reconocer las emociones después de que los ingenieros de Zenus lo entrenaran introduciendo en él un enorme conjunto de datos de expresiones faciales con etiquetas que describían los sentimientos pertinentes. La empresa validó la eficacia del programa con varios procedimientos, tales como ensayos reales con personas que referían cómo se sentían en el momento de tomar la imagen. Según Moutafis, el sistema «funciona tanto en interiores, con mascarillas y en condiciones de poca luz, como en exteriores, con personas que llevan sombrero o gorra y gafas de sol». 

La de Zenus constituye un ejemplo de tecnología reciente, denominada inteligencia artificial (IA) emocional o computación afectiva, que combina programas de inteligencia artificial con cámaras y otros dispositivos que captan la expresión facial, el lenguaje corporal y la entonación, entre otras señales. El objetivo es trascender el simple reconocimiento facial con el afán de revelar cualidades que hasta el presente resultaban imperceptibles para la tecnología: los sentimientos, la motivación y la actitud de quienes aparecen en las imágenes. «Hasta ahora las cámaras eran mudas, pero se están volviendo inteligentes. Están adquiriendo la capacidad no solo de registrar calladamente nuestras acciones, sino también de emitir juicios sobre ellas.», asevera el analista político de la Unión Estadounidense por las Libertades Civiles, Jay Stanley, autor del informe de 2019 The Dawn of Robot Surveillance(Los albores de la vigilancia robótica).

Puedes obtener el artículo en...

¿Tienes acceso a la revista?

Los boletines de Investigación y Ciencia

Elige qué contenidos quieres recibir.

Responsable: Prensa Científica, S.A. Finalidad: enviarle por correo electrónico los boletines que haya solicitado recibir. Derechos: tiene derecho a acceder, rectificar y suprimir sus datos, así como a otros derechos, como se explica en la información adicional y detallada que puede consultar en nuestra Política de Privacidad.