25 de Febrero de 2022
Inteligencia artificial

Las caras generadas por ordenador inspiran más confianza que las reales

Cada vez cuesta más distinguir entre las imágenes de personas reales y las «falsificaciones profundas» creadas mediante inteligencia artificial.

Cuando en 2021 surgieron dos vídeos de TikTok que parecían mostrar a Tom Cruise haciendo desaparecer una moneda y disfrutando de un chupachups, la única pista evidente de que eran falsos era el nombre de la cuenta: «deeptomcruise». Su propietario empleaba la técnica de las «falsificaciones profundas» (deepfakes) para mostrar imágenes generadas por ordenador del famoso actor realizando trucos de magia o bailando.

Uno de los detalles que solían delatar a las falsificaciones profundas era el efecto del «valle inquietante», una sensación perturbadora provocada por la mirada vacía de una persona artificial. Pero las imágenes son cada vez más convincentes y están transportando a los espectadores desde ese valle al mundo del engaño que promulgan las falsificaciones profundas.

Ese asombroso realismo potencia los usos maliciosos de la técnica: su posible empleo en campañas de desinformación para obtener réditos políticos o de otro tipo, la creación de material pornográfico falso con miras a un chantaje y otro buen número de intrincadas manipulaciones asociadas a nuevas formas de abuso y fraude. El desarrollo de contramedidas para identificar las falsificaciones profundas se ha convertido en una «carrera armamentística» entre los responsables de seguridad, por un lado, y los ciberdelincuentes y agentes de la ciberguerra, por el otro.

Un nuevo estudio publicado en Proceedings of the National Academy of Sciences da una idea de lo mucho que ha avanzado la técnica. Los resultados sugieren que los rostros generados por máquinas nos engañan sin problemas, e incluso los encontramos más confiables que los reales. «Hemos descubierto que las caras artificiales no solo son muy realistas, sino que inspiran más confianza que las auténticas», confirma Hany Farid, profesor de la Universidad de California en Berkeley y coautor del estudio. El resultado hace temer que «el uso de esos rostros con fines perversos podría resultar muy eficaz».

«Hemos entrado en el mundo de las falsificaciones profundas peligrosas», advierte Piotr Didyk, profesor asociado de la Universidad de la Suiza Italiana en Lugano ajeno al trabajo. Las herramientas con que se generaron las fotografías usadas en el estudio ya están al alcance de cualquiera. Y aunque crear un vídeo igual de elaborado es más difícil, las herramientas para lograrlo seguramente no tarden en estar a disposición del público, vaticina Didyk.

Los rostros artificiales del estudio se desarrollaron mediante las interacciones de ida y vuelta de dos redes neuronales, un ejemplo de lo que se conoce como redes generativas antagónicas. Una de las redes, llamada generadora, producía una serie dinámica de rostros sintéticos, como un estudiante que ha de realizar un trabajo y va elaborando sucesivos borradores. Por su parte, la red discriminadora, tras entrenarse con imágenes auténticas, calificaba los resultados obtenidos por la red generadora comparándolos con datos de rostros reales.

La red generadora comenzó el ejercicio empleando píxeles aleatorios. Pero, gracias a las evaluaciones de la red discriminadora, fue produciendo rostros cada vez más realistas, hasta que el discriminador fue incapaz de distinguir una cara real de una falsa.

Las redes se entrenaron con una serie de imágenes reales que mostraban rostros de personas negras, asiáticas y blancas, tanto hombres como mujeres. Eso contrasta con las investigaciones anteriores, que por lo general se habían limitado a usar caras de hombres blancos.

Ejemplos de las parejas de caras que se mostró a los participantes del estudio, cada una de ellas formada por una cara real (<em>R</em>) y otra sintética (<em>S</em>), generada mediante inteligencia artificial. Los participantes acertaron a distinguirlas apenas la mitad de las veces, incluso cuando recibían indicaciones y comentarios después de cada elección. [<a href="https://doi.org/10.1073/pnas.2120481119" target="_blank">Sophie J. Nightingale y Hany Farid, <em>PNAS</em>, vol. 119, art. e2120481119, 22 de febrero de 2022</a>]<span style="font-size: 0.8em;">  </span>

Tras reunir 400 rostros auténticos y emparejarlos con 400 versiones artificiales, los investigadores pidieron a 315 personas que distinguieran las caras reales de las falsas en una selección de 128 imágenes. Un segundo grupo de 219 participantes recibió formación y comentarios sobre cómo detectar las falsificaciones mientras intentaban distinguir los rostros. Por último, otro grupo de 223 participantes valoró la confianza que le inspiraban 128 caras, calificándolas en una escala del uno (muy poca confianza) al siete (mucha confianza).

Los resultados del primer grupo a la hora de distinguir las caras reales de las falsas no fueron superiores a los que se habrían obtenido lanzando una moneda al aire, con una precisión media del 48,2 por ciento. El segundo grupo tampoco logró una mejora espectacular, a pesar de recibir comentarios sobre sus propias elecciones, ya que solo identificó correctamente el 59 por ciento de las imágenes. El grupo que evaluó la confiabilidad concedió a las caras sintéticas una calificación media ligeramente superior, de 4,82 frente al 4,48 de los rostros reales.

Los investigadores no se esperaban esos resultados. «Pensábamos que las caras artificiales inspirarían menos confianza que las reales», apunta la otra autora del estudio, Sophie Nightingale.

La idea del valle inquietante no ha quedado completamente descartada. Algunas de las imitaciones fueron identificadas como falsas de forma abrumadora por los participantes del estudio. «No pretendemos decir que todas las imágenes generadas sean indistinguibles de un rostro real, pero un número importante de ellas sí lo son», señala Nightingale.

El hallazgo añade otro motivo de desasosiego respecto a la accesibilidad de la técnica que permite que casi cualquiera pueda crear fotografías engañosas. «Cualquiera puede crear contenidos artificiales sin necesidad de tener conocimientos especializados de Photoshop o de imágenes generadas por ordenador», afirma Nightingale.

Tres de las cuatro caras que inspiraron más confianza a los participantes (<em>fila superior, confiabilidad medida en una escala del 1 al 7</em>) eran generadas por ordenador (<em>S</em>), mientras que las cuatro que resultaron menos confiables (<em>fila inferior</em>) eran todas reales (<em>R</em>). [<a href="https://doi.org/10.1073/pnas.2120481119" target="_blank">Sophie J. Nightingale y Hany Farid, <em>PNAS</em>, vol. 119, art. e2120481119, 22 de febrero de 2022</a>]<span>  </span>

Otra preocupación es que estos resultados puedan transmitir la impresión de que las falsificaciones profundas serán completamente indetectables, comenta Wael Abd-Almageed, fundador y director del Laboratorio de Inteligencia Visual y Análisis Multimedia de la Universidad del Sur de California que no participó en el estudio. A Abd-Almageed le inquieta que los científicos desistan de intentar desarrollar contramedidas contra las falsificaciones profundas, aunque considera que lograr que la detección siga el ritmo de su creciente realismo «es simplemente otro problema criminalístico».

«De lo que no se está hablando lo suficiente en esta comunidad de investigación es de cómo empezar a mejorar de manera proactiva esas herramientas de detección», opina Sam Gregory, director de estrategia e innovación de programas en WITNESS, una organización de derechos humanos que estudia vías para distinguir las falsificaciones profundas. Crear herramientas de detección es importante porque la gente tiende a sobrestimar su capacidad para detectar las falsificaciones, valora, y «es importante que el público entienda siempre cuándo se están usando de forma maliciosa».

Gregory, que no participó en el estudio, señala que sus autores abordan de manera directa estas cuestiones. Destacan tres posibles soluciones, entre ellas crear marcas de agua persistentes para las imágenes generadas, «como si incrustáramos huellas dactilares que permitan ver que [las imágenes] proceden de un proceso generativo», aclara.

Tras subrayar que los usos maliciosos de las falsificaciones profundas seguirán representando una amenaza, los autores del estudio exponen una dura conclusión: «Por lo tanto, animamos a quienes desarrollan estas técnicas a considerar si los riesgos asociados son mayores que los beneficios», escriben. «Y si es así, desaconsejamos que se desarrolle la tecnología por el mero hecho de que es posible hacerlo.»

Emily Willingham

Referencia: «AI-synthesized faces are indistinguishable from real faces and more trustworthy», Sophie J. Nightingale y Hany Farid en Proceedings of the National Academy of Sciences, vol. 119, art. e2120481119, 22 de febrero de 2022.

Los boletines de Investigación y Ciencia

Elige qué contenidos quieres recibir.