Utilizamos cookies propias y de terceros para mejorar nuestros servicios y facilitarle el uso de la web mediante el análisis de sus preferencias de navegación. También compartimos la información sobre el tráfico por nuestra web a los medios sociales y de publicidad con los que colaboramos. Si continúa navegando, consideramos que acepta nuestra Política de cookies .

Actualidad científica

Síguenos
  • Google+
  • RSS
  • Investigación y Ciencia
  • Diciembre 2018Nº 507

Inteligencia artificial

Clics, mentiras y cintas de vídeo

La inteligencia artificial permite que cualquiera manipule audios o vídeos. El mayor peligro es que eso nos lleve a no confiar absolutamente en nada.

Menear

El pasado mes de abril circuló en Internet un nuevo vídeo de Barack Obama: con las banderas estadounidense y presidencial de fondo, parecía uno de sus muchos discursos previos. Obama, vestido con un traje negro y una pulcra camisa blanca, miraba a la cámara y, enfatizando sus palabras con las manos extendidas, exclamaba: «El presidente Trump es un completo imbécil».

Sin sonreír, proseguía: «Miren, yo nunca diría algo así. Al menos, no en una intervención pública. Pero hay alguien que sí lo haría». Entonces la pantalla se dividía y mostraba al actor Jordan Peele. Obama no había dicho nada: se trataba de una grabación real de una alocución de Obama mezclada con la imitación del cómico. Uno al lado del otro, el mensaje continuaba a medida que Peele, cual ventrílocuo digital, ponía más palabras en boca del expresidente.

En la era de las noticias falsas, el vídeo era un mensaje de interés público producido por BuzzFeed News para mostrar una aplicación de una nueva técnica de inteligencia artificial (IA) que permite hacer con los audios y vídeos lo mismo que Photoshop con las imágenes digitales: manipular la realidad.

Los resultados son aún bastante rudimentarios. Si se escucha y observa con atención, la voz de Obama suena un poco nasal. Durante unos instantes, su boca (fundida con la de Peele) parece flotar descentrada. Pero esta técnica, destinada a montadores de películas de Hollywood y diseñadores de videojuegos, evoluciona deprisa y ha despertado pensamientos sombríos en algunos expertos en seguridad nacional y en medios de comunicación. La próxima generación de algoritmos quizá permita crear bulos convincentes desde cero: no se alterarían grabaciones existentes, como en la alocución de Obama, sino que se orquestarían situaciones que jamás ocurrieron.

Esto podría tener profundas repercusiones en el debate y conocimiento públicos. Imaginemos, por ejemplo, el impacto que tendría en las próximas elecciones un vídeo falso que difamara a un político durante una campaña reñida. O que arremetiera contra el consejero delegado de una empresa la noche antes de una oferta pública. Algún grupo podría simular un ataque terrorista y engañar a los medios para que lo cubrieran, generando una reacción visceral. Y si luego se demuestra que un vídeo viral es falso, ¿seguirá la gente pensando, aun así, que era cierto? Y tal vez lo más perturbador: ¿y si la mera idea de la omnipresencia de bulos hace que dejemos de creernos mucho de lo que vemos y oímos, incluido lo que es real?

Muchos tecnólogos reconocen que el uso indebido de esta técnica podría generalizarse. Sin embargo, se obsesionan en buscar «soluciones atractivas para detectar y desvelar manipulaciones y dedican muy poco tiempo a averiguar si eso influye en lo que piensa la gente sobre la validez de los vídeos falsos», apunta Nate Persily, profesor de derecho en la Universidad Stanford. Persily estudia, entre otros temas, el impacto de Internet en la democracia y pertenece a un creciente grupo de investigadores que sostienen que no es posible frenar la desinformación viral solo con soluciones técnicas. Se requerirá la contribución de psicólogos, científicos sociales y expertos en medios de comunicación para descubrir cómo encajará esta tecnología en el mundo real

Puede conseguir el artículo en:

Artículos relacionados