Utilizamos cookies propias y de terceros para mejorar nuestros servicios y facilitarte el uso de la web mediante el análisis de tus preferencias de navegación. También compartimos la información sobre el tráfico por nuestra web a los medios sociales y de publicidad con los que colaboramos. Si continúas navegando, consideramos que aceptas nuestra Política de cookies .

1 de Diciembre de 2018
Inteligencia artificial

Clics, mentiras y cintas de vídeo

La inteligencia artificial permite que cualquiera manipule audios o vídeos. El mayor peligro es que eso nos lleve a no confiar absolutamente en nada.

TAYLOR CALLERY

En síntesis

La rápida evolución de la inteligencia artificial (IA) permite crear vídeos y audios falsos. A algunos expertos les preocupa que la propagación de la desinformación a través de las redes sociales pueda tener un profundo impacto en el debate público y la estabilidad política.

Los científicos computacionales tratan de desarrollar herramientas basadas en la IA para detectar vídeos falsos, pero van un paso por detrás de los recursos para crear contenidos manipulados. Mientras, los científicos sociales advierten de que no basta con vigilar los bulos a posteriori.

Las noticias falsas escritas constituyeron un problema en las elecciones de 2016 en Estados Unidos. Las investigaciones indican que los vídeos falsos podrían ser especialmente efectivos para inspirar miedo, una emoción que impulsa el contenido viral. Preocupa que ello pueda socavar nuestra confianza en todos los medios, incluso los veraces.

El pasado mes de abril circuló en Internet un nuevo vídeo de Barack Obama: con las banderas estadounidense y presidencial de fondo, parecía uno de sus muchos discursos previos. Obama, vestido con un traje negro y una pulcra camisa blanca, miraba a la cámara y, enfatizando sus palabras con las manos extendidas, exclamaba: «El presidente Trump es un completo imbécil».

Sin sonreír, proseguía: «Miren, yo nunca diría algo así. Al menos, no en una intervención pública. Pero hay alguien que sí lo haría». Entonces la pantalla se dividía y mostraba al actor Jordan Peele. Obama no había dicho nada: se trataba de una grabación real de una alocución de Obama mezclada con la imitación del cómico. Uno al lado del otro, el mensaje continuaba a medida que Peele, cual ventrílocuo digital, ponía más palabras en boca del expresidente.

En la era de las noticias falsas, el vídeo era un mensaje de interés público producido por BuzzFeed News para mostrar una aplicación de una nueva técnica de inteligencia artificial (IA) que permite hacer con los audios y vídeos lo mismo que Photoshop con las imágenes digitales: manipular la realidad.

Los resultados son aún bastante rudimentarios. Si se escucha y observa con atención, la voz de Obama suena un poco nasal. Durante unos instantes, su boca (fundida con la de Peele) parece flotar descentrada. Pero esta técnica, destinada a montadores de películas de Hollywood y diseñadores de videojuegos, evoluciona deprisa y ha despertado pensamientos sombríos en algunos expertos en seguridad nacional y en medios de comunicación. La próxima generación de algoritmos quizá permita crear bulos convincentes desde cero: no se alterarían grabaciones existentes, como en la alocución de Obama, sino que se orquestarían situaciones que jamás ocurrieron.

Esto podría tener profundas repercusiones en el debate y conocimiento públicos. Imaginemos, por ejemplo, el impacto que tendría en las próximas elecciones un vídeo falso que difamara a un político durante una campaña reñida. O que arremetiera contra el consejero delegado de una empresa la noche antes de una oferta pública. Algún grupo podría simular un ataque terrorista y engañar a los medios para que lo cubrieran, generando una reacción visceral. Y si luego se demuestra que un vídeo viral es falso, ¿seguirá la gente pensando, aun así, que era cierto? Y tal vez lo más perturbador: ¿y si la mera idea de la omnipresencia de bulos hace que dejemos de creernos mucho de lo que vemos y oímos, incluido lo que es real?

Muchos tecnólogos reconocen que el uso indebido de esta técnica podría generalizarse. Sin embargo, se obsesionan en buscar «soluciones atractivas para detectar y desvelar manipulaciones y dedican muy poco tiempo a averiguar si eso influye en lo que piensa la gente sobre la validez de los vídeos falsos», apunta Nate Persily, profesor de derecho en la Universidad Stanford. Persily estudia, entre otros temas, el impacto de Internet en la democracia y pertenece a un creciente grupo de investigadores que sostienen que no es posible frenar la desinformación viral solo con soluciones técnicas. Se requerirá la contribución de psicólogos, científicos sociales y expertos en medios de comunicación para descubrir cómo encajará esta tecnología en el mundo real

Artículos relacionados

Puedes obtener el artículo en...

¿Tienes acceso?

Los boletines de Investigación y Ciencia

Elige qué contenidos quieres recibir.