Utilizamos cookies propias y de terceros para mejorar nuestros servicios y facilitarle el uso de la web mediante el análisis de sus preferencias de navegación. También compartimos la información sobre el tráfico por nuestra web a los medios sociales y de publicidad con los que colaboramos. Si continúa navegando, consideramos que acepta nuestra Política de cookies .

Actualidad científica

Síguenos
  • Google+
  • RSS
  • Investigación y Ciencia
  • Abril 2018Nº 499
Apuntes

Inteligencia artificial

Gratuito

No creas lo que ven tus ojos

Los algoritmos ya consiguen generar imágenes realistas de personas inexistentes.

Menear

Las imágenes fraudulentas son tan antiguas como la propia fotografía; a modo de ejemplo, valga recordar las famosas fotografías falsas de las hadas de Cottingley o del monstruo del lago Ness. Pero si Photoshop llevó la manipulación de imágenes a la era digital, ahora la inteligencia artificial se halla lista para lograr un nuevo nivel de efectismo: las redes neuronales ya son capaces de analizar millones de imágenes de personas y lugares reales y usarlas para crear otras ficticias pero muy convincentes.

Estas redes constan de varios ordenadores conectados entre sí de tal modo que, hasta cierto punto, remedan la estructura del cerebro humano. Google, Facebook y otras compañías llevan años usándolas para que sus programas aprendan a identificar personas en una imagen. Una técnica más novedosa emplea las conocidas como «redes generativas antagónicas» o «adversarias» (GAN, por generative adversarial networks). Estas consisten en un «generador», que crea imágenes, y un «discriminador», que evalúa su autenticidad.

«Las redes neuronales necesitan millones de imágenes para usarlas como ejemplos con los que aprender; las GAN suponen una forma [relativamente] nueva de generar automáticamente esos ejemplos», explica Oren Etzioni, director general del Instituto Allen de Inteligencia Artificial, en Seattle.

Sin embargo, estas redes pueden también lograr que una máquina genere con rapidez imágenes falsas pero realistas. Para ello, la red generadora usa la técnica de aprendizaje automático para estudiar un enorme número de imágenes, lo que esencialmente le enseña a crear las suyas de modo que parezcan auténticas. Luego las envía a la red discriminadora, la cual ha sido entrenada para determinar la apariencia que tiene la imagen de una persona real. El discriminador califica cada una de las imágenes del generador en función de su realismo. Con el tiempo, el primero va mejorando en su tarea de producir imágenes falsas, y el segundo mejora a la hora de detectarlas; de ahí el apelativo de «antagónicos» o «adversarios».

Las GAN han sido aclamadas como un gran avance de la inteligencia artificial porque, tras un entrenamiento inicial, continúan aprendiendo sin supervisión humana. Ian Goodfellow, investigador de Google Brain, fue el autor principal de un estudio que presentó esta estrategia en 2014. Desde entonces, decenas de expertos de todo el mundo han experimentado con las GAN con fines diversos, como el control de robots o la traducción de idiomas.

Desarrollar estos sistemas no supervisados constituye todo un reto. En ocasiones, las GAN dejan de progresar, ya que, si el generador no es capaz de producir imágenes cada vez más realistas, eso impedirá que el discriminador mejore.

Nvidia, el fabricante de microchips, ha diseñado un método para entrenar redes antagónicas que ayuda a evitar ese parón. La clave está en entrenar tanto al generador como al discriminador de manera progresiva, proporcionándoles imágenes de baja resolución y añadiendo nuevas capas de píxeles con más y más detalles a medida que avanza el entrenamiento. Además, según un artículo que los investigadores de la compañía planean presentar esta primavera en una conferencia internacional, esta táctica de aprendizaje automático progresivo reduce el tiempo de entrenamiento a la mitad. El equipo demostró su método a partir de una base de datos con más de 200.000 imágenes de famosos. A partir de ellas, el sistema fue capaz de generar rostros muy realistas y en alta resolución de personas que no existían.

Una máquina no sabe de manera «innata» si las imágenes que crea son realistas o no. «Elegimos las caras como ejemplo principal porque para nosotros, los humanos, es muy fácil juzgar el éxito de este modelo generativo: todos tenemos incorporada una maquinaria neuronal —una que, además, continúa entrenándose a lo largo de la vida— para reconocer e interpretar rostros», comenta Jaakko Lehtinen, investigador de Nvidia que forma parte del proyecto. El reto consiste en lograr que las GAN imiten ese instinto humano.

Por su parte, Facebook ve las redes antagónicas como una manera de predecir mejor lo que los usuarios quieren ver a partir de su comportamiento previo y, en última instancia, de crear una máquina que muestre sentido común. El responsable de investigación en inteligencia artificial de la compañía, Yann LeCun, y el ingeniero Soumith Chintala han descrito su sistema ideal como «capaz no solo de reconocer texto e imágenes, sino también de llevar a cabo funciones de orden superior, como razonar, predecir y planificar de manera comparable a como piensan y se comportan los seres humanos». LeCun y Chintala pusieron a prueba la capacidad predictiva de su generador proporcionándole cuatro fotogramas de un vídeo y haciendo que generase los dos siguientes. El resultado fue una continuación realista de la acción, ya se tratase de una persona haciendo movimientos con la cabeza o simplemente caminando.

Los vídeos e imágenes así generados ofrecen grandes posibilidades a aquellos directores de cine y creadores de videojuegos que necesitan un contenido relativamente económico. Pero, aunque las GAN pueden producir imágenes que «parecen realistas a simple vista», todavía tienen un largo camino por recorrer hasta lograr el auténtico fotorrealismo, asegura Alec Radford, de la compañía ­OpenAI y autor principal del estudio de 2016 en el que se basaba el trabajo de Facebook. El experto añade que los vídeos de alta calidad generados mediante inteligencia artificial quedan aún más lejos.

Resta por ver si los alborotadores de Internet, quienes ya producen contenidos virales falsos, usarán las imágenes o vídeos generados mediante inteligencia artificial con fines perversos. En un momento en el que la gente cuestiona cada vez más la veracidad de lo que ve en línea, esta técnica podría sembrar aún más dudas.

Puede conseguir el artículo en:

Artículos relacionados

Revistas relacionadas