Utilizamos cookies propias y de terceros para mejorar nuestros servicios y facilitarte el uso de la web mediante el análisis de tus preferencias de navegación. También compartimos la información sobre el tráfico por nuestra web a los medios sociales y de publicidad con los que colaboramos. Si continúas navegando, consideramos que aceptas nuestra Política de cookies .

El traje nuevo de la inteligencia artificial

Cada vez más decisiones de calado se están dejando en manos de supuestas máquinas inteligentes que no comprenden absolutamente nada. Por el bien de todos, urge una revisión crítica de los logros de este campo de investigación.

GETTY IMAGES/GREMLIN/ISTOCK

En síntesis

La inteligencia artificial (IA) vive un nuevo auge. Los éxitos de la técnica conocida como aprendizaje profundo han sido presentados por muchos científicos, compañías y medios de comunicación como una prueba de que la IA general está cerca. ¿Es cierto?

La realidad es muy otra. Un análisis pausado revela que los algoritmos actuales siguen siendo propensos a errores catastróficos, carecen de capacidad de razonamiento y contextualización, y no poseen nada remotamente parecido al sentido común humano.

Ello se explica porque, en los últimos años, la investigación en IA se ha centrado en construir máquinas eficientes para fines concretos y muy lucrativos, pero también extremadamente limitados. El coste social y científico de semejante deriva podría ser enorme.

Hoy en día estamos viviendo una nueva primavera de la inteligencia artificial. Y, al igual que en primaveras anteriores, abundan las predicciones de que la llegada de máquinas dotadas de una inteligencia general igual o superior a la humana será cuestión de algunos decenios, y de que esto nos llevará a la llamada «singularidad»: el momento en que las máquinas lo harán todo mucho mejor que nosotros, incluida la propia investigación científica, lo que dará lugar a una nueva etapa evolutiva conocida como posthumanismo.

¿Es esta primavera de la IA, vestida con un traje nuevo, el indicador de que, efectivamente, estamos cerca de alcanzar el sueño de la inteligencia artificial general? ¿O quizá la inteligencia artificial está desnuda, como el emperador del cuento de Hans Christian Andersen, y el momento actual no es sino una etapa más del larguísimo camino hacia ese sueño?

En las líneas que siguen argumentaré que, en efecto, la inteligencia artificial (IA) sigue estando desnuda. Para entender por qué, es necesario analizar el origen de la fiebre que estamos viviendo, cuáles son las aplicaciones concretas que han dado lugar a todo tipo de declaraciones y titulares exagerados, y cómo funcionan realmente tales aplicaciones y de qué adolecen. Como veremos, la IA actual está muy lejos de alcanzar el objetivo de la IA general. Y ello no se debe a que aún queden por afinar unos pocos detalles o a una falta de potencia de cómputo, sino al enfoque que desde hace unos años ha adoptado esta disciplina. Lo que debería darnos miedo no es ninguna singularidad futura debido a la hipotética existencia de superinteligencias artificiales, sino un presente en el que estamos encomendando cada vez más decisiones a máquinas estúpidas.

 

El nacimiento de una fiebre

El actual entusiasmo por la IA se debe a los recientes logros de la técnica conocida como aprendizaje profundo (el «traje nuevo») en el contexto del reconocimiento de imágenes, los juegos de tablero y el procesamiento del lenguaje.

Todo comenzó en 2012, cuando un equipo de la Universidad de Toronto liderado por Geoffrey Hinton consiguió que un tipo de red neuronal, llamada «convolucional», alcanzara un 85 por ciento de aciertos al clasificar, entre mil categorías posibles, 150.000 imágenes de la base ImageNet. Tales redes habían sido introducidas en 1980 a partir de los trabajos del investigador japonés Kunishiko Fukushima, quien había desarrollado el «neocognitrón», una red neuronal artificial inspirada, a su vez, en los estudios de David Hubel y Torsten Wiesel sobre el sistema visual de los animales, trabajos por los que en 1981 estos investigadores recibieron el premio Nobel [véase «Mecanismos cerebrales de la visión», por David H. Hubel y Torsten N. Wiesel; Investigación y Ciencia, noviembre de 1979].

Hubel y Wiesel descubrieron que nuestra corteza visual se encuentra organizada según una jerarquía de capas, de tal manera que las neuronas contenidas en cada capa detectan características de complejidad creciente en los objetos de una imagen. Por ejemplo, las neuronas de la primera capa se activan cuando detectan rasgos simples, como los bordes de los objetos. Después transmiten su nivel de activación a las neuronas de la segunda capa, donde se detectan características algo más complejas, que, en esencia, corresponden a combinaciones de los rasgos detectados en la capa anterior (por ejemplo, un conjunto de bordes que dan lugar a un polígono, un círculo, una elipse, etcétera). El proceso continúa hasta llegar a la última capa, la cual detecta objetos enteros y hace posible identificarlos. Por ejemplo, si la imagen contiene un rostro, las elipses detectadas en una de las capas intermedias corresponderían a los ojos y en la última capa se reconocería la cara entera.

Puedes obtener el artículo en...

¿Tienes acceso?

Los boletines de Investigación y Ciencia

Elige qué contenidos quieres recibir.