Utilizamos cookies propias y de terceros para mejorar nuestros servicios y facilitarte el uso de la web mediante el análisis de tus preferencias de navegación. También compartimos la información sobre el tráfico por nuestra web a los medios sociales y de publicidad con los que colaboramos. Si continúas navegando, consideramos que aceptas nuestra Política de cookies .

14 de Enero de 2019
Inteligencia artificial

La inteligencia artificial choca contra los límites de la matemática

Un problema relativamente sencillo de aprendizaje automático pone a los investigadores contra una de las «cuestiones indecidibles» analizadas hace casi un siglo por el célebre matemático Kurt Gödel.

Kurt Friedrich Gödel (1906-1978). [Dominio Público, vía Wikimedia Commons]

Una investigación sobre la capacidad de aprendizaje de la inteligencia artificial se ha topado con una pregunta matemáticamente irresoluble. La razón obedece a que se trata de un problema relacionado con una de las cuestiones indecidibles analizadas en los años treinta del siglo XX por el matemático austriaco Kurt Friedrich Gödel.

En concreto, los investigadores hallaron que el problema de la «aprendibilidad» de un algoritmo (learnability) —si un programa es capaz o no de extraer pautas generales a partir de un conjunto limitado de datos— se halla conectado con la hipótesis del continuo: una afirmación que Gödel probó imposible de demostrar verdadera o falsa a partir de las reglas habituales de las matemáticas. Los resultados se publican en Nature Machine Intelligence.

«Para nosotros fue una sorpresa», relata Amir Yehudayoff, investigador del Instituto Technion de Haifa, en Israel, y uno de los coautores del artículo. El experto señala que, aunque es bien sabido que en matemáticas existen algunas preguntas que técnicamente son indecidibles, no esperaba que estas apareciesen en un problema relativamente sencillo de aprendizaje automático.

John Tucker, teórico de la computación de la Universidad de Swansea, sostiene que el resultado es «un peso pesado en lo que se refiere a los límites de nuestro conocimiento», con implicaciones fundamentales tanto para las matemáticas como para el aprendizaje automático.

No todos los conjuntos infinitos son iguales

La aprendibilidad de un algoritmo, o su capacidad de aprendizaje, se define a menudo en términos de si este puede o no generalizar lo que ya sabe. Por ejemplo, tras plantear repetidas veces a un programa una pregunta como «¿Corresponde esta imagen a un gato?» y proporcionarle la respuesta correcta («sí» o «no»), después la máquina deberá adivinar por sí sola qué ocurre con otras imágenes.

Yehudayoff y sus colaboradores llegaron a su resultado al investigar la relación entre dicho problema y el proceso de compresión de datos; es decir, aquel por el que las características principales de un conjunto de datos pueden «resumirse» y almacenarse en otro conjunto de datos básicamente equivalente pero de menor tamaño. Los autores hallaron que la capacidad para comprimir información de manera eficiente se reducía a cierta pregunta en teoría de conjuntos; en concreto, a una relacionada con el tamaño de aquellos conjuntos que contienen infinitos elementos.

En la década de 1870, Georg Cantor, fundador de la teoría de conjuntos, demostró que no todos los conjuntos infinitos son iguales: por ejemplo, el conjunto de los números enteros es, en un sentido preciso, más pequeño que el de los reales. Cantor también sugirió que no podía haber conjuntos de tamaño intermedio; es decir, mayores que los enteros pero menores que los reales. Sin embargo, no logró demostrar esta «hipótesis del continuo», algo en lo que también fracasaron los matemáticos y lógicos que más tarde abordaron el problema.

La razón de aquel fracaso fue que todos aquellos esfuerzos eran en vano. En 1940, un resultado obtenido por Gödel y completado en los años sesenta por el matemático estadounidense Paul Cohen reveló que la hipótesis del continuo no podía demostrarse ni verdadera ni falsa a partir de los axiomas estándar de la teoría de conjuntos, considerados a menudo como la base de toda la matemática.

El trabajo de Gödel y Cohen sobre la hipótesis del continuo implica que podrían existir distintos «universos matemáticos paralelos» compatibles con la matemática estándar: uno en el que la hipótesis del continuo se añade a los axiomas estándar —y, por tanto, resulta verdadera— y otro en el que esta se declara falsa.

El limbo del aprendizaje

En su trabajo, Yehudayoff y sus colaboradores definen la capacidad de aprendizaje como la de hacer predicciones sobre un gran conjunto de datos mediante el muestreo de un pequeño número de ellos. El vínculo con el problema de Cantor reside en que hay infinitas formas de elegir dicho conjunto más pequeño; sin embargo, el tamaño de ese infinito es desconocido.

Los autores van más allá y demuestran que, si la hipótesis del continuo es cierta, una pequeña muestra bastará para llevar a cabo la extrapolación. Pero, si es falsa, ninguna muestra finita será suficiente. Por tanto, el problema de la capacidad de aprendizaje de un algoritmo acaba siendo equivalente a la hipótesis del continuo, y la cuestión de la aprendibilidad se sitúa en el mismo limbo de problemas indecidibles y del que solo es posible escapar escogiendo un «universo axiomático» u otro.

Yehudayoff señala que el nuevo resultado provee un marco más amplio para entender el problema de la capacidad de aprendizaje: «La conexión entre compresión y generalización es realmente fundamental si deseamos entender el aprendizaje», apunta.

Peter O'Hearn, teórico de la computación del Colegio Universitario de Londres, recuerda que, a lo largo de los años, los investigadores han descubierto otros problemas indecidibles. Tras el trabajo de Gödel, el célebre matemático británico Alan Turing encontró una clase de preguntas que ningún programa informático podría responder en un número finito de pasos.

Con todo, la indecidibilidad hallada en este caso es «extraña» y mucho más sorprendente, agrega O’Hearn, ya que apunta a lo que Gödel encontró como una incompletitud intrínseca a cualquier lenguaje matemático. Los hallazgos probablemente revistan importancia para la teoría del aprendizaje automático, añade el investigador, si bien reconoce no estar seguro de que vayan a tener «un gran impacto en la práctica».

Davide Castelvecchi/Nature News

Artículo traducido y adaptado por Investigación y Ciencia con el permiso de Nature Research Group.

Referencia: «Learnability can be undecidable», Shai Ben-David et al. en Nature Machine Intelligence, vol. 1, págs. 44–48, 7 de enero de 2019.

Artículos relacionados

También te puede interesar

Revistas relacionadas

Los boletines de Investigación y Ciencia

Elige qué contenidos quieres recibir.