Utilizamos cookies propias y de terceros para mejorar nuestros servicios y facilitarte el uso de la web mediante el análisis de tus preferencias de navegación. También compartimos la información sobre el tráfico por nuestra web a los medios sociales y de publicidad con los que colaboramos. Si continúas navegando, consideramos que aceptas nuestra Política de cookies .

29 de Abril de 2018
Inteligencia artificial

La asombrosa capacidad que el aprendizaje maquinal tiene de predecir el caos

En nuevos experimentos con ordenadores, algoritmos de inteligencia artificial pueden decir cuál será el futuro de sistemas caóticos.

Se ha utilizado el aprendizaje maquinal para predecir la evolución caótica de un modelo de un frente de llamas [DVDP para Quanta Magazine].

Hace medio siglo, los pioneros de la teoría del caos descubrieron que el «efecto mariposa» hace que la predicción a largo plazo sea imposible. Incluso la menor perturbación que sufra un sistema complejo (el meteorológico, por ejemplo, o la economía, o casi lo que sea) puede poner en marcha una concatenación de sucesos que conduzca a un futuro radicalmente divergente. Incapaces de conocer con la precisión suficiente el estado de esos sistemas para predecir que será de ellos, vivimos sujetos a la incertidumbre.

Pero ahora tenemos a los robots para que echen una mano.

En unas investigaciones presentadas, o que se van a presentar, en las revistas Physical Review Letters y Chaosse ha utilizado el aprendizaje maquinal, la misma técnica computacional en la que se han basado recientes éxitos de la inteligencia artificial, para predecir la evolución en el futuro de sistemas caóticos hasta horizontes asombrosamente lejanos. Otros expertos están alabando el enfoque como un hito y creen que es probable que se aplique extensamente.

«Me parece realmente asombroso lo lejos en el futuro que predicen» la evolución caótica de un sistema, dice Herbert Jaeger, que enseña ciencia computacional en la Universidad Jacobs, de Bremen, en Alemania.

Han sido obra del veterano teórico del caos Edward Ott y de cuatro colaboradores de la Universidad de Maryland. Emplearon un algoritmo de aprendizaje maquinal, denominado «computación de reservorio», para «aprender» la dinámica de un sistema caótico arquetípico, la ecuación de Kuramoto-Sivashinsky. La solución evolutiva de esta ecuación se comporta como un frente de oscilantes llamas que avanza a través de un medio combustible. La ecuación describe también las ondas de deriva en plasmas y otros fenómenos, y sirve como «campo de pruebas para estudiar la turbulencia y el caos espaciotemporal», dice Jaideep Pathak, estudiante de doctorado con Ott y autor principal de los nuevos artículos.

Tras entrenarse a sí misma con datos de la evolución en el pasado de la ecuación de Kuramoto-Sivashinsky, la computación de reservorio de estos investigadores predice con mucha precisión cómo el simulacro de llamas seguiría evolucionando en el futuro a lo largo de ocho «tiempos de Lyapunov», ocho veces más adelante que lo permitido por los métodos anteriores, para entendernos. El tiempo de Lyapunov representa cuánto tardan dos sistemas casi idénticos de un sistema caótico en divergir exponencialmente. Es el horizonte típico de la predecibilidad.

«Está pero que muy bien», dice Holger Kantz, teórico del caos del Instituto Max Planck de Física de los Sistemas Complejos de Dresde, en Alemania, de la predicción de los ocho tiempos de Lyapunov. «La técnica del aprendizaje maquinal es casi tan buena como saber la verdad».

El algoritmo no sabe nada de la ecuación de Kuramoto-Sivashinsky en sí; solo ve los datos registrados relativos a la solución evolutiva de la ecuación. Esto hace que el método del aprendizaje maquinal sea poderoso; en muchos casos, las ecuaciones que describen un sistema caótico no son conocidas, lo que tara los esfuerzos de los dinamistas por crearles modelos y predecirlas. Los resultados de Ott y su equipo indican que no hacen falta las ecuaciones, que basta con los datos. «Este artículo hace pensar que quizá podamos un día predecir el tiempo gracias a los algoritmos de aprendizaje maquinal en vez de mediante complejos modelos de la atmósfera», dice Kantz.

Además de la predicción del tiempo, los expertos sostienen que la técnica del aprendizaje podría ayudar a monitorizar las arritmias cardiacas en busca de señales de un ataque cardiaco inminente y los patrones de  los disparos neuronales del cerebro en busca de brotes de actividad neuronal. Más conjetural es que puedan predecir olas peligrosas para los barcos y, posiblemente, incluso los terremotos.

Ott tienen sus esperanzas puestas en especial en que las nuevas herramientas resulten útiles para avisar con antelación de las tormentas solares, como la que cubrió más de 50.000 kilómetros de la superficie solar en 1859. Aquel estallido magnético creó auroras boreales que fueron visibles por toda la Tierra y destruyó algunos sistemas telegráficos al generar voltaje suficiente como para que hubiese líneas que funcionaban aun estando desconectadas de su fuente de energía. Si una tormenta así sacudiera inesperadamente el planeta hoy, dañaría gravemente, dicen los expertos, la infraestructura electrónica terrestre. «Si sabes que viene la tormenta, no tienes más que apagar los aparatos y volver a encenderlos después», dice Ott.

Pathak, Ott y sus colaboradores Brian Hunt, Muchelle Girvan y Zhixin Lu (que está ahora en la Universidad de Pennsylvania), lograron sus resultados mediante la conjunción de herramientas ya existentes. Hace seis o siete años, cuando el poderoso algoritmo conocido como «aprendizaje profundo» empezaba a dominar tareas de inteligencia artificial, el reconocimiento de rostros y sonidos, por ejemplo, empezaron a documentarse sobre el aprendizaje maquinal y a pensar en formas inteligentes de aplicarlo al caos. Se enteraron de la existencia de un puñado de resultados prometedores anteriores a la revolución del aprendizaje profundo. El más importante era el uso que Jaeger y otro teórico alemán del caos, Harald Haas, hicieron a principios de este siglo de una red de neuronas artificiales conectadas al azar (el «reservorio» de la computación de reservorio) para aprender la dinámica de tres variables que coevolucionaban caóticamente. Tras practicar con las tres series de números, la red podía predecir los valores futuros del trío de variables hasta un horizonte impresionantemente lejano. Sin embargo, cuando había más de unas variables en interacción, las computaciones se volvían inasequibles. Ott y sus colaboradores necesitaban un esquema más eficaz para que la computación de reservorio sirviese para algo con sistemas caóticos grandes, que tienen números enormes de variables interrelacionadas. Cada posición a lo largo del frente de una llama que avanza, por ejemplo, tiene componentes de velocidad en tres direcciones espaciales, y hay que ir siguiendo sus cambios.

Les llevó años dar con la solución. «Hemos sacado partido de que las interacciones sean locales» en los sistemas caóticos extendidos espacialmente, explica Pathak. Que sean locales quiere decir que las variables correspondientes a un lugar están influidas por las variables de los lugares cercanos, pero no por las de sitios lejanos. «Aprovechando eso», añade, «pudimos descomponer a todos los efectos el problema en pedazos». Es decir, se puede paralelizar el problema, usando un solo reservorio de neuronas para aprender sobre una parcela del sistema, otro reservorio sobre la parcela siguiente, y así sucesivamente, con ligeros solapamientos de los dominios vecinos para incluir sus interacciones.

La paralelización permite que el método de la computación de reservorio maneje sistemas caóticos casi de cualquier tamaño, siempre y cuando se proporcionen recursos de computación a la tarea proporcionados a esta.

Ott explica que la computación de reservorio es un procedimiento en tres pasos. Digamos que se quiere usarla para predecir la evolución de un fuego que se extiende. En primer lugar se mide la altura de las llamas en cinco puntos diferentes de su frente, y luego se sigue haciéndolo durante un periodo de tiempo, en esos mismos puntos, a medida que las oscilantes llamas avanzan. Se introducen esas corrientes de datos en neuronas artificiales del reservorio escogidas al azar. Los datos introducidos hacen que las neuronas disparen, lo cual a su vez hace que disparen las neuronas conectadas a ellas, y así se envía una cascada de señales a través de la red.

El segundo paso consiste en que la red neuronal aprenda la dinámica del frente de llamas en evolución a partir de los datos introducidos. Para ello, cuando se introducen los datos se observan también las intensidades de la señal de varias neuronas escogidas al azar en el reservorio. Asignando pesos a esas señales y combinándolas de cinco formas diferentes, se producen cinco números como datos de salida. El objetivo es ajustar los pesos de las varias señales que entran en el cálculo de los datos de salida hasta que estos concuerden persistentemente con el siguiente conjunto de datos introducidos, que son las nuevas cinco alturas medidas un momento después a lo largo del frente de llamas. «Lo que se quiere es que lo obtenido sea lo introducido un poco después», explica Ott.

Para aprender a corregir los pesos, el algoritmo compara, sencillamente, cada conjunto de datos de salida, es decir, las alturas predichas de las llamas para cada uno de los cinco puntos, con el siguiente conjunto de datos introducidos, es decir, las alturas reales de las llamas, y aumenta o disminuye los pesos de las diversas señales en cada momento como sea para que sus combinaciones arrojen los valores correctos de los cinco datos de salida. De un lapso de tiempo al siguiente, como los pesos se han ajustado, las predicciones, por lo general, mejoran, hasta que el algoritmo es persistentemente capaz de predecir el estado de la llama un lapso de tiempo después.

«En el tercer paso es cuando se hace de verdad la predicción», dice Ott. El reservorio, que ha aprendido la dinámica del sistema, puede descubrir cómo evolucionará. La red, en esencia, se pregunta a sí misma qué pasará. Los datos de salida se reintroducen como los nuevas entradas de datos, cuyos datos de salida se reintroducen como entradas, y así sucesivamente, con lo que se hace una previsión de cómo evolucionarán las alturas de las cinco posiciones en el frente de llamas. Otros reservorios que trabajan en paralelo predicen la evolución de la altura en otras partes de la llama.

En una gráfica de su artículo de Physics Review Letters, que salió en enero, los investigadores muestran que su simulacro de llama predicho como solución de la ecuación de Kuramoto-Sivashinsky concuerda exactamente con la verdadera solución de los ocho tiempos de Lyapunov antes de que el caos finalmente se imponga y los estados reales y los predichos del sistema diverjan.

El enfoque usual para predecir un sistema caótico consiste en medir sus condiciones en un momento con tanta precisión como sea posible, valerse de esos datos para calibrar un modelo físico y dejar que el modelo evolucione. En una estimación solo aproximada, habría que medir las condiciones inciales de un sistema típico con una precisión cien millones de veces mayor para poder predecir su evolución futura ocho veces más adelante.

Por eso es el aprendizaje maquinal un «método muy útil y potente», según Ulrich Parlitz, del Instituto Max Planck de Dinámica y Autoorganización, en Gotinga, Alemania, quien, como Jaeger, aplicó también el aprendizaje maquinal a sistemas caóticos de baja dimensionalidad a principios de este siglo. «Creo que no funciona solo con el ejemplo que presentan, sino que es universal en algún sentido y puede aplicarse a muchos procesos y sistemas». En un artículo que se va a publicar pronto en Chaos, Parlitz y un colaborador aplicaron la computación de reservorio a la predicción de la dinámica de los «medios excitables», como el tejido cardiaco. Parlitz sospecha que el aprendizaje profundo, aunque es más complicado e intensivo computacionalmente que la computación de reservorio, también funcionaría adecuadamente viéndoselas con el caos, como otros algoritmos de aprendizaje maquinal. Recientemente, los investigadores del Instituto de Tecnología de Massachusetts y del ETH Zúrich lograron resultados similares a los del equipo de Maryland con una red neuronal de «memoria a corto plazo larga», que tiene bucles recurrentes que le permiten almacenar información temporal durante largo tiempo.

Desde el artículo de Physics Review Letters, Ott, Pathak, Girvan, Lu y otros colaboradores se han acercado a una realización práctica de su técnica predictiva. En una nueva investigación aceptada por Chaos para su publicación, muestran que son posibles predicciones mejoradas de sistemas caóticos, como la ecuación Kuramoto-Sivashinmsky, gracias a la hibridización del método de aprendizaje maquinal basado en los datos y de la predicción tradicional basada en modelos. Ott piensa que esa es una ruta más probable para mejorar la predicción del tiempo y otros empeños parecidos puesto que no siempre tenemos datos completos de alta resolución o modelos físicos perfectos. «Lo que hacemos es valernos de los buenos conocimientos que tenemos donde los tenemos», dice, «y si tenemos también ignorancia, deberíamos usar el aprendizaje maquinal para rellenar los huecos». La predicciones del reservorio pueden, en esencia, calibrar los modelos; en el caso de la ecuación de Kuramoto-Sivashinsky, las predicciones precisas se extienden hasta doce tiempos de Lyapunov.

La duración de un tiempo de Lyapunov varía entre los diferentes sistemas. (En el caso del tiempo es de unos días). Cuanto más corto sea, más sensible o propenso al efecto mariposa será, con estados semejantes que se apartarán más deprisa hacia futuros dispares. Los sistemas caóticos están por todas partes en la naturaleza, y se salen de madre más o menos rápidamente. Sin embargo, extrañamente, cuesta precisar qué es el caos mismo. «Es una palabra que usan casi todos hablando de sistemas dinámicos, pero se tapan la nariz cuando la usan», dice Amie Wilkinson, profesora de matemáticas de la Universidad de Chicago. «Una se siente un poco simplona diciendo que algo es caótico», dice, porque llama la atención de la gente y sin embargo no tiene una definición matemática sobre la que haya acuerdo, o unas condiciones necesarias y suficientes. «No es un concepto fácil», admite también Kantz. En algunos casos, ajustar un solo parámetro de un sistema puede hacer que pase de caótico a estable o viceversa.

Wilkinson y Kantz definen los dos el caos hablando de un estirar y plegar que en buena medida es como el repetido estirar y plegar de una masa de pastelería. Las partes de la masa se estiran horizontalmente bajo el rodillo y se separan exponencialmente deprisa en dos direcciones espaciales. Entonces se pliega y aplana la masa, con lo que las partes contiguas se comprimen en la dirección vertical. El tiempo, los incendios forestales, la tormentosa superficie del Sol y los demás sistemas caóticos se portan justo así, dice Kantz. «Para que haya esa divergencia exponencial de las trayectorias se necesita ese estiramiento y para que no se vaya al infinito hacen falta unos pocos plegamientos», donde los plegamiento vienen de las relaciones no lineales entre las variables de los sistemas.

El estirar y el comprimir las diferentes dimensiones corresponden a unos «exponentes de Lyapunov» positivos y negativos, respectivamente. En otro artículo reciente de Chaos, el equipo de Maryland informaba de que su computación de reservorio lograba aprender los valores de esos exponentes caracterizadores a partir de los datos relativos a la evolución de un sistema. Por qué, exactamente, la computación de reservorio es tan buena aprendiendo la dinámica de sistemas caóticos no se sabe bien todavía, más allá de que la computación ajusta sus propias fórmulas como respuesta a los datos hasta que las fórmulas reproducen la dinámica del sistema. Es una técnica que funciona tan bien, de hecho, que Ott y algunos de los otros investigadores de Maryland quieren ahora usar la teoría del caos como forma de entender la maquinaria interna de las redes neuronales.

Natalie Wolchover / Quanta Magazine

Artículo traducido y adaptado por Investigación y Ciencia con permiso de Quanta Magazine, publicación independiente promovida por la Fundación Simons para potenciar la comprensión de la ciencia.

Referencia:  «Model-Free Prediction of Large Spatiotemporally Chaotic Systems from Data: A Reservoir Computing Approach», de Jaideep Pathak et al. en Physical Review Letters, 120, 024102. 

Artículos relacionados

Los boletines de Investigación y Ciencia

Elige qué contenidos quieres recibir.