Habilidad adaptativa de las redes neurales

Convergencia entre neurociencia e inteligencia artificial.

The self-assembling brain
How neural networks grow smarter
Peter Robin Hiesinger
Princeton University Press, 2021
384 págs.

 

Dirigido a interesados en neurociencia e inteligencia artificial, Self-assembling brain se centra en el desarrollo de la capacidad y habilidad adaptativa de las redes neurales. Constituye un estudio documentado sobre la cuestión central: ¿de qué modo se convierte en cerebro una red neural? Para responder a esa pregunta, los biólogos acuden a la neurogénesis; los expertos en computación e inteligencia buscan en la técnica una réplica manufacturada de ese prodigio de la naturaleza. El dominio de la neurociencia se imbrica en el dominio de la inteligencia artificial mediante la trama de la información, a través de las redes neurales.

Tema tan académico y correoso diríase que casa mal con la alegoría y la metáfora. Y, sin embargo, el prólogo es, en su integridad, una fábula a modo de epítome del tratado. Hubo una vez, escribe, un alienígena que se encontró con una semilla de manzana. Movido por la curiosidad, se preguntó qué sería. Como era muy inteligente, el más inteligente de todos los alienígenas habidos y por haber, pasó la pepita por el escáner más fino que existía y existirá. Observó todas las moléculas y su disposición en el espacio, su código genético, su secuencia nucleotídica y sus aminoácidos componentes. Ahora que tengo toda la información, pensó, quiero saber cómo evolucionará en el correr de los días. Sembró la semilla y asistió con curiosidad al crecimiento del tronco, de las ramas, de las hojas y el fruto. Tomó, por fin, una manzana y confesó: jamás podría imaginar que sería esto. Y le dio un bocado. La moraleja, que Peter R. Hiesinger deja para el lector es que por mucho que conozcamos sobre neuronas, sinapsis y redes neurales nunca alcanzaremos siquiera a sospechar en qué consiste el cerebro.

Tras esa presentación, resulta obligado introducir unas nociones preliminares para orientarse por sus páginas. Giran en torno al concepto de algoritmo, que es una secuencia finita de instrucciones basadas en una o más reglas, donde el resultado de un paso precedente en la secuencia sirve de entrada para el paso siguiente. Por función algorítmica hay que entender el proceso que, en una red neural, exhibe las propiedades del desarrollo algorítmico. Este consume tiempo y energía durante su ejecución y nos lleva a un producto punto final que demanda más información que el estado inicial a partir de la cual se desarrolla el sistema (entropía reducida).

No es fácil crear un cerebro. Impulsados por las posibilidades que ofrecen los recursos de la investigación básica, los neurobiólogos del desarrollo se afanan en desentrañar la génesis de ese órgano. Confiados en los avances alcanzados en técnica de la computación, los expertos en inteligencia artificial (IA) sueñan en manufacturar uno. Ambos dominios compiten en su búsqueda de principios que permitan alumbrar un sistema inteligente. Comparten un mismo punto de apoyo y de arranque, las redes neurales artificiales, cuyas entidades componentes son las neuronas.

¿Qué tipo de información es necesario para configurar el cableado de un cerebro? ¿Qué significa que algo está codificado en los genes? ¿Cómo se plasma en un cerebro la información genética? ¿Hasta qué punto se requiere el mismo tipo de información para montar el cableado de un cerebro o crear inteligencia artificial? En el cerebro humano, antes de la fase de aprendizaje, la información relativa al desarrollo se halla cifrada en el genoma. El desarrollo, conectividad incluida, que necesita información genética más tiempo y energía, procede en etapas que ocurren en el espacio y el tiempo de forma ordenada. Pero el código genético contiene información algorítmica para el crecimiento cerebral, no información que describa el cerebro. Caeríamos en un error si buscáramos información sobre el resultado final en los genes o en los mecanismos de las proteínas que ellos codifican. Por su parte, cuando los ingenieros diseñan el cableado eléctrico de un edificio o de un microchip de ordenador poseen in mente, de antemano, el producto final. Los proyectos ingenieriles muestran una representación del producto final y contienen la información precisa para crear o construir tal producto.

Para desentrañar la conformación evolutiva del cerebro, peculiaridad exclusiva del dominio biológico, la paleontología y genética están aportando pistas valiosas que Hiesinger no ha considerado. Sabemos ahora que el cerebro de los neandertales dobló su tamaño hace entre dos millones y 700.000 años. Los investigadores lo atribuían a la elaboración de útiles de piedra y a la caza en grupo. Necesitaban una dieta de superior cualidad, que les ofreciera más energía y con mayor celeridad para abastecer a sus cerebros. Pero, de acuerdo con un trabajo reciente, de esta primavera de 2021, no parece que la carne pudiera satisfacer tales exigencias. Para aumentar su cerebro, necesitaban elementos ricos en glucosa. Y esa solo la podían proporcionar las plantas ricas en almidón.

La investigación en IA se propone elaborar un escenario cuyo molde o patrón se encuentre en los sistemas biológicos vigentes, en cambio. Y las redes neurales inteligentes existen; se perciben a través del microscopio. Esa doble atención, a las redes neurales cerebrales y a las redes neurales artificiales, explica le vertebración del libro, que reparte su contenido en sesiones, divididas, a su vez, en seminarios, empezando por una perspectiva histórica selectiva en la que entran nuestro Santiago Ramón y Cajal y su controversia con Camillo Golgi. Desde un comienzo, y a lo largo de toda la obra, el leitmotiv será resaltar las diferencias entre información requerida para crear un sistema e información requerida para describir un sistema. Los genes contienen información para desarrollar una conectividad neuronal en el cerebro; no contienen información que describa la conectividad neural en el cerebro. Como todo sistema abierto, la aleatoriedad desempeña un papel importante. Los procesos estocásticos no tienen por qué ser enemigos de la precisión de las redes neurales; antes bien, se utilizan con profusión durante el crecimiento algorítmico del cerebro.

En el establecimiento de la red, importan las interacciones locales, que deben reaccionar con flexibilidad ante un entorno en cambio incesante. Es necesario que los agentes locales se hallen capacitados para tomar sus propias decisiones con independencia del sistema más amplio que puedan crear. En las redes neurales, desarrollo y función dependen vitalmente de neuronas individuales que se comportan como agentes autónomos. El extremo creciente de una neurona emplea la exploración aleatoria de su entorno a través de los filopodios, unas protrusiones digitiformes. De manera similar, la capacidad de aprender por parte de las redes neurales biológicas y artificiales se apoya en neuronas individuales y en la capacidad de las sinapsis individuales para adaptarse a su función. El concepto de agente autónomo es habitual en IA. En todos los casos, las acciones de los agentes autónomos solo adquieren sentido en el contexto de un proceso que se desarrolla en el tiempo.

No hay sistema biológico sin evolución ni evolución sin mutación. Si una mutación causa un cambio heredable, significativo y seleccionable, la evolución lo aprovecha para reprogramar la red. Es asunto muy bien establecido que las mutaciones individuales pueden reprogramar el comportamiento animal. Está comprobado en experimentos con Drosophila melanogaster, la mosca de la fruta. La mayoría de las mutaciones que afectan al comportamiento afectan a los genes. Pero el autor deja al lector, aquí y en el resto de la obra, la articulación más clara de la constitución de las redes en un proceso de abajo arriba, a la que, sin embargo, se alude una y otra vez.

Puedes obtener el artículo en...

Los boletines de Investigación y Ciencia

Elige qué contenidos quieres recibir.