Pixabay-Gerd Altmann .jpg

Pixabay/Gerd Altmann

Si estamos de acuerdo en que el cerebro es el objeto más complejo del universo conocido, la idea de simular su organización mediante una enorme cadena de ecuaciones no-lineales parecería, cuando menos, un deseo cercano a una utopía. Pero lo que era ciencia ficción hace algunos años, hoy quizá no estaría tan lejos. Al fin y al cabo, el cerebro no deja de ser un órgano confinado, es decir, con límites y proyectos como el Human Brain Project tendrían su razón de ser. 

El anuncio del supercomputador Aurora para 2021 nos sitúa a un nivel de computación a exaescala, esto es, a un trillón de operaciones por segundo, mil veces por encima de los supercomputadores de hace una década. Se trataría del mínimo de capacidad de cálculo requerida para desarrollar una primera versión de un modelo del cerebro con ciertas pretensiones de totalidad, una versión que implementase las interacciones no-lineales que, en una perspectiva macro, caracterizasen las propiedades emergentes de un cerebro vivo. Por otro lado, las eficientes técnicas de computación en la nube y de distribución de datos, podrían ser buenas soluciones para almacenar los datos. Ahora bien, el gran problema que se plantea es cómo agregar y analizar datos. Téngase en cuenta que para que una modelización sea exitosa, los procesos de muestreo, selección y agregación de datos son decisivos.

Los algoritmos clásicos suelen clasificar los datos utilizando "clusters" de reglas más bien aptos para localizar correlaciones y no causalidades. Los algoritmos que necesitamos han de ser capaces de tratar cada vez mejor con datos muy multivariados, de diferente alcance y con datos "perdidos"; es decir, disponer de una mineria de datos cada vez más avanzada. Los procedimientos puramente estadísticos, como los de las técnicas de machine learning no parecen ser muy prometedores para arrojar luz acerca de cantidades masivas de datos no-lineales, no estocásticos y procedentes de espacios de búsqueda de muchas dimensiones.

En el ámbito de la Neurociencia con aplicaciones clínicas habrá que intentar que los millones de datos acumulados por hospitales, fundaciones médicas, laboratorios y Universidades puedan ser compartidos públicamente más allá de las lógicas restricciones ético-legales de la profesión médica. 

Tendremos que obtener datos de las patologías neurológicas no centrándonos en aislarlas mediante la búsqueda de características únicas o simples sino en sondear en múltiples dimensiones o en vectores de variables médicas, reduciéndose así la imprecisión en los diagnósticos. Y así, por ejemplo, en nuestros días hasta un cuarenta por ciento de pacientes con enfermedad de Alzheimer en un estadio inicial quedan sin diagnosticar a su debido tiempo.

En consecuencia, aunque parece que a corto y medio plazo vamos a disponer del hardware necesario para generar modelos bastante realistas de la actividad cerebral global, precisamos de algoritmos de programación cada vez más selectivos a la hora de encontrar relaciones no espurias entre cantidades gigantescas de datos. Este es un reto que va más allá de extender en el tiempo la famosa "ley" de Moore o de intentar explotar nuevos materiales semiconductores como la molibdenita o el grafeno.

Artículos relacionados

Lee también en SciLogs

Carlos Pelta
Carlos Pelta

Doctor en Psicología por la Universidad Complutense de Madrid, actualmente es investigador asociado al Departamento de Psicología Experimental, Procesos Cognitivos y Logopedia de dicha Universidad. Interesado en las aplicaciones de la Inteligencia Artificial a los campos de la Psicología y de la Neurociencia y en el desarrollo de algoritmos computacionales para el estudio de los sistemas complejos. Esta es su página en Researchgate.

Sobre este blog

Este blog pretende dar a conocer aquellas investigaciones que se están realizando en torno a la interacción entre los procesos cognitivos del cerebro humano y la ciencia computacional.

Ver todos los artículos (34)