Utilizamos cookies propias y de terceros para mejorar nuestros servicios y facilitarte el uso de la web mediante el análisis de tus preferencias de navegación. También compartimos la información sobre el tráfico por nuestra web a los medios sociales y de publicidad con los que colaboramos. Si continúas navegando, consideramos que aceptas nuestra Política de cookies .

1 de Noviembre de 2014
Reseña

Neurociencia cognitiva

Mente predictiva y cerebro bayesiano.

THE PREDICTIVE MIND
Por Jacob Hohwy. Oxford University Press, Oxford, 2013.

La percepción, dicta la neurociencia, viene esculpida por la atención. El carácter polifacético, profundo y exuberante de nuestra percepción consciente se explica mediante el mecanismo de minimización del error de predicción, según propone una tesis innovadora. Afirma esta que, de ese procedimiento depurador de la información que el cerebro recibe del mundo exterior presentada por los sentidos, se vale la mente para extraer inferencias. La identificación del mecanismo supuso un cambio de paradigma en neurociencia cognitiva y, por ende, en neurofilosofía. La mente se revelaría portadora de una relación frágil e indirecta con el entorno. Aunque sintonizados con el mundo, nos encontramos también muy distanciados del mismo. La nueva teoría que está abriéndose camino en neurociencia sostiene que existe en el cerebro un mecanismo sutil de contrastación de hipótesis, en permanente actividad, para reducir al mínimo el error de los estímulos sensoriales.

La mente y su capacidad de percibir el mundo van inextricablemente unidas. No solo importa qué información extraemos, sino también de qué modo percibimos; es decir, interesa conocer la mecánica de la percepción y la conjugación de los múltiples factores implicados, pues la percepción confiere sentido al mundo observado y, lejos de ser mera pasividad, viene guiada por la información procedente de los sentidos. La información sensorial que llega al cerebro no conforma directamente la percepción, sino que es un proceso retroalimentado por el cerebro. Nuestras expectativas modelan lo que percibimos y cómo integramos los aspectos percibidos del mundo. Pero el mundo impone límites a nuestras expectativas.

En el marco de la nueva teoría, percepción, acción y atención convergen en una misma tarea. Las tres deben equilibrarse entre sí para aproximarse correctamente al mundo. La unidad de la percepción consciente, la naturaleza del yo y nuestro mundo mental personal se fundan en la optimización de las predicciones sobre la información sensorial. Y de manera aún más radical, el contenido de nuestros estados perceptivos no se apoyaría en lo que pensamos, sino en lo que somos. Minimizamos el error entre las hipótesis generadas sobre la base de nuestro modelo del mundo y la información sensorial. Habría un único tipo de mecanismo, reiterado a través del cerebro, que lo gestionaría todo. El mecanismo utilizaría diversas herramientas estadísticas estándar para minimizar el error y, al hacerlo así, da origen a la percepción, la acción y la atención. En última instancia, pese a su presentación estadística, se trataría de un mecanismo neuronal. Para describir y explicar el mecanismo de minimización del error de predicción, repetido una y otra vez por el cerebro, se parte de una concepción estadística, bayesiana, de la percepción. Nos vale también la analogía de minimización de la energía libre.

Aunque la maquinaria formal que rodea la exposición de la minimización del error de predicción es de desarrollo reciente, las ideas nucleares hunden sus raíces en el pasado. Fueron anticipadas por Ibn ­al-Haytham (nuestro Alhazen), quien, en el siglo xi, avanzó la idea de que muchas propiedades son percibidas por juicio e inferencia. Kant proponía en 1781 que la percepción se va concretando a medida que el cerebro utiliza sus concepciones previas sobre el mundo (categorías y formas de la intuición del espacio y el tiempo) para organizar los estímulos sensoriales que se nos ofrecen. La relación entre pensamiento (o inferencia) e información múltiple aportada por los sentidos se recoge en la sentencia kantiana que declara que los pensamientos sin contenido son vacíos y, ciegas, las intuiciones sin concepto. La intelección no puede intuir nada, ni los sentidos pueden pensar nada. Solo a través de esa unión surge el pensamiento.

Pero fue Hermann von Helmholtz quien presentó al cerebro constituido en cribador de hipótesis, en reacción a la tesis kantiana. Investigó el tránsito de las sensaciones del sistema nervioso al mundo real y dedujo que nos guiamos por las respuestas que la naturaleza despliega cuando la interrogamos, sirviéndonos de inferencias perceptivas inconscientes y fundadas en un conocimiento previo. En esa clase de inferencia se ancla la percepción. Las ideas de Helmholtz fueron retomadas en distintos momentos a lo largo del siglo xx. Así, por ejemplo, Jerry Fodor y Zenon Pylyshyn aceptaron básicamente la noción helmholtziana de inferencia inconsciente de bajo nivel.

Otra corriente vinculada con la historia de la minimización del error de predicción atiende a la causalidad y la inferencia inductiva. Para David Hume, una causa era un objeto seguido de otro y todos los objetos similares al primero eran seguidos de objetos similares al segundo. O con otras palabras, donde no se hubiera visto el primer objeto, tampoco existiría el segundo. Para Hume, la causalidad se refiere a la extracción de datos estadísticos y a la imagen que nos formamos cuando se interviene en el mundo de una manera controlada. Esa definición dual de causa fue subrayada por Ralph H. Lewis en su tratamiento contrafactual de la causalidad en términos de invarianza.

La confluencia de los avances en la noción de causa y la historia de la contras­tación de las hipótesis propiciaron el desarrollo de la noción de minimización del error de predicción. En línea con al-Haytham y Helmholtz, la teoría de la minimización ocupa el núcleo de la psicología y la neurociencia. Constituye, además, la expresión de la forma en que el hombre infiere y se autoorganiza. El cerebro es, en efecto, un mecanismo de inferencia, razón por la cual se presenta la percepción en términos de causa y efecto. Pero no resulta fácil razonar a partir solo de los efectos conocidos para remontarse hasta sus causas escondidas, ya que una misma causa puede dar origen a muy diferentes efectos en nuestros órganos de los sentidos, y causas distintas, producir un mismo efecto. Ello hace difícil la labor del cerebro de acotar el efecto (información sensorial recibida) que depende de una causa determinada (objeto del mundo real). Si la única restricción sobre la inferencia causal del cerebro consistiera en la información sensorial inmediata, entonces, desde la perspectiva del cerebro, cualquier inferencia causal sería tan buena como la otra.

En matemática, se llama inferencia el proceso que conduce a una conclusión sobre una población basándose en una muestra. También se llama inferencia la conclusión alcanzada sobre una población mediante el proceso aludido. La inferencia estadística se ocupa de los métodos que pueden utilizarse y la teoría que los explica. La inferencia es una noción normativa que permite entender las regularidades observadas. La teoría de la probabilidad, o epistemología bayesiana, es también normativa porque nos informa sobre lo que hemos de inferir, dadas las pruebas disponibles.

Imaginemos una situación muy sencilla. Nos encontramos en una casa sin ventanas, ni libros, ni Internet. Oímos un sonido y queremos saber quién lo ha producido. Nosotros somos el cerebro, la casa es el cráneo y el sonido es la información sensorial. Queremos averiguar la causa del sonido y empezamos por enumerar una lista de objetos posibles: un pájaro carpintero que golpeara la pared, una rama caída, la música de un vecino, una lluvia de meteoritos, y así un largo etcétera. Cada una de las posibilidades de ese listado constituye una hipótesis. No todas las hipótesis tienen sentido una vez conocido el efecto: no admitiremos que quien golpea la pared sea un matemático que se entretiene con la conjetura de Goldbach. Es decir, se impone valorar el nexo entre la hipótesis y el efecto. Lo que nos lleva a fijarnos en la verosimilitud de que la hipótesis se adecúe al efecto observado. Tal verosimilitud designa la probabilidad de que las causas descritas en la hipótesis causen los efectos observados. La verosimilitud se basa en las regularidades conocidas (por ejemplo, los efectos causados por un pájaro carpintero). A partir de las regularidades causales observadas podremos jerarquizar las hipótesis de acuerdo con su verosimilitud.

Las predicciones se comparan con la señal sensorial real, o con la inferencia del nivel inferior; la diferencia, el error de predicción, se emplea como señal de retroalimentación para los modelos internos que generan las predicciones. No existe solo interacción entre causas escondidas en la producción de datos sensoriales, sino también una interacción entre estados diferentes del mundo y la incertidumbre o ruido asociado con pruebas sensoriales generadas por tales estados. El mecanismo de minimización del error de predicción habrá de tomar en consideración la dependencia del contexto y la incertidumbre que rodea dicho contexto.

En el caso del sonido percibido, contamos con dos herramientas para averiguar su causa: la verosimilitud (probabilidad del efecto observado consideradas las hipótesis particulares hasta ahora) y la probabilidad anterior de la hipótesis (estimación subjetiva del grado de probabilidad de la hipótesis independientemente de los efectos observados en ese momento). Verosimilitud y probabilidad anterior son los pilares de la regla de Bayes, arquetipo de la racionalidad.

Artículos relacionados

Puedes obtener el artículo en...

Los boletines de Investigación y Ciencia

Elige qué contenidos quieres recibir.