_collid=books_covers_0&isbn=9780262028707&type=.jpg

(https://mitpress.mit.edu/books/principles-neural-design)

¿Cómo están las neuronas y sus circuitos diseñados para aprovechar al máximo el reducido espacio cerebral? ¿Cómo es posible seguir aprendiendo con un cerebro ya definido en gran manera y con un proceso de maduración completado? Según Sterling y Laughlin (2015), nuestras neuronas y sus circuitos presentan un diseño en el que resaltan una serie de aspectos que optimizan el aprendizaje, aprovechando al máximo unos recursos espaciales, metabólicos y energéticos limitados:

1. En primer lugar, en el cerebro se expanden aquellos circuitos neuronales que son persistentemente usados y se retraen cuando la práctica no es contínua. Piénsese, por ejemplo, en cómo la parte derecha del hipocampo de los taxistas londinenses aumentó de tamaño pero cómo, una vez que se retiraron del servicio, volvió a su tamaño normal. La plasticidad sináptica es espacialmente específica.

2. Solo se almacena lo que se necesita. Un cráneo, una vez que se vuelve rígido, no es el lugar adecuado para que un cerebro crezca. El diseño del cerebro de un mamífero tiene que parar de añadir y crecer nuevos circuitos a no ser que pode otros.

3. Hay que tirar información a la basura. Podemos retener patrones perceptivos y de aprendizaje durante mucho tiempo y sin apenas práctica. Esto es lo que, por ejemplo, nos permite almacenar los rasgos más generales de la fisonomía de personas a las que hace mucho tiempo que no hemos visto. En cada reencuentro el cerebro revisa automáticamente los patrones almacenados para, a continuación, descartarlos. Podemos reconocer a un amigo de juventud pero descartamos su apariencia original para posibles futuras interacciones. Es un mecanismo de "auto-destrucción". El cerebro elimina hechos carentes de contexto y no marcados por la emoción. ¿Quién necesita recordar el número de una habitación de hotel, una vez abandonada? ¿Quién precisa recordar trivialidades?

4. El almacenamiento de la información no se correlaciona con el tamaño de las sinapsis. La capacidad de almacenamiento por unidad de volumen es más grande cuando la información es almacenada por numerosas y pequeñas sinapsis, tal como sucede en la corteza cerebral. Es más eficiente guardar la información en muchas sinapsis pequeñas cuya ratio señal-ruido sea baja. Así como la información es transmitida de manera más eficiente en bajas tasas, se almacena de forma más eficiente a través de sinapsis de baja capacidad.

5. La homeóstasis sináptica es baja. De lo contrario, las memorias se perderían nada más formarse.

 

Referencia

Sterling, P. y and Laughlin, S. Principles of neural design, MIT Press, 2015.

 

Artículos relacionados

Carlos Pelta
Carlos Pelta

Doctor en Psicología por la Universidad Complutense de Madrid, actualmente es investigador asociado al Departamento de Psicología Experimental, Procesos Cognitivos y Logopedia de dicha Universidad. Interesado en las aplicaciones de la Inteligencia Artificial a los campos de la Psicología y de la Neurociencia y en el desarrollo de algoritmos computacionales para el estudio de los sistemas complejos. Esta es su página en Researchgate.

Sobre este blog

Este blog pretende dar a conocer aquellas investigaciones que se están realizando en torno a la interacción entre los procesos cognitivos del cerebro humano y la ciencia computacional.

Ver todos los artículos (33)