Según Stone, el coste de la información crece conforme la tasa de información que sea transmitida, lo cual sugiere que las neuronas, como mecanismos darwinianamente eficientes, han de transmitir información al mínimo coste energético posible. El problema es que, a mayor eficiencia, mayor coste metabólico ha de producirse. Pero la evolución no selecciona individuos u órganos según su eficiencia metabólica o su capacidad de codificación, sino de acuerdo a la eficacia de su rendimiento; esto es, el rendimiento por cada unidad gastada de energía. El rendimiento aquí se identificaría con la eficiencia metabólica.

Sin embargo, las neuronas poseen una estructura fisiológica sometida a múltiples constricciones. Y además nunca hay que olvidar que la evolución no es un proceso de "diseño inteligente" y no sigue una ruta teórica ideal sino que va procediendo "a su manera", según lo vaya exigiendo la presión constante ejercida por la implementación biológica; esto es, hay un salto grande entre el diseño idealizado, propio de la ingeniería inversa, y la cruda realidad; es decir, la cuestión no es tan sencilla como que, darwinianamente, la eficiencia metabólica provoque un incremento en la eficiencia para codificar información. No obstante, las evidencias presentadas por Stone en su libro parecen sugerir que una serie de parámetros físicos neuronales han sido optimizados por la selección natural, asegurándose que, bajo ciertas constricciones físicas, la información es transmitida al mínimo coste metabólico posible. Entre estos parámetros se encontrarían:

-La tasa promedio de activación neuronal.

-La distribución de las tasas de activación.

-El diámetro promedio de los axones del nervio óptico.

-La distribución de los diámetros de los axones en los haces axonales.

-La conductancia de las sinapsis de los ganglios de la retina.

-La recombinación de los conos de la retina.

-El campo receptivo espacial y temporal.

-El tamaño y espaciamiento de los ganglios receptores.

En consecuencia, Stone parece haber demostrado que una serie de resultados empíricos, aunque todavía no muy numerosos, apoyan el principio de eficiencia metabólica como guía de la computación neuronal. Recomendamos muy vivamente este libro para cualquier lector o lectora que desee adentrarse en el terreno de los puntos de encuentro entre la teoría de la información y la estructura física neuronal.

 

Referencia

Stone, J. "Principles of Neural Information Theory: Computational Neuroscience and Metabolic Efficiency". Sebtel Press. Edición de Kindle, 2018.

 

Artículos relacionados

Carlos Pelta
Carlos Pelta

Doctor en Psicología por la Universidad Complutense de Madrid, actualmente es investigador asociado al Departamento de Psicología Experimental, Procesos Cognitivos y Logopedia de dicha Universidad. Interesado en las aplicaciones de la Inteligencia Artificial a los campos de la Psicología y de la Neurociencia y en el desarrollo de algoritmos computacionales para el estudio de los sistemas complejos. Esta es su página en Researchgate.

Sobre este blog

Este blog pretende dar a conocer aquellas investigaciones que se están realizando en torno a la interacción entre los procesos cognitivos del cerebro humano y la ciencia computacional.

Ver todos los artículos (36)