Utilizamos cookies propias y de terceros para mejorar nuestros servicios y facilitarte el uso de la web mediante el análisis de tus preferencias de navegación. También compartimos la información sobre el tráfico por nuestra web a los medios sociales y de publicidad con los que colaboramos. Si continúas navegando, consideramos que aceptas nuestra Política de cookies .

1 de Septiembre de 2018
Teoría de la información

¿Qué entendemos por información?

Una guía filosófica para intentar clarificar uno de los conceptos más transversales de la ciencia actual.

Claude Shannon (1916-2001). [Konrad Jacobs/Oberwolfach Photo Collection; CC BY-SA 2.0 DE]

Una de las tareas clásicas de la filosofía de la ciencia consiste en clarificar conceptos, especialmente aquellos que son transversales; es decir, que aparecen en distintas disciplinas. La filosofía puede conservar una mirada más amplia que la exigible a cada una de las especialidades, lo que le permite captar las conexiones entre los diferentes usos científicos de una misma idea. Y, si existe un concepto transversal en las ciencias de nuestros días, ese es sin duda el de información. Este aparece en casi todas las materias científicas, desde las matemáticas y la lógica hasta las ciencias sociales y humanas, pasando por las ciencias de lo natural y de lo artificial. Comencemos considerando algunos ejemplos.

La teoría clásica de la información de Claude E. Shannon y Warren Weaver es una teoría general, conectada en muchos sentidos con las teorías matemáticas de la probabilidad. Según algunas interpretaciones, en física cuántica el estado de un sistema depende de la información que sobre él tenga el observador, como ejemplifica el famoso experimento mental del gato de Schrödinger. También parece que, de algún modo, la información se comparte entre partículas muy alejadas entre sí, como muestra el fenómeno del entrelazamiento cuántico. En el ámbito de la termodinámica, se viene insinuando desde hace tiempo la existencia de una correlación negativa entre la entropía y la información de un sistema.

En el terreno de la biología, el lenguaje informacional lo invade todo. Hablamos de información genética, de códigos y de mensajes genéticos, de información sensorial, de procesamiento cerebral de la información, de transmisión de información entre neuronas, de acumulación de información en el sistema inmunitario, etcétera. Por su parte, el ecólogo Ramón Margalef nos hizo ver la enorme importancia del concepto de información a la hora de teorizar sobre la dinámica de los ecosistemas. Charles Seife, de la Universidad de Nueva York, ha llegado a escribir en su libro Descodificando el universo (Ellago, 2009) que los seres vivos no son sino máquinas de procesamiento de información. Según esta perspectiva, todo proceso biológico implica transferencia, procesamiento o almacenamiento de información. Es lo que se ha denominado «equivalencia bioinformacional».

Ni que decir tiene que el concepto de información resulta central en informática y ciencias de la computación. Tampoco las ciencias humanas y sociales han querido prescindir de él. Los sociólogos teorizan sobre la sociedad de la información, donde su distribución marca las relaciones y las dinámicas sociales, y el concepto no está menos presente en ciencias de la comunicación. Para analizar el periodismo y el resto de los modos de comunicación social, la idea de información parece imprescindible.

Artículos relacionados

Puedes obtener el artículo en...

¿Tienes acceso?

Los boletines de Investigación y Ciencia

Elige qué contenidos quieres recibir.