Utilizamos cookies propias y de terceros para mejorar nuestros servicios y facilitarte el uso de la web mediante el análisis de tus preferencias de navegación. También compartimos la información sobre el tráfico por nuestra web a los medios sociales y de publicidad con los que colaboramos. Si continúas navegando, consideramos que aceptas nuestra Política de cookies .

1 de Noviembre de 2013
Reseña

Complejidad

La computación, nexo que une información, evolución y complejidad.

THE ENGINE OF COMPLEXITY. EVOLUTION AS COMPUTATION
Por John E. Mayfield. Columbia University Press, Nueva York, 2013.

La información fluye a través de genes, pensamientos y palabras. Guiada por la selección natural, la información posibilita que exista cuanto nos rodea, desde los escarabajos y el cerebro humano hasta los motores, las lanzaderas espaciales o los teléfonos celulares. Con la información, los conceptos de evolución y teoría de la complejidad han pasado a formar parte de la atmósfera intelectual que envuelve las ciencias de la vida, las ciencias de la conducta y, en fecha más reciente, la ciencia de gestión y la economía. El origen de la complejidad desconcertó ya a Platón y a Aristóteles, hace 2500 años, y no ha dejado de fascinar a los filósofos desde entonces. Los conceptos de información, complejidad y evolución se hallan tan profundamente entrelazados que solo la consideración conjunta de los tres nos permite avanzar. El nexo que las une es la computación, que asociamos primariamente al procesamiento y manipulación de la información.

En los años cuarenta y cincuenta del siglo pasado, Claude Shanon adaptó el concepto clásico de entropía para cubrir una necesidad de la industria emergente de la comunicación. Se trataba de idear un sistema que pudiera transmitir una cantidad de información en un tiempo preestablecido. Para resolver ese problema, había que idear una medida cuantitativa de la capacidad de un sistema transmisor de información. La idea de Shanon constaba de dos partes: un sistema tiene el potencial de portar información si puede tomar estados o configuraciones múltiples. Y, cuanto más configuraciones posibles, mayor la información incorporada en cada uno de ellos. La medida en que se centró Shanon se basaba en probabilidades.

En física, un sistema de moléculas tiene máxima entropía cuando las moléculas se encuentran libres de moverse por el espacio entorno, explorando los microestados disponibles. Cuando hay una estructura, algunas moléculas dejan de ser libres de moverse, confinadas en una ubicación particular. Por consiguiente, un sistema con una estructura física se caracteriza por menos entropía (menos libertad) que un sistema con el mismo número y tipos de átomos que no forman estructura alguna (a la misma temperatura). Esa diferencia entre la entropía real y la máxima entropía abstracta reciben el nombre de negantropía (entropía negativa).

La estructura puede hallarse también presente en secuencias de símbolos. En este caso, la estructura remite a la distribución no aleatoria de símbolos. En una secuencia, los símbolos no se mueven en torno, sino que las pautas no aleatorias reflejan probabilidades desiguales. Si uno puede determinar las probabilidades reales, utilizarlas para calcular la entropía de Shanon y luego sustraer ese valor de la entropía máxima (todas las probabilidades iguales), el valor resultante es la ciencia de la información equivalente a la negantropía física. Mide la cantidad de estructura presente. Adami definía la complejidad como la diferencia entre la entropía real y la entropía máxima para un sistema evolutivo y la utilizaron para medir cuánta información ha obtenido el sistema sobre su entorno.

De forma creciente, los científicos de campos diversos están planteando su disciplina en términos de información. En 1990, John Wheeler acuñó la expresión «it from bit» para señalar que el fundamento real de nuestro universo físico estaba en la información. Seth Lloyd cree que esa línea de pensamiento cuenta con la mayor probabilidad de resolver el problema principal que tiene planteada la física actual: la unificación de la teoría de la relatividad general con la mecánica cuántica. La propia biología se va transformando, a pasos agigantados, en ciencia de información. Hace más de cincuenta años se descubrió que el ADN almacenaba, en su estructura química, la información específica del organismo. Buena parte de la investigación biológica actual se centra en el uso de esa información para crear y mantener vivos a los organismos. También los psicólogos van aceptando de manera progresiva que la función primaria del cerebro consiste en procesar información. Las instituciones y las interacciones sociales, a su vez, se explican mejor en términos de evolución y de información.

Las leyes de la naturaleza son universales: operan en todas las escalas y en todo tiempo y lugar. El tiempo, el lugar y quizá las propias leyes comenzaron con la gran explosión. Suelen expresarse en lenguaje matemático y permiten calcular la evolución del universo desde que era mínimo y a altísimas temperaturas hasta el momento en que vivimos, pero las leyes no pueden explicar el origen de las mismas. El reto de la cosmología actual es una teoría autocontenida que las explique. Hay leyes deterministas y otras estocásticas. En ciertas situaciones, además, las leyes deterministas interaccionan para producir actividades caóticas cuyo resultado no puede calcularse para un futuro a medio o largo plazo.

Como campo formal de estudio, la ciencia de la computación inició su andadura en los años cuarenta del siglo pasado como parte de la ingeniería de guerra para descerrajar códigos y calcular la trayectoria de los obuses. Ahora, en biología, una computación potente nos permite comparar decenas de secuencias de ADN para acotar motivos que persisten, funciones que se comparten y antepasados comunes. Podemos realizar simulaciones de fenómenos biológicos complejos y hallar soluciones a problemas cuantitativos que parecían desafiar las soluciones analíticas.

Apelando a la complejidad se ha criticado la teoría de la evolución. Se le atribuye su debilidad a la hora de ofrecer una prueba explícita de las grandes innovaciones como los ojos, el flagelo bacteriano o el metabolismo celular, fenómenos que no podrían explicarse a través de pequeños cambios secuenciales en el transcurso del tiempo. Se habla de complejidad irreducible. A esta objeción, encabezada en particular por Michael J. Behe, se ha respondido desde diferentes flancos. En particular, se recurre a la nueva teoría de la evolución del desarrollo («Evo-Devo»), que implica el aprovechamiento de estructuras destinadas a una función para que cumplan una misión novedosa. Para Behe, determinados sistemas de reacciones químicas encadenadas (la cascada de la coagulación, por ejemplo) y ciertas estructuras de la organización celular (cilios y flagelos) son irreduciblemente complejos: solo operan cuando todas las piezas están en su lugar y finamente sintonizadas. Cada paso, por si solo, resultaría vano. Pero si falla una sola pieza, el aparato cesa de funcionar. No parece, pues, infiere, que surgieran por un mecanismo darwinista. Las enzimas involucradas, se responde, pudieron aparecer cumpliendo una función distinta, pero la evolución es un carroñero creativo que toma de cuanto hay disponible para darle un nuevo uso.

La ciencia biológica debate cómo medir la complejidad, cómo establecer si la historia de la vida muestra una tendencia hacia una complejidad creciente y cómo determinar si la organización biológica no es más que un subdominio del problema mayor del orden y la complejidad. Con todo, la complejidad y la organización pudieran ser resultados inexorables en los sistemas multicomponentes. Para entender la vida hemos de entender las células. Estas unidades de organización comparten siete propiedades fundamentales: 1) una membrana lipoproteica semifluida que separe el interior del exterior; 2) moléculas de ADN que codifican instrucciones para la síntesis de ARN y de proteínas; 3) maquinaria para la síntesis de proteínas; 4) red metabólica autorreguladora que asegure un medio interno consistente; 5) sistemas que suministren el recambio adecuado, la reparación y la duplicación de todas las partes conforme se van necesitando; 6) mecanismos para el crecimiento y reproducción de las células; 7) mecanismos para adquirir energía química y las materias primas necesarias. Cada una de esas siete propiedades dependen de la actividad de las proteínas.

No cabe una comprensión de la vida sin conocimiento de la información almacenada en el ADN para crear nuevos organismos. Los procesos darwinistas de selección natural operan sobre poblaciones de individuos no idénticos. El ADN de los organismos no cambia, pero con el tiempo sí lo hace el ADN de una población. Las modificaciones del ADN, primero como mutaciones y luego acumuladas por selección natural, constituyen fragmentos crecientes de información útiles para la supervivencia en un entorno determinado. En consonancia con ello, los cambios aleatorios del material hereditario (mutaciones que ocurren durante la reproducción) en una población sometida a selección natural, establece, en el curso del tiempo, el origen de la información extra que se necesita para crear cada organismo. Pero ¿de dónde procede la información extra cuando un equipo de ingenieros proyecta un nuevo computador o un puente colgante? ¿Basta con afirmar que los ingenieros lo habían pensado? No. Cuando se le considera una operación, el mismo esquema general que opera en biología opera también en las esferas culturales y tecnológicas humanas. Ello significa que la fuente última de toda información especial que posibilita la especificación previa de tantas cosas complejas, comienza como un cambio estocástico sometido a la selección acumulativa. Aquí se llama «motor de complejidad» a ese esquema lógico que lleva el proceso a término. Un mismo motor subyace bajo la evolución de la vida y el cambio social y tecnológico. También, el aprendizaje y la creatividad humana.

Los organismos vivos y la mayoría de los artefactos humanos demandan más que las leyes de Newton y de la mecánica cuántica, si se quieren entender en su plenitud. Ese algo adicional es la idea de que la información organizada y empleada debidamente puede instruir la formación de estructuras muy específicas. Sin ello serían improbables. Tal información especializada se muestra en plantillas, recetas, genes (ADN o ARN) o, de una manera general, en instrucciones. Toda instrucción es una información específica codificada y ordenada a un fin.Una forma provechosa, aunque no tradicional, de abordar la noción de complejidad consiste en distinguir entre complejidades simples no dirigidas (piedras o galaxias) —objetos que se forman de manera espontánea de acuerdo con reglas sencillas de la física y la química— y complejidades refinadas y ordenadas a un fin (una encina o un avión a reacción). Estos segundos solo se dan cuando existen reglas complicadas de partida, instrucciones.

Puedes obtener el artículo en...

Los boletines de Investigación y Ciencia

Elige qué contenidos quieres recibir.