Utilizamos cookies propias y de terceros para mejorar nuestros servicios y facilitarte el uso de la web mediante el análisis de tus preferencias de navegación. También compartimos la información sobre el tráfico por nuestra web a los medios sociales y de publicidad con los que colaboramos. Si continúas navegando, consideramos que aceptas nuestra Política de cookies .

Diez códigos informáticos que han transformado la ciencia

Ajenos a la atención mediática, varios avances en programación han cambiado para siempre la manera de investigar en biología, climatología, física y otras áreas.

Desde mediados del siglo XX, varias herramientas informáticas han permitido sustituir el lápiz y el papel por el ordenador, el microscopio por los programas de procesamiento de imágenes y las bibliotecas por las bases de datos. La ciencia moderna sería irreconocible sin ellas. [ROOZBEH ESLAMI/UNSPLASH]

En síntesis

Responsables directos de un sinfín de descubrimientos científicos, los ordenadores son consustanciales a la investigación moderna. Sin embargo, este papel protagonista no obedece únicamente al aumento de la potencia de cómputo.

Una clave a menudo olvidada son los programas informáticos que han convertido a los ordenadores en máquinas fáciles de usar por parte de los científicos. Tales instrumentos han transformado la manera de trabajar en numerosos campos.

Una consulta a decenas de investigadores ha permitido elaborar una selección de diez herramientas transformadoras, desde Fortran y la transformada rápida de Fourier hasta los bancos de datos biológicos o el repositorio de prepubliaciones arXiv.

En 2019, los investigadores del Telescopio del Horizonte de Sucesos (EHT, por sus siglas en inglés) nos permitieron vislumbrar por primera vez el verdadero aspecto de un agujero negro. Pero aquella célebre imagen que mostraba un anillo de luz brillante no era una fotografía tradicional. Era el resultado de un cálculo: una transformación matemática de los datos obtenidos por radiotelescopios de Estados Unidos, México, Chile, España y el Polo Sur. Junto con los artículos que documentaban sus hallazgos, los investigadores publicaron el código informático que habían empleado para que la comunidad científica pudiera ver —y aprovechar— lo que habían logrado.

Esa historia se repite cada vez más. Desde la astronomía hasta la zoología, tras todos los grandes resultados científicos de la era moderna hay un ordenador. Michael Levitt, biólogo computacional de Stanford que en 2013 compartió el premio Nobel de química por sus estrategias computacionales para modelizar estructuras químicas, subraya que los portátiles actuales tienen unas 10.000 veces más memoria y frecuencia de reloj que el ordenador construido en un laboratorio que él usaba en 1967, cuando comenzó el trabajo que le reportó el galardón. «Hoy tenemos a nuestra disposición una capacidad computacional asombrosa», señala. «El problema es que aún hay que pensar.»

Es aquí donde entra en escena el científico-programador. Una computadora potente no sirve para nada sin un programa capaz de abordar preguntas interesantes y sin investigadores que sepan escribirlo y usarlo. «La investigación actual está íntimamente ligada a la programación», destaca Neil Chue Hong, director del Instituto de Sostenibilidad del Software, una organización con sede en Edimburgo dedicada a mejorar el desarrollo y el uso de las aplicaciones informáticas en ciencia. «Está presente en todos los aspectos de un estudio.»

Como es lógico, son los descubrimientos científicos los que acaparan la atención mediática. Sin embargo, para entender de veras cómo funciona la ciencia moderna, merece la pena echar un vistazo entre bastidores y analizar los principales códigos informáticos que han transformado la investigación en las últimas décadas. Aunque una lista de este tipo nunca puede estar completa, las líneas que siguen muestran una selección de diez herramientas informáticas que, según las decenas de científicos consultados para este artículo, han cambiado para siempre la investigación.

Fortran (1957): Lenguaje pionero

Los primeros ordenadores modernos no eran fáciles de usar. La programación se hacía literalmente a mano, conectando bancos de circuitos con cables. Más adelante, el lenguaje máquina y el ensamblador permitieron que los usuarios empleasen código para programar las computadoras. Sin embargo, ambos seguían requiriendo un conocimiento profundo de la arquitectura del ordenador, lo que los dejaba fuera del alcance de muchos científicos.

Eso cambió en los años cincuenta con la aparición de los lenguajes simbólicos; en particular, con el lenguaje de «traducción de fórmulas», o Fortran, desarrollado por John Backus y su equipo en el laboratorio de IBM de San José, California. Con Fortran, los usuarios podían programar los ordenadores empleando instrucciones legibles para las personas, como = 3 + 5. A continuación, un compilador convertía esas instrucciones en un código máquina rápido y eficaz.

Puedes obtener el artículo en...

¿Tienes acceso a la revista?

Los boletines de Investigación y Ciencia

Elige qué contenidos quieres recibir.