Utilizamos cookies propias y de terceros para mejorar nuestros servicios y facilitarte el uso de la web mediante el análisis de tus preferencias de navegación. También compartimos la información sobre el tráfico por nuestra web a los medios sociales y de publicidad con los que colaboramos. Si continúas navegando, consideramos que aceptas nuestra Política de cookies .

Reconstrucción de la realidad

Matematización, modelización y simulación.

RECONSTRUCTING REALITY. MODELS, MATHEMATICS, AND SIMULATIONS
Margaret Morrison. Oxford University Press, 2015.

Compete a la filosofía de la ciencia desentrañar la compleja relación entre representaciones matemáticas abstractas, los formalismos y la realidad que tratamos de comprender. A menudo, la interpretación del mundo se apoya en la modelización de procesos, que permite reconstruir el sistema sometido a investigación. De un tiempo a esta parte se ha sumado la simulación, constituida ahora en herramienta indispensable de la tarea científica. Desde el punto de vista epistemológico, el quid de la cuestión estriba en averiguar en qué medida las descripciones abstractas —pensemos en los métodos de la teoría gauge y el grupo de renormalización— potencian nuestro conocimiento del mundo físico.

Lord Kelvin es bien conocido por su énfasis en el papel de los modelos en producir conocimiento científico. «Nunca me siento satisfecho hasta que consigo un modelo matemático del fenómeno. Si puedo construir un modelo mecánico, puedo afirmar
que lo entiendo. Mientras tanto, me siento incómodo y reconozco que no lo entiendo. Creo firmemente en la teoría electromagnética de la luz; cuando entendamos el magnetismo, la electricidad y la luz, podremos contemplarlos en su conjunción, como partes de un todo.» Kelvin aludía a la formulación lagrangiana de Maxwell de la electrodinámica y a la ausencia de un modelo mecánico idóneo que describiera la propagación de las ondas electromagnéticas a través del espacio.

La naturaleza de la modelización y simulación, su estatuto epistemológico y metodológico, así como la función desempeñada en el avance de la ciencia y la filosofía, se encuentran sujetos a permanente debate. A la simulación, por ejemplo, se le asigna un papel pragmático; de los modelos, fuente independiente de razonamiento, sin copia original en que espejarse, se ha dicho que no son más que metáforas cuyo propósito estriba en traducir coherentemente una realidad compleja dada mediante una semejanza adecuada.

En Reconstructing reality, Margaret Morrison reflexiona sobre la relación entre modelos, simulaciones y realidad a partir de diferentes perspectivas epistemológicas y metodológicas, con el foco centrado en la física. El libro se estructura en tres partes: matemática, modelización y simulación. Cada una de ellas se ocupa de un aspecto de la reconstrucción de la realidad; en todos los casos interviene la matemática.

En Il Saggiatore, publicado en 1623, Galileo declaró que el libro de la naturaleza estaba escrito en el lenguaje de la matemática. Para comprender el universo, necesitamos descubrirlo correctamente. Entendía Galileo que la matemática era la base de tal descripción. Tomando su ejemplo (la distancia de la caída libre de un objeto es proporcional al cuadrado del intervalo temporal), se observa que la pauta del movimiento de caída libre puede describirse a través de la medición de un parámetro: la distancia. Puede afirmarse que la medición y el valor asignado ilustran la pauta; a saber, que la distancia varía con el cuadrado del tiempo. Con la matematización del problema especificamos de una forma precisa la relación entre distancia y tiempo.

El estudio de la relación entre matemática y realidad (entre matemática y sistema físico) se articula a través de la resolución de dos cuestiones diferentes, aunque emparentadas: primera, el modo en que la abstracción e idealización en la construcción del modelo potencia nuestra comprensión de rasgos específicos de sistemas físicos y biológicos; segunda, en qué medida la explicación matemática aporta información física. Se distingue entre abstracción (proceso en cuya virtud describimos los fenómenos de una forma irrealizable en el mundo físico; por ejemplo, una población infinita) e idealización (en la que el sistema se va acotando mediante la adición de factores de corrección; como el rozamiento en la modelización de un péndulo). La idealización se usa para facilitar el cálculo.

La abstracción matemática empleada en la modelización facilita nuestro conocimiento de una forma que le resulta inalcanzable a la investigación experimental. Atendamos, para ello, a la biología de poblaciones. Desde el desarrollo de la disciplina en la primera mitad del siglo XX, el uso de técnicas matemáticas, así las ecuaciones de difusión, posibilitó la aparición de nuevas formas de caracterizar a las poblaciones. Se abandonaban las poblaciones naturales o «reales», estudiadas por los biólogos de campo; las poblaciones eran ahora constructos matemáticos, manipulables algebraicamente. En este contexto, impera el modelo, no el sistema o entorno del mundo real (la población viva). La nueva modelización matemática señaló un punto de inflexión en la comprensión de las características genéticas de las poblaciones naturales. En la genética de poblaciones, los objetos de estudio son las frecuencias y adaptación de genotipos en las poblaciones naturales. La misma evolución vendría a ser el cambio en la frecuencia de genotipos en el transcurso del tiempo, lo que podría ser resultado de sus diferencias en su eficacia biológica. Los modelos matemáticos, centro de la investigación, incorporan supuestos idealizadores que ignoran las complejidades de las poblaciones reales; prestan atención, por ejemplo, a uno o varios loci (pocos) a la vez, en unas poblaciones que se aparean aleatoriamente o que tienen un patrón de migración simple.

La segunda parte del libro centra la discusión en la modelización (con detenimiento en la teoría de la superconductividad de Bardeen, Cooper y Schrieffer). Aborda tres problemas. En primer lugar, el papel de los modelos hipotéticos en la obtención de una intelección fiable de los principios subyacentes. Para Morrison, hemos de atender a la secuencia correcta del razonamiento, que procede así: de la ley al modelo y de este a la realidad; es decir, la realidad es un ejemplo de un modelo y un modelo es un ejemplo de una ley.

En segundo lugar, el significado de la exposición representativa de la que se ocupan los modelos. Hay modelos interpretativos basados en la teoría y modelos representativos basados en el mundo. Cabe preguntarse cuál de los dos aparece primero. Aunque la teoría sea necesariamente anterior a la representación, se requiere un modelo para determinar de qué modo se van a aplicar los conceptos abstractos/teoría en una situación específica. En tercer lugar, el papel de modelos inconsistentes. A este respecto, la autora defiende un realismo perspectivista; sugiere que la inconsistencia puede ayudar a explorar la realidad con una praxis inapropiada. El perspectivismo deja irresuelto el problema de la verificación y validación.

La tercera parte de la obra resalta la importancia de la simulación como técnica crucial para adquirir un conocimiento nuevo y peculiar sobre la realidad. ¿Es la simulación equivalente al experimento (en el sentido de investigaciones fundadas en materiales de laboratorio)? ¿O es acaso una herramienta apropiada para medir hechos inasibles? Si miramos a nuestro alrededor, observamos que la formación y el aprendizaje basados en la simulación tienen un amplio uso en aviación y en el ejército. En medicina, sin embargo, ya sea por escepticismo, ya sea por falta de pruebas, ha costado introducirla como herramienta de aprendizaje. Pero los estudios recientes sugieren que las especialidades quirúrgicas de alto riesgo, como las oftalmológicas, han comenzado a ver sus beneficios. El potencial para mejorar la seguridad del paciente, abreviar los procesos de aprendizaje y permitir a los discentes abordar situaciones de riesgo con seguridad ha convertido la simulación en una herramienta de aprendizaje quirúrgico. Desde un punto de vista más general, va tomando cuerpo la idea que equipara el estatuto epistémico de la simulación al de la experimentación. La simulación formaría parte integral del proceso de experimentación. [Véase «La naturaleza de la prueba científica en la era de las simulaciones», por Kevin Heng; Investigación y Ciencia, mayo de 2015.]

En cuanto técnica de medición, la simulación sustituye con ventaja a planteamientos experimentales más tradicionales. A la luz del importante papel desempeñado por la simulación en los experimentos recientes del Gran Colisionador de Hadrones del CERN, ha dejado de tener sentido la distinción entre simulación y experimento en ciertos contextos. Bajo determinadas circunstancias, la simulación funciona de una manera similar a la medición experimental hasta lograr que sus resultados sean epistémicamente equiparables. Un sistema de simulación consta de computador, modelo de simulación y programa.

Aunque es obvio que ninguna simulación puede demostrar la existencia de la partícula de Higgs, los experimentos y el equipo diseñado para descubrir el bosón en cuestión se apoyan en gran medida en el conocimiento producido por la simulación. No resulta, pues, exagerado afirmar que solo pudo darse el descubrimiento del bosón de Higgs gracias a la simulación: el conocimiento obtenido por esta permitió saber dónde buscar un episodio de Higgs, si se produjo un episodio y si podíamos confiar en la capacidad predictiva del colisionador. La medición de la masa asociada con el descubrimiento depende, lógica y causalmente, de la simulación. En breve, el descubrimiento del bosón de Higgs constituye la validación de todos los aspectos de la simulación, pues indica que la física simulada y el detector son fiables.

Y una cuestión clave. Para entender de qué modo la matemática, por sí misma, es capaz de aportar información física genuina, fijémonos en el modelo del grupo de renormalización, técnica que aporta información sobre el comportamiento de un sistema en un punto crítico. El grupo de renormalización permite establecer invariancia de escala bajo un conjunto de transformaciones que nos permite investigar cambios en un sistema físico contemplado a diferentes escalas. Merced a este método hemos comprendido fenómenos críticos de física estadística y de teoría cuántica de campos cuya intelección parecía vedada. La primera aplicación sistemática del grupo de renormalización en teoría cuántica de campos fue realizada por Gell-Mann y Low. Con ello se mostró que la electrodinámica cuántica podía mostrar una conducta simple de escala a pequeñas distancias.

Los problemas epistémicos que se plantean con la modelización se potencian en la evaluación del estatuto de la simulación por computador. No hay que preocuparse solo de que el modelo teórico represente adecuadamente la realidad, sino de que el proceso de discretización exigido para configurar el modelo teórico apto para una solución numérica pueda entrañar cambios sustanciales en el contenido informativo del modelo original. Por consiguiente, a las preocupaciones en torno a la resolución correcta del modelo, hay que sumar la determinación de la cuantía en que la simulación represente el sistema, la realidad. Puesto que las simulaciones se hallan a menudo asociadas a los computadores, su estatuto en cuanto experimentos está ligado a la noción de experimentos numéricos, que implican el uso de métodos numéricos.

Puedes obtener el artículo en...

Los boletines de Investigación y Ciencia

Elige qué contenidos quieres recibir.