Utilizamos cookies propias y de terceros para mejorar nuestros servicios y facilitarte el uso de la web mediante el análisis de tus preferencias de navegación. También compartimos la información sobre el tráfico por nuestra web a los medios sociales y de publicidad con los que colaboramos. Si continúas navegando, consideramos que aceptas nuestra Política de cookies .

Kenneth Wilson

Tributo a uno de los físicos más profundos e influyentes del pasado siglo.

KEN WILSON MEMORIAL VOLUME
RENORMALIZATION, LATTICE GAUGE THEORY, THE OPERATOR PRODUCT EXPANSION AND QUANTUM FIELDS
Dirigido por Belal E. Baaquie, Kerson Huang, Michael E. Peskin y K. K. Phua
World Scientific, 2015

El trabajo de Kenneth G. Wilson (1936-2013) ha transformado radicalmente nuestra manera de entender la mecánica estadística, la teoría cuántica de campos y la física de partículas. Hoy hablamos de «interpretación wilsoniana» o de «argumento wilsoniano» para referirnos a un punto de vista que él introdujo y que ha pasado a ser central en nuestra forma de entender la naturaleza. World Scientific dedica un volumen conmemorativo a este gran personaje de la física del siglo XX, en el que, a través de una serie de artículos de antiguos estudiantes y colegas, nos presenta las contribuciones de Wilson a la física teórica, así como la influencia que estas han tenido. La selección de temas y autores nos ofrece un buen panorama tanto de los aspectos más técnicos de su obra científica como de su personalidad.

Para valorar el cambio de pensamiento que Wilson trajo a la física teórica, conviene recordar la situación existente a finales de la década de los cincuenta, cuando este comenzó su actividad científica. La teoría cuántica de campos había conocido su momento de gloria hacía ya más de una década con la formulación de la electrodinámica cuántica (QED), pero las cosas habían cambiado mucho desde entonces.

El éxito de la teoría cuántica de campos estaba basado en gran medida en la técnica de renormalización, la cual permitía conjurar los infinitos que aparecían en los cálculos. En el caso de las llamadas teorías renormalizables, como QED, estos infinitos se podían eliminar absorbiéndolos en un número reducido de parámetros de la teoría (como las masas y las cargas), cuyos valores estaban determinados por el experimento. Aunque de esta manera se conseguía una teoría predictiva, el procedimiento de renormalización era contemplado por muchos como algo oscuro y artificial, descrito de forma muy gráfica como «barrer los infinitos bajo la alfombra».

Otra razón que había llevado a una pérdida de confianza en la teoría cuántica de campos era su fracaso a la hora de formular una teoría satisfactoria de la interacción nuclear fuerte, a imagen y semejanza de lo que QED había hecho con el electromagnetismo. Pero incluso la misma QED empezaba ser cuestionada, ya que había serias dudas de su validez a energías arbitrariamente altas.

En este contexto, durante la década de los sesenta la atención en física de partículas se desplazó hacia teorías alternativas, en particular al llamado «programa de la matriz S», promovido por Geoffrey Chew y cuyo objetivo era el cálculo directo de cantidades observables evitando la cuantización de los campos. Ken Wilson pertenecía, sin embargo, al reducido grupo de físicos que mantuvieron su fe en la teoría cuántica de campos en esos momentos adversos. Su trabajo cuajó en una serie de fecundos artículos que vieron la luz entre 1965 y 1975 y que cambiaron nuestra visión de la mecánica estadística, la teoría cuántica de campos y la relación entre ambas.

Una de las consecuencias más importantes del trabajo de Wilson fue la clarificación de lo que significaba renormalizar, más allá de la regla práctica de «absorber infinitos» en los parámetros de la teoría [véase «Problemas físicos con muchas escalas de longitud», por Kenneth Wilson; Investigación y Ciencia, octubre de 1979; reeditado para «Grandes ideas de la física», colección Temas de IyC, n.o 80, 2015]. En física de partículas, cualquier pregunta con sentido físico que nos podamos hacer está relacionada con el resultado de algún experimento. A su vez, todo experimento está caracterizado por la escala natural de energías a la cual este tiene lugar (por ejemplo, 13 teraelectronvoltios en el Gran Colisionador de Hadrones del CERN) y por la precisión de nuestros detectores. Cabe entonces preguntarse de qué manera los procesos físicos a energías muy superiores a esta escala, y a las que nuestro aparato de medida no es sensible, afectan al resultado del experimento.

Wilson respondió a esta pregunta inspirándose en la manera en que la renormalización funciona en mecánica estadística. Lo que ocurre es que el efecto de la dinámica a energías muy elevadas (o, equivalentemente, a distancias muy pequeñas) está codificado en el valor de los parámetros de la teoría a energías bajas (esto es, a largas distancias). En QED, por ejemplo, el valor de la carga del electrón a una energía dada contiene información acerca de los procesos que tienen lugar a energías más altas. Por eso, su valor numérico cambia con la escala de energía del experimento, algo que ya habían descubierto Murray Gell-Mann y Francis Low en 1954.

Pero aún hay más: esa dinámica a cortas distancias, que no podemos observar directamente, genera, a distancias más largas, todas las posibles interacciones entre las partículas de la teoría que sean compatibles con las simetrías de esta. Esto no es un problema para nuestra descripción de baja energía, porque el efecto de estos acoplamientos inducidos entre las partículas —y que, en principio, son infinitos en número— son más y más pequeños a medida que aumenta su complejidad. Así, dada la precisión de nuestro experimento, solamente tenemos que incorporar un número finito de ellos en nuestros cálculos. El resto darían lugar a efectos que son cuantitativamente más pequeños que la resolución del aparato.

Esta concepción «wilsoniana» de la renormalización es también una reivindicación de las teorías no renormalizables, que habían sido consideradas hasta ese momento como no predictivas y, por lo tanto, poco menos que inútiles para la física de partículas. En realidad, tales teorías son descripciones efectivas válidas a energías por debajo de cierta escala natural que las caracteriza. En este régimen de energías, de todos los infinitos parámetros que necesitaríamos introducir para absorber los infinitos de la teoría, solamente un número finito de ellos es suficientemente importante para describir nuestro experimento.

Esta idea es especialmente iluminadora cuando la aplicamos a la gravedad. A escalas de energía muy por debajo de la energía de Planck (unos 1019 gigaelectronvoltios, GeV), la gravedad cuántica es perfectamente consistente y predictiva: la interacción gravitacional es débil y, a una precisión dada, tan solo necesitamos tener en cuenta un número finito de acoplamientos. Es solamente cuando nos acercamos a la energía de Planck que ya no podemos truncar los infinitos parámetros que caracterizan a la teoría, al ser todos del mismo orden de magnitud. En ese momento, es necesario sustituir la relatividad general por una teoría que la complete a energías por encima de la escala de Planck. Aunque hay candidatos para esta teoría completa de la gravedad cuántica —por ejemplo, la teoría de supercuerdas—, por el momento desconocemos sus detalles.

El llamado problema de la naturalidad, ahora central en la física de partículas, puede retrotraerse también al trabajo de Wilson. En 1971, el investigador argumentó que sería improbable encontrar partículas escalares ligeras en la naturaleza, ya que sus autointeracciones las harían tan pesadas que resultarían indetectables. Este problema es de gran relevancia en el modelo estándar, ya que es muy difícil entender por qué el bosón de Higgs, una partícula escalar, tiene una masa de 125 GeV, mucho menor que la escala natural de la teoría, que en principio sería la energía de Planck o la de gran unificación (en torno a 1016 GeV). La solución satisfactoria a esta cuestión es todavía uno de los grandes problemas conceptuales abiertos en la física de altas energías.

Wilson fue también pionero en el uso sistemático de ordenadores para el estudio de problemas fundamentales en física. En 1974 propuso formular la teoría cuántica de campos en un espaciotiempo discreto; esto es, en una red o retículo cúbico de cuatro dimensiones, caracterizado por la distancia entre puntos contiguos. Esta formulación reduce la teoría de campos a un sistema semejante a los estudiados en mecánica estadística y que puede simularse en un ordenador. La teoría original en el espaciotiempo continuo reaparece asociada a transiciones de fase en este sistema discreto. La idea ha sido extremadamente fructífera, ya que la teoría cuántica de campos en el retículo (lattice gauge theory) es en la actualidad la mejor fuente de información cuantitativa de la que disponemos para estudiar problemas como el confinamiento en cromodinámica cuántica (QCD).

Ken Wilson recibió el premio Nobel de física en 1982 por sus trabajos sobre mecánica estadística y transiciones de fase. En 1988 abandonó la Universidad Cornell, en la que había trabajado desde 1963, para trasladarse a la Universidad estatal de Ohio, en Columbus. Aunque sin abandonar completamente su trabajo en física de partículas, en esta segunda parte de su carrera su interés se trasladó en gran medida al problema de la educación. Su principal preocupación fue diseñar una reforma educativa que mejorase la formación científica de las nuevas generaciones, haciendo hincapié en que la física debe ser presentada como un viaje activo de descubrimiento que convierta a los jóvenes en protagonistas de su propio aprendizaje, y no como una árida lista de resultados para memorizar.

La influencia del legado intelectual de Wilson se extiende a muchos ámbitos. Puede resultar sorprendente que nuestros intentos por entender la naturaleza a lo largo de los siglos hayan tenido éxito sin que, para ello, fuera necesario conocer todos los detalles acerca de cómo está constituido el mundo a todas las escalas. Pero este hecho —que está detrás de la misma posibilidad del progreso científico— se explica «wilsonianamente» en tanto que, a una determinada escala de distancias, los detalles microscópicos están codificados en un conjunto relativamente pequeño de parámetros que pueden medirse.

Esta es la razón por la que Newton pudo formular las leyes del movimiento sin saber cómo interaccionaban los átomos entre sí, o Lavoisier las leyes de la química sin conocer la estructura electrónica de los átomos. Desde este punto de vista, es posible contemplar la historia de la física como un descenso en las escalas de distancia, una resolución progresiva de esos parámetros «wilsonianos» en términos de otros referidos a distancias más pequeñas, simultáneamente al descubrimiento de los grados de libertad «adecuados» (átomos, electrones y núcleos, o partículas elementales) para describir la física a tales escalas.

Artículos relacionados

Puedes obtener el artículo en...

Los boletines de Investigación y Ciencia

Elige qué contenidos quieres recibir.