Utilizamos cookies propias y de terceros para mejorar nuestros servicios y facilitarte el uso de la web mediante el análisis de tus preferencias de navegación. También compartimos la información sobre el tráfico por nuestra web a los medios sociales y de publicidad con los que colaboramos. Si continúas navegando, consideramos que aceptas nuestra Política de cookies .

1 de Julio de 2015
Informática

Más allá de la ley de Moore

Ante el límite físico al que se enfrenta la miniaturización de los transistores, los fabricantes han decidido invertir millones en el desarrollo de nuevas técnicas de cómputo.

DAN SAELINGER

En síntesis

Hasta ahora, el progreso informático ha dependido de la ley de Moore: la predicción de que, cada dos años, el número de transistores contenidos en un chip se duplicaría. Sin embargo, la miniaturización de estos componentes se topará pronto con sus límites físicos.

Por esa razón, los fabricantes de microchips han comenzado a invertir miles de millones en el desarrollo arquitecturas informáticas, memorias y sistemas de procesamiento completamente nuevos, algunos de ellos basados en materiales distintos del silicio.

Aunque aún es pronto para saber qué técnicas emergerán durante los próximos años, todo apunta al nacimiento de una «computación heterogénea», caracterizada por integrar sistemas específicos que ejecuten tareas antaño asignadas a un único procesador central.

En una minúscula sala de conferencias sin ventanas de las oficinas de I+D de Intel, Mark Bohr, director de integración y arquitectura de procesos, explica que la ley de Moore, tal y como suele entenderse, ha muerto. De hecho, murió hace ya algún tiempo. El veredicto de Bohr tal vez sorprenda, pues su trabajo consiste justamente en aplicar la ley de Moore: ingeniárselas para reducir a la mitad el tamaño de los transistores actuales de Intel, de 14 nanómetros, en lo que queda de década. Pero Bohr ni siquiera pestañea: «La era de la compresión tradicional de transistores, consistente en reducir la misma estructura básica fabricada con los mismos materiales, terminó hace unos diez años».

En 1965, Gordon Moore, por entonces director de I+D en Fairchild Semiconductor, publicó un artículo titulado «Cómo encajar más componentes en los circuitos integrados». En él vaticinó que el número de transistores que podrían incorporarse en un chip a un coste óptimo se duplicaría cada año. Una década después revisó su predicción y estableció lo que hoy conocemos como ley de Moore, según la cual el número de transistores se dobla cada dos años.

Los circuitos integrados hacen funcionar los ordenadores, pero la ley de Moore los hace evolucionar. Los transistores (diminutos interruptores que codifican los unos y los ceros en forma de diferencias de voltaje) constituyen los «átomos» del cálculo electrónico. Por eso, duplicar la cantidad de ellos que caben en un mismo espacio físico equivale a multiplicar por dos la cantidad de cálculos que pueden efectuarse a un mismo precio. El primer microprocesador genérico de Intel, el 8080, comercializado en 1974, contribuyó a la revolución de los ordenadores personales. Aquella oblea de silicio de dos pulgadas y con forma de chocolatina contenía 4500 transistores. En estos momentos, las unidades centrales de procesamiento (CPU) de los servidores de alto rendimiento de Intel (los chips más densos disponibles en el mercado) incluyen 4500 millones de transistores. En las fábricas de Intel en Hillsboro, en Oregón, los procesos de producción más modernos de la compañía graban en una oblea de silicio componentes de 14 nanómetros, más delgados que el flagelo de una bacteria. Ese crecimiento exponencial en la densidad de transistores ha transformado las grandes calculadoras de válvulas de vacío, que a mediados del siglo XX ocupaban una habitación, en las maravillas de silicio que tenemos hoy.

Artículos relacionados

Puedes obtener el artículo en...

¿Tienes acceso?

Los boletines de Investigación y Ciencia

Elige qué contenidos quieres recibir.