El problema del año 2000

La solución del problema del año 2000 no parece difícil: bastará representar con cuatro cifras los años expresados con dos. Pero esa tarea, tediosa y compleja, requiere más tiempo del disponible.
Parte de la explicación de que el año 2000 provoque un problema informático pertenece al dominio de la psicología. Se halla escondida en un lugar inesperado, en el carrolliano Alicia en el País de las Maravillas, pieza clásica de la literatura infantil. Allí, el Sombrerero Loco pregunta: ''¿Dice tu reloj en qué año estamos?'' Y Alicia responde: ''¡Claro que no! Pero eso es porque sigue siendo el mismo año mucho tiempo.''
Muchas han sido las causas de que los programadores, el autor entre ellos, optasen por representar los años con sólo dos dígitos; por ejemplo, 55 para expresar 1955, o 23/10/76 para el 23 de octubre de 1976. Hace decenios, los soportes materiales de la informática eran muy costosos y los recursos, escasos. La memoria de los ordenadores era muy cara. Las tarjetas perforadas típicas tenían una anchura de sólo 80 columnas. En favor de la notación abreviada se adujeron también razones de eficiencia, por ser menor el número de pulsaciones a efectuar en los teclados. La inexistencia de notaciones normalizadas consintió que estas ideas se llevaran a la práctica. Y por otra parte, muchos de nosotros creíamos sincera (aunque erróneamente) que los programas que estábamos redactando habrían quedado fuera de servicio mucho antes de la conclusión del milenio. La pura inercia, sumada al argumento de Alicia en el té del Sombrerero (¿para qué más de dos cifras, si el siglo dura tanto?), hizo que se continuase actuando igual, mucho después de que las consideraciones de memoria y coste hubieran dejado de ser razones válidas para ello.

Puedes obtener el artículo en...

¿Tienes acceso a la revista?

Los boletines de Investigación y Ciencia

Elige qué contenidos quieres recibir.