Una red neuronal en el sofá

La inteligencia artificial sirve para abordar el problema del sofá, un curioso y célebre problema geométrico.

[SonnyTunny/iStock]

En el segundo episodio de la serie The big bang theory, Sheldon y Leonard intentan subir un paquete por la escalera hasta el apartamento de su vecina Penny. La caja es enorme, casi tan ancha como la propia escalera, así que no parece tarea fácil. Sin embargo, Leonard observa que, al tratarse de un plano inclinado, la fuerza necesaria para elevar el bulto se ve reducida por un factor igual al se­no del ángulo de la escalera con la horizontal. Dicho esto, ambos empiezan a empujar con entusiasmo, hasta que Sheldon pregunta: «¿Cuál es tu fórmula para girar?».

Mover muebles dentro de una vivienda y, en particular, hacerlos pasar por esquinas nunca ha resultado sencillo. Encontramos referencias a este problema en otras series famosas, como Friends, donde (en el episodio 16 de la quinta temporada) tres de los protagonistas tratan de subir un sofá por la escalera mientras Ross grita una y otra vez: «¡Giradlo! ¡Giradlo! ¡Giradlo!». Y en la surrealista novela de Douglas Adams Dirk Gently: Agencia de investigaciones holísticas y sus secuelas (que también han inspirado un par de series de televisión), el traslado de sofás es un tema recurrente, y uno de los personajes llega a afirmar que sería muy útil saber de antemano si un mueble cabrá por las escaleras y las esquinas antes de comprarlo.

Todas estas reflexiones se condensan en un famoso problema matemático de planteamiento muy simple, pero que sigue abierto a día de hoy. Como es habitual en matemáticas, formularemos el problema en un mundo idealizado, que nos permita quedarnos solo con lo esencial y eliminar cualquier complejidad innecesaria. Para ello, imaginemos un mundo en dos dimensiones (como una hoja de papel) donde hay un pasillo de 1 metro de ancho y con una única esquina, en forma de letra L. Y ahora intentaremos mover un sofá a lo largo del pasillo. Este sofá también será bidimensional, así que no tendrá cojines, ni mando de la televisión, ni reposapiés motorizado: será simplemente una figura geométrica plana que quepa en el pasillo.

¿Pasará por la esquina ese sofá plano? Por supuesto, eso dependerá de su forma. Un sofá cuadrado de un metro de lado se deslizará sin problemas por todo el pasillo, suponiendo que las paredes de este son perfectamente suaves y sin fricción. En cambio, un sofá rectangular cuyos lados midan uno y dos metros podrá recorrer una parte del pasillo, pero nunca logrará doblar la esquina. En general, vemos de manera intuitiva que los sofás más pequeños, con un área menor, serán más fáciles de mover que los más grandes. En 1966, el matemático austríaco-canadiense Leo Moser se hizo la siguiente pregunta: ¿cuál es el área máxima que puede tener un sofá capaz de superar esa esquina? Y, ya de paso, ¿qué forma debe tener dicho sofá? Ese valor máximo del área se conoce como la «constante del sofá».

Cotas y más cotas

Responder a esas preguntas no es nada fácil. De hecho, es tan difícil que hasta la fecha nadie ha conseguido demostrar formalmente cuál es el mayor sofá. Aun así, ha habido intentos muy buenos, y todo apunta a que conocemos la constante del sofá con gran precisión, aunque todavía no tenemos la certeza de que sea imposible encontrar una solución mejor.

El primer paso para resolver este tipo de pro­blemas donde debemos hallar un número desconocido suele ser establecer cotas. Como acabamos de mencionar, existe una figura de área 1 (el cuadrado 1 × 1) que cabe por nuestra esquina. Por lo tanto, es seguro que el área que buscamos valdrá al menos 1. En términos matemáticos, decimos que 1 es una cota inferior para la constante del sofá. También hemos visto que un rectángulo 1 × 2 no conseguirá salvar la esquina. ¿Cabe afirmar, entonces, que 2 es una cota superior? ¡No! Quién sabe, quizás haya figuras de área 2, o incluso mayor, que nos sirvan. Y, de hecho, pronto veremos que así es.

Yendo más allá de cuadrados y rectángulos, lo siguiente que se nos puede ocurrir es usar un semicírculo de radio 1, como el que vemos en la siguiente figura:

Sofá semicircular. [Raimon Luna i Perelló]

Está claro que puede atravesar la esquina girando alrededor de su vértice, como le habría gustado a Ross. Teniendo en cuenta que el área de un círculo de radio vale πR2, obtenemos una nueva cota inferior: 

π/2 = 1,57...

 Así pues, ¡vamos haciendo progresos!

La primera mejora sustancial a esa cota la propuso John Hammersley en 1968, tan solo dos años después de que Moser planteara el problema. Su idea consistió en alargar el sofá semicircular que hemos mencionado, añadiendo en medio una sección recta con un hueco semicircular por el que pudiera deslizar el vértice de la esquina durante el giro. Tendríamos así un sofá con forma de auricular de teléfono retro, como el de la siguiente figura:

Sofá de de Hammersley. [Raimon Luna i Perelló]

Quizá ya no sea tan cómodo para sentarse, pero funciona, como podemos comprobar mediante un sencillo cálculo. Sabiendo que el rectángulo de la sección recta mide 1 × 4/π y el hueco semicircular tiene radio 2/π:

 

 

y que el área sombreada en azul coincide con la del sofá semicircular, hallamos que el área A de esta figura vale 

                         A = Asofá semicircular + Arectángulo − Ahueco semicircular

                            = π/2 + 4/π − (1/2)π(2/π)2

                            = π/2 + 2/π

                            = 2,2074..., 

que ya es mayor que 2. ¡Ya les advertí de que 2 no era una cota superior!

Esta figura ya empieza a ser bastante complicada y no es fácil mejorarla: el sofá puede doblar la esquina, pero pasa muy justo. Tal vez hayamos encontrado el sofá ideal, ¿no? Pues no. Veinticuatro años después, en 1992, Joseph L. Gerver se metió de lleno en el problema y se puso a analizar formas realmente complejas. No contento con usar rectángulos, círculos y líneas rectas, representó el sofá como una sucesión de curvas descritas por funciones matemáticas, pegadas una tras otra a lo largo del perímetro de la figura. Como si fuera un collar, pero con ecuaciones en vez de perlas. Créanme si les digo que el cálculo es apabullante. Gerver encontró un sofá capaz de superar la esquina, descrito por la concatenación de 18 curvas analíticas y muy parecido a primera vista al de Hammersley, pero algo más grande. En concreto, obtuvo un área de 2,2195..., que constituía una nueva cota inferior.

Llegados a este punto, esto parece la historia de nunca acabar. Parecemos condenados a seguir aumentando el área poco a poco, a través de cálculos cada vez más intrincados, hasta que abandonemos por agotamiento. Quizá sea así, pero lo cierto es que nadie ha hallado aún una solución mejor que la de Gerver. Por el contrario, cada vez estamos más convencidos de que su sofá es el mejor posible. En 2014, Philip Gibbs utilizó un ordenador moderno para estimar el área del sofá ideal... ¡y el resultado que obtuvo coincide con el de Gerver con una precisión de ocho cifras decimales! Si el sofá de Gerver no es el mejor, se le parece muchísimo. Sin embargo, el cálculo de Gibbs es aproximado: nadie nos asegura que no se pueda incrementar un poco más el área, aun­que sea a partir del noveno decimal.

Llevamos un buen rato hablando de cotas inferiores y nos hemos olvidado de las superiores. Resulta que estas son bastante más difíciles de encontrar y, por ahora, están bastante lejos del valor de Gerver. El propio Hammersley probó en su momento que el área debía ser menor que el doble de la raíz cuadrada de 2, es decir, 2,83... Más recientemente, en 2018, Yoav Kallus y Dan Romik demostraron mediante ordenadores que era inferior a 2,37. El propio Romik, una de las personas que más ha trabajado en el problema, halló una posible solución para un «sofá ambidiestro» (también llamado coche de Conway o piano de Shepard), capaz de girar con la misma facilidad hacia la derecha y hacia la izquierda. En este caso el sofá tiene una forma similar a unas gafas de sol, y su área es algo menor: 1,6450...

Dificultades intrínsecas

Pero ¿a qué se debe que esta cuestión resulte tan complicada? Por poner un ejemplo, hoy en día conocemos el valor de π con una precisión asombrosa. ¿Por qué nos cuesta tanto determinar el de la constante del sofá? Aunque no hay una respuesta sencilla, lo cierto es que el problema reúne varias características que lo hacen extremadamente difícil de atacar. En primer lugar, es lo que llamamos un problema de optimización. En esta clase de problemas, debemos ajustar algunos parámetros para lograr que una cantidad dada sea lo mayor (o menor) posible bajo ciertas restricciones. En nuestro caso, lo que tratamos de maximizar es el área, y la condición que debe cumplirse es que el sofá pueda superar la esquina.

Huelga decir que esos problemas suelen ser muy útiles en la vida real. A todos nos interesa saber qué decisiones tomar para maximizar las ganancias y minimizar las pérdidas, dentro de nuestras limitaciones. Y hay una inmensa cantidad de rompecabezas de todo tipo que pueden expresarse como problemas de optimización. Así, podemos intentar calcular cuál es el mejor momento para comprar o vender un producto. O qué geometría debe tener el ala de un avión para generar la máxima sustentación con el mínimo de peso. O, incluso, cuál es la forma más probable que adoptará una proteína en nuestro organismo. Seguro que se le ocurren más ejemplos: la lista es infinita. No solo eso, sino que casi todos los fenómenos que ocurren en la naturaleza se describen en función de alguna cantidad que se hace mínima o máxima. Esas magnitudes se conocen como potenciales, energías, entropías o acciones, y se emplean de manera rutinaria en todos los campos de la ciencia y la ingeniería.

A veces habrá que ajustar solo unos cuantos parámetros, algo que suele ser bastante fácil con las herramientas actuales. En otros casos, como el del sofá, tendremos que ajustar una curva en­tera, lo que supone un continuo infinito de parámetros. Eso requiere técnicas matemáticas más avanzadas, como las ecuaciones diferenciales, pero nada que no tengamos bajo control desde los tiempos de Euler y Lagrange, en el siglo XVIII. Sin embargo, el problema del sofá presenta dificultades añadidas, relacionadas con la restricción de que el mueble logre pasar por la esquina. A medida que gira el sofá, se deslizarán distintos puntos de su contorno por las paredes del pasillo, lo cual limita la forma que puede tener. Eso implica que el problema es no local: cada punto de nuestra figura geométrica depende de la posición (a priori desconocida) de otros puntos situados en el extremo opuesto de la propia figura.

Redes neuronales

Todo ello nos lleva a la herramienta más versátil que tenemos a nuestra disposición para abordar los problemas de optimización: la inteligencia artificial y los algoritmos de aprendizaje automático. En la mayoría de esos algoritmos, diseñamos un «modelo», una complicada operación matemática con muchos parámetros que podemos variar libremente. El objetivo se reduce entonces a averiguar qué valor debemos asignar a cada uno de los parámetros para que nuestro modelo realice la tarea que queremos, ya sea reconocer imágenes, escribir texto o conducir un coche autónomo. A tal fin, definimos una cantidad, llamada función de pérdida (o simplemente «pérdida»), que representa el error cometido por el modelo. El algoritmo será más eficaz cuanto menor sea esa función, así que nos encontramos de nuevo ante un problema de optimización: ha­brá que hallar los parámetros que minimizan la pérdida.

Dado que somos nosotros mismos quienes elegimos cómo calcular nuestra función de pérdida, sabemos qué efecto tendrá sobre ella cada cambio que hagamos en los parámetros. Así, podemos ir ajustándolos poco a poco para reducir la pérdida cada vez más. Este procedimiento se conoce como «entrenar» el modelo, de forma que «aprenda» a hacer su trabajo lo mejor posible. Para tareas sencillas, bastará con unos pocos parámetros, pero en los modelos más modernos y avanzados, el número de parámetros puede llegar a ser gigantesco. El rápido desarrollo de dispositivos de cálculo como los procesadores (CPU) y las unidades de procesamiento gráfico (GPU) y tensorial (TPU) nos permite entrenar modelos inmensos, a menudo, claro está, a costa de gastar una considerable cantidad de tiempo y energía.

Uno de los modelos más utilizados son las re­des neuronales. No hablamos de neuronas rea­les, como las del cerebro, sino de unidades de cálculo muy inspiradas en ellas. En nuestro caso, cada neurona es un objeto matemático simple que recibe ciertos impulsos en forma de números y genera otros. Estas neuronas suelen organizarse en diversas capas, de modo que la información producida por una capa se transmite a la siguiente hasta llegar al resultado final. Cuantas más capas tenga la red, más complejas serán las tareas que podrá realizar, y las redes con muchas capas se denominan «profundas», lo que da lugar al biensonante nombre de aprendizaje profundo. Existen muchos tipos de redes neuronales, pero aquí nos centraremos en la más sencilla.

Nuestra red neuronal tendrá la misión de deformar un círculo, transformando cada uno de sus puntos en un punto del contorno del sofá. Dado que un punto se define mediante sus coordenadas x e y, tanto la primera como la última capa tendrán dos neuronas. Ahora hay que definir una función de pérdida adecuada para este problema. Como queremos que el área sea máxima, lo primero que se nos ocurre es usar el área cambiada de signo: así, una menor pérdida conllevará un área mayor. Pero ¿cómo imponemos la condición de que el sofá debe pasar por la esquina? La manera de lograrlo es añadir una penalización que haga que la pérdida se torne muy grande cuando no quepa el sofá.

Para ello, procedemos tal y como se muestra en la siguiente figura:

Este sofá, generado por la red neuronal en las etapas tempranas del entrenamiento, aún no puede pasar por la esquina. Para corregirlo, penalizamos la parte que queda fuera del pasillo (<em>rojo</em>). [Raimon Luna i Perelló]

Giramos el sofá un ángulo elegido al azar y lo arrimamos a la parte exterior de la esquina, de modo que toque ambas paredes. Y, entonces, imponemos una penalización por los puntos que quedan fuera del pasillo por el otro lado (los que caen sobre la propia esquina). Así, la red aprenderá que debe evitar esa situación a toda costa. Durante el entrenamiento, repetimos esa operación para muchos ángulos aleatorios. Al principio, la red producirá un sofá con forma de patata que no cumple nada de lo que buscamos. Sin embargo, la silueta del sofá de Gerver irá apareciendo como por arte de magia a medida que avance el entrenamiento. Al concluir este, nuestro sofá es casi idéntico al de Gerver y su área nos da el valor esperado de 2,2195...:

El sofá ideal generado por la red neuronal tiene una forma muy parecida a la solución analítica de Gerver. [Raimon Luna i Perelló]

Una modificación trivial del programa sirve para generar el sofá ambidiestro de Romik, con su área de 1,6450...:

La red también produce un sofá ambidiestro que recrea muy bien la solución de Romik. [Raimon Luna i Perelló]

A estas alturas, quizá se estén preguntando pa­ra qué sirve todo esto. ¿Por qué dedicamos tanto esfuerzo a algo tan inútil? Podría alegar que en realidad no es tan intrascendente y que en nuestra vida diaria aparecen algunos problemas similares. Por ejemplo, hay quien sugiere que la sección transversal de nuestros glóbulos rojos tiene una forma sospechosamente parecida al sofá ambidiestro de Romik, lo que les ayudaría a deslizarse con más facilidad por las curvas y recovecos de los capilares sanguíneos. Pero no nos engañemos: la verdadera razón es que resulta muy divertido. 

Si tiene ganas de explorar más, un programa preparado por el autor permite jugar con la red neuronal para calcular el sofá ideal (normal o ambidiestro).

 

Puedes obtener el artículo en...

Los boletines de Investigación y Ciencia

Elige qué contenidos quieres recibir.

Responsable: Prensa Científica, S.A. Finalidad: enviarle por correo electrónico los boletines que haya solicitado recibir. Derechos: tiene derecho a acceder, rectificar y suprimir sus datos, así como a otros derechos, como se explica en la información adicional y detallada que puede consultar en nuestra Política de Privacidad.