Utilizamos cookies propias y de terceros para mejorar nuestros servicios y facilitarte el uso de la web mediante el análisis de tus preferencias de navegación. También compartimos la información sobre el tráfico por nuestra web a los medios sociales y de publicidad con los que colaboramos. Si continúas navegando, consideramos que aceptas nuestra Política de cookies .

1 de Agosto de 2016
inteligencia artificial

¿Hemos de temer a los robots superinteligentes?

Si no actuamos con cuidado, podremos acabar enfrentados a máquinas inteligentes y decididas cuyos objetivos entren en conflicto con los nuestros.

TAVIS COBURN

Es difícil evitar la inquietante sospecha de que la creación de máquinas más inteligentes que nosotros podría convertirse en un problema. Si los gorilas hubieran creado por accidente a los humanos mucho tiempo atrás, es probable que hoy, en peligro de extinción, desearan no haberlo hecho. Pero ¿por qué, en concreto, resulta problemática la inteligencia artificial (IA) avanzada?

La idea de Hollywood según la cual unas máquinas conscientes se vuelven malignas de modo espontáneo y capitanean ejércitos de robots asesinos no es más que una tontería. El verdadero problema tiene que ver con la posibilidad de que la IA llegue a ser extraordinariamente competente en la consecución de unos resultados que no sean los que deseamos. El legendario matemático Norbert Wiener, fundador de la cibernética, lo explicaba de este modo en 1960: «Si para alcanzar nuestros propósitos usamos medios mecánicos en cuyo funcionamiento no podemos interferir de manera eficaz, [...] más nos valdrá estar completamente seguros de que el propósito de la máquina sea uno que realmente deseemos».

Una máquina que tiene un objetivo concreto cuenta con otra característica que solemos asociar a los seres vivos: el deseo de preservar su propia existencia. No se trata de un rasgo innato en la máquina ni de uno introducido por los humanos: es una consecuencia lógica del simple hecho de que la máquina no puede alcanzar su propósito original si está muerta. Por tanto, si a un robot solo le damos la directriz de que nos haga el café, tendrá un buen incentivo para asegurar el éxito de su tarea inhabilitando su interruptor de apagado o incluso exterminando a quien interfiera en su misión. Si nos descuidamos, podríamos vernos participando en una suerte de partida de ajedrez global contra máquinas muy decididas y superinteligentes, cuyos objetivos habrían entrado en conflicto con los nuestros y en la que el tablero de juego sería el mundo real.

La perspectiva de participar en una partida de este tipo y perderla debería hacer reflexionar a los expertos en computación. Algunos investigadores defienden que podremos encerrar a las máquinas tras algún tipo de barrera protectora y usarlas para que resuelvan problemas complejos, pero sin permitirles jamás intervenir en el mundo real (por supuesto, esto significaría renunciar a los robots superinteligentes). Por desgracia, no es probable que semejante plan funcione: aún hemos que inven-
tar barreras que nos protejan de los seres humanos ordinarios, no digamos ya de máquinas superinteligentes.

Sin embargo, ¿podríamos afrontar directamente la advertencia de Wiener? ¿Es posible diseñar sistemas de IA cuyos objetivos no entren en conflicto con los nuestros? La tarea resulta bastante complicada; después de todo, los cuentos sobre el genio de la lámpara y los tres deseos suelen concluir con que el último deseo deshace los anteriores. Con todo, considero que tal objetivo es posible si el diseño de sistemas inteligentes se atiene a tres principios fundamentales.

Artículos relacionados

Otros artículos del informe especial La edad de oro de la inteligencia artificial

Puedes obtener el artículo en...

¿Tienes acceso?

Los boletines de Investigación y Ciencia

Elige qué contenidos quieres recibir.