Utilizamos cookies propias y de terceros para mejorar nuestros servicios y facilitarte el uso de la web mediante el análisis de tus preferencias de navegación. También compartimos la información sobre el tráfico por nuestra web a los medios sociales y de publicidad con los que colaboramos. Si continúas navegando, consideramos que aceptas nuestra Política de cookies .

1 de Septiembre de 2017
Lingüística computacional

Conversar con un robot

Los sistemas cognitivos de Google y otros programas de inteligencia artificial deducen el significado del lenguaje humano a partir de métodos estadísticos y redes neuronales artificiales. Pero todavía deben aprender a entender y contar historias.

GALLERY STOCK / VINCENT FOURNIER

En síntesis

Durante décadas, los lingüistas computacionales intentaron, con modesto éxito, transmitir a las máquinas el significado del lenguaje humano. En la actualidad lo consiguen mediante el aprendizaje profundo.

Los algoritmos trocean los textos en sus elementos sintácticos y representan su significado en redes semánticas. Estos sistemas optimizan el procesamiento del lenguaje natural a partir de principios estadísticos.

Para seguir aproximándose a la inteligencia lingüística humana, las máquinas necesitan un conocimiento cotidiano práctico. Por ese motivo están aprendiendo a deducir emociones, motivaciones y esquemas de conducta a partir de los textos.

En la primavera de 2015, expertos en tecnología de la información (TI) empezaron a discutir a través de blogs especializados sobre los insólitos cambios que estaban experimentando en Google. De repente, sus páginas web habían escalado unos cuantos puestos en los resultados de búsqueda o, por el contrario, se habían hundido. Supusieron que se trataba de una actualización del motor de búsqueda. Al principio, Google no se pronunció al respecto. Pero, meses más tarde, en otoño, la empresa dio a conocer que una inteligencia artificial (IA) bautizada con el nombre de RankBrain formaba parte de su motor de búsqueda. Según explicaron, era capaz de interpretar el sentido y la intención de las consultas ambiguas o coloquiales. Desde entonces, RankBrain participa en la decisión de los resultados de Google.

Con todo, existen diversos algoritmos de este tipo. Por ejemplo, desde finales de 2015, Facebook utiliza un software de IA para elegir las fotografías que aparecen en la cronología de sus usuarios. Pero ¿se trata realmente de una inteligencia artificial? Los expertos prefieren hablar de sistemas cognitivos o, abreviado, cog. Estos cuentan con facetas de la inteligencia humana, entre ellas, interpretar palabras ambiguas de manera correcta y formular preguntas para precisar un problema. Los cogs se optimizan a sí mismos permanentemente, es decir, aprenden. Pero reconocer el lenguaje natural, entenderlo y emitirlo supone uno de sus cometidos más difíciles.

Este campo científico, que antes se solía denominar lingüística computacional, se conoce hoy como procesamiento del lenguaje natural, si bien en el sector de la economía y en el de la industria resultan más habituales los conceptos de análisis de textos y minería de textos. El procesamiento automático del lenguaje se emplea para categorizar los correos electrónicos y comentarios de los clientes, evaluar documentos jurídicos o protocolos de seguridad y optimizar los mensajes publicitarios, entre otras tareas. En medicina, los sistemas cognitivos comparan los cuadros médicos y los historiales clínicos con posibles diagnósticos y buscan métodos terapéuticos que ofrezcan el mejor pronóstico para casos individuales.

Los cogs también generan textos periodísticos. Actualmente, Google respalda a numerosas empresas europeas de medios de comunicación que quieren integrar la tecnología lingüística inteligente en su oferta. La agencia de noticias AP produce desde 2014 noticias automáticas sobre las cifras de negocio de empresas estadounidenses. Aunque, en promedio, los lectores consideran que los textos creados de forma artificial resultan menos legibles, los estiman más creíbles, hallaron en 2016 científicos de la Universidad Ludwig Maximilian de Múnich tras solicitar a casi 1000 sujetos que valoraran noticias deportivas y financieras. No obstante, cuando les explicaban que una máquina había escrito el texto, las valoraciones se volvían más negativas, independientemente del verdadero autor de la información.

No solo los legos ven con escepticismo que las máquinas realicen tareas humanas. La patronal tecnológica alemana Bitkom señala que los cogs funcionan «como una caja negra». Es difícil comprender cómo llegan a sus conclusiones, lo que incrementa el riesgo de «malinterpretar completamente los resultados de los análisis cognitivos complejos». Por esta razón, los expertos exigen que se den a conocer públicamente las fuentes de datos y los algoritmos de periodistas robóticos y otros sistemas cognitivos. Los filósofos advierten, además, que el comportamiento de los programas apenas resulta previsible. ¿Y cómo puede impedirse que una IA se aproveche para intereses turbios?

Artículos relacionados

Puedes obtener el artículo en...

¿Tienes acceso?

Los boletines de Investigación y Ciencia

Elige qué contenidos quieres recibir.