Utilizamos cookies propias y de terceros para mejorar nuestros servicios y facilitarle el uso de la web mediante el análisis de sus preferencias de navegación. También compartimos la información sobre el tráfico por nuestra web a los medios sociales y de publicidad con los que colaboramos. Si continúa navegando, consideramos que acepta nuestra Política de cookies .

Actualidad científica

Síguenos
  • Google+
  • RSS
  • Mente y Cerebro
  • Septiembre/Octubre 2017Nº 86

Lingüística computacional

Conversar con un robot

Los sistemas cognitivos de Google y otros programas de inteligencia artificial deducen el significado del lenguaje humano a partir de métodos estadísticos y redes neuronales artificiales. Pero todavía deben aprender a entender y contar historias.

Menear

En la primavera de 2015, expertos en tecnología de la información (TI) empezaron a discutir a través de blogs especializados sobre los insólitos cambios que estaban experimentando en Google. De repente, sus páginas web habían escalado unos cuantos puestos en los resultados de búsqueda o, por el contrario, se habían hundido. Supusieron que se trataba de una actualización del motor de búsqueda. Al principio, Google no se pronunció al respecto. Pero, meses más tarde, en otoño, la empresa dio a conocer que una inteligencia artificial (IA) bautizada con el nombre de RankBrain formaba parte de su motor de búsqueda. Según explicaron, era capaz de interpretar el sentido y la intención de las consultas ambiguas o coloquiales. Desde entonces, RankBrain participa en la decisión de los resultados de Google.

Con todo, existen diversos algoritmos de este tipo. Por ejemplo, desde finales de 2015, Facebook utiliza un software de IA para elegir las fotografías que aparecen en la cronología de sus usuarios. Pero ¿se trata realmente de una inteligencia artificial? Los expertos prefieren hablar de sistemas cognitivos o, abreviado, cog. Estos cuentan con facetas de la inteligencia humana, entre ellas, interpretar palabras ambiguas de manera correcta y formular preguntas para precisar un problema. Los cogs se optimizan a sí mismos permanentemente, es decir, aprenden. Pero reconocer el lenguaje natural, entenderlo y emitirlo supone uno de sus cometidos más difíciles.

Este campo científico, que antes se solía denominar lingüística computacional, se conoce hoy como procesamiento del lenguaje natural, si bien en el sector de la economía y en el de la industria resultan más habituales los conceptos de análisis de textos y minería de textos. El procesamiento automático del lenguaje se emplea para categorizar los correos electrónicos y comentarios de los clientes, evaluar documentos jurídicos o protocolos de seguridad y optimizar los mensajes publicitarios, entre otras tareas. En medicina, los sistemas cognitivos comparan los cuadros médicos y los historiales clínicos con posibles diagnósticos y buscan métodos terapéuticos que ofrezcan el mejor pronóstico para casos individuales.

Los cogs también generan textos periodísticos. Actualmente, Google respalda a numerosas empresas europeas de medios de comunicación que quieren integrar la tecnología lingüística inteligente en su oferta. La agencia de noticias AP produce desde 2014 noticias automáticas sobre las cifras de negocio de empresas estadounidenses. Aunque, en promedio, los lectores consideran que los textos creados de forma artificial resultan menos legibles, los estiman más creíbles, hallaron en 2016 científicos de la Universidad Ludwig Maximilian de Múnich tras solicitar a casi 1000 sujetos que valoraran noticias deportivas y financieras. No obstante, cuando les explicaban que una máquina había escrito el texto, las valoraciones se volvían más negativas, independientemente del verdadero autor de la información.

No solo los legos ven con escepticismo que las máquinas realicen tareas humanas. La patronal tecnológica alemana Bitkom señala que los cogs funcionan «como una caja negra». Es difícil comprender cómo llegan a sus conclusiones, lo que incrementa el riesgo de «malinterpretar completamente los resultados de los análisis cognitivos complejos». Por esta razón, los expertos exigen que se den a conocer públicamente las fuentes de datos y los algoritmos de periodistas robóticos y otros sistemas cognitivos. Los filósofos advierten, además, que el comportamiento de los programas apenas resulta previsible. ¿Y cómo puede impedirse que una IA se aproveche para intereses turbios?

Puede conseguir el artículo en:

Artículo individual

Artículos relacionados

Revistas relacionadas

BOLETÍN ACTUALIDAD¿Quieres estar al día de la actualidad científica? Recibe el nuevo boletín de actualidad con nuestros mejores contenidos semanales gratuitos (noticias y posts). Si lo deseas también puedes personalizar tu suscripción. BOLETÍN ACTUALIDAD¿Quieres estar al día de la actualidad científica? ¡Recibe el nuevo boletín de contenidos gratuitos! Ver más boletines.