La economía de la atención

Comprender el modo en que los algoritmos y los manipuladores explotan nuestras vulnerabilidades cognitivas nos ayuda a defendernos.

CRISTINA SPANÒ

En síntesis

La proliferación de la información reduce su calidad, y las redes sociales amplifican nuestros sesgos cognitivos de un modo nocivo. Eso nos hace vulnerables a la polarización y la manipulación.

Para protegernos contra los engaños y restablecer la salud del ecosistema informativo, resulta esencial comprender esas vulnerabilidades cognitivas y cómo las explotan los algoritmos y bots.

Las herramientas informáticas pueden ayudarnos a detectar cuentas falsas o a visualizar la propagación de bulos, pero para poner freno a la desinformación harán falta cambios institucionales.

A Andy le preocupa contraer la COVID-19. Incapaz de leer todos los artículos que ve sobre el tema, busca consejo en sus amigos de confianza. Cuando uno opina en Facebook que el miedo a la pandemia es exagerado, Andy descarta esa idea. Pero entonces el hotel donde trabaja cierra sus puertas y, al ver peligrar su trabajo, Andy empieza a preguntarse cuán seria es en realidad la amenaza del nuevo virus. Después de todo, no conoce a nadie que haya muerto por contagiarse. Un compañero de trabajo comparte un artículo que sostiene que el «pánico» a la COVID-19 lo han pergeñado las grandes farmacéuticas en connivencia con los políticos corruptos, lo que encaja con los recelos de Andy hacia el Gobierno. Una búsqueda en Internet le lleva enseguida a páginas que afirman que la COVID-19 no es peor que la gripe. Andy se une a un grupo virtual de personas que han sido despedidas o temen que eso suceda y pronto se cuestiona, como muchos de ellos, si la pandemia es real. Cuando se entera de que varios de sus nuevos amigos piensan participar en una manifestación en contra de los confinamientos, decide acompañarlos. Casi ninguno de los asistentes a la protesta masiva lleva mascarilla, y él tampoco. Más tarde su hermana le pregunta sobre la manifestación, y Andy le transmite una convicción que ya forma parte de su identidad: la COVID-19 es un engaño.

Este ejemplo ilustra una profusión de sesgos cognitivos. Preferimos la información que procede de personas en las que confiamos, nuestro «endogrupo». Prestamos más atención a la información sobre riesgos (el de perder el trabajo, en el caso de Andy) y somos más propensos a compartirla. Buscamos y recordamos cosas que encajan con lo que ya sabemos y entendemos. Estos sesgos son producto de nuestro pasado evolutivo y nos han ayudado durante decenas de miles de años: quienes se comportaban de acuerdo a ellos (por ejemplo, no acercándose a la orilla de un estanque donde alguien afirmaba haber visto una víbora) tenían más probabilidades de sobrevivir.

Sin embargo, las nuevas tecnologías amplifican esos sesgos de manera perniciosa. Los motores de búsqueda dirigen a Andy a páginas que exacerban sus sospechas, y las redes sociales le conectan con gente que piensa como él, dando pábulo a sus miedos. Para empeorar las cosas, los bots (cuentas automatizadas que se hacen pasar por personas) permiten que actores mal informados o malintencionados se aprovechen de sus vulnerabilidades.

La proliferación de la información en línea agrava el problema. Ver y crear blogs, vídeos, tuits y memes se ha vuelto tan fácil y asequible que el mercado de la información está inundado de ellos. Incapaces de procesar todo ese material, dejamos que nuestros sesgos cognitivos decidan dónde debemos dirigir nuestra atención, y estos atajos mentales influyen de forma perjudicial en qué tipo de información buscamos, comprendemos, recordamos y repetimos.

Es urgente entender esas vulnerabilidades cognitivas y cómo las usan o manipulan los algoritmos. Nuestros equipos en la Universidad de Warwick y en el Observatorio de Redes Sociales (OSoMe, por sus siglas en inglés) de la Universidad de Indiana en Bloomington emplean experimentos cognitivos, simulaciones, minería de datos e inteligencia artificial para comprender las vulnerabilidades de los usuarios de redes sociales. Los estudios psicológicos sobre la evolución de la información que se realizan en Warwick sirven de guía para los modelos informáticos diseñados en Indiana, y viceversa. También desarrollamos herramientas analíticas y de aprendizaje automático para luchar contra la manipulación en las redes sociales. Algunas de ellas ya ayudan a periodistas, organizaciones de la sociedad civil y ciudadanos de a pie a detectar actores falsos, visualizar la propagación de bulos y fomentar la alfabetización en materia de noticias.

Puedes obtener el artículo en...

¿Tienes acceso a la revista?

Los boletines de Investigación y Ciencia

Elige qué contenidos quieres recibir.