Utilizamos cookies propias y de terceros para mejorar nuestros servicios y facilitarte el uso de la web mediante el análisis de tus preferencias de navegación. También compartimos la información sobre el tráfico por nuestra web a los medios sociales y de publicidad con los que colaboramos. Si continúas navegando, consideramos que aceptas nuestra Política de cookies .

1 de Octubre de 2019
Inteligencia artificial

La IA, en manos privadas

Las empresas tecnológicas orientan la investigación y la legislación de la inteligencia artificial en su propio beneficio.

GETTY IMAGES/ANDREYPOPOV/ISTOCK

El sector privado se ha movilizado para diseñar la ciencia, la ética y las leyes de la inteligencia artificial (IA). En mayo se cumplía el plazo de presentación de propuestas a la Fundación Nacional para la Ciencia de EE.UU. (NSF), para un nuevo programa de financiación de proyectos sobre imparcialidad en IA, en colaboración con Amazon. En abril, después de que la Comisión Europea publicara las Directrices éticas para el uso fiable de la IA, un miembro del grupo de expertos que las redactó las describió como un «lavado ético» controlado por el sector privado. En marzo, Google creó una comisión de ética en IA que se disolvió tras una semana marcada por la polémica. En enero, Facebook invirtió 6,7 millones de euros en un centro sobre ética e IA en la Universidad Técnica de Múnich.

Es fundamental la participación de las empresas en el diseño del futuro de la IA, pero no pueden utilizar su poder para diseñar la investigación sobre el impacto que sus sistemas producen en la sociedad. Los Gobiernos y las entidades públicas deben apoyar la investigación independiente, e insistir en que el sector privado proporcione los datos suficientes para que se pueda auditar su actividad.

Los sistemas algorítmicos de toma de decisiones afectan a todos los aspectos de nuestra vida: los seguros de salud y el tratamiento médico; las hipotecas y los transportes; el control policial y la libertad condicional y bajo fianza; las noticias más destacadas y la propaganda política y comercial. Como los algoritmos se alimentan de datos que reflejan las desigualdades sociales, tienden a perpetuar injusticias sistémicas si no se diseñan medidas para contrarrestarlos. Por ejemplo, cabe la posibilidad de que los sistemas que predicen la reincidencia delictiva hayan incorporado datos de control policial diferentes para poblaciones blancas y negras, o que quienes califican las posibilidades de los candidatos para acceder a un puesto de trabajo se alimenten de un historial sesgado de ascensos.

En la caja negra de los algoritmos, los prejuicios sociales se vuelven invisibles e impunes. Cuando se diseñan con el único fin de obtener beneficios, necesariamente dejan de servir al interés público. Los beneficios de Facebook y YouTube dependen de que los usuarios permanezcan en sus sitios web y de ofrecer a los anunciantes la tecnología para distribuir mensajes altamente personalizados, lo que puede resultar ilegal o peligroso.

Puedes obtener el artículo en...

¿Tienes acceso?

Los boletines de Investigación y Ciencia

Elige qué contenidos quieres recibir.