Utilizamos cookies propias y de terceros para mejorar nuestros servicios y facilitarte el uso de la web mediante el análisis de tus preferencias de navegación. También compartimos la información sobre el tráfico por nuestra web a los medios sociales y de publicidad con los que colaboramos. Si continúas navegando, consideramos que aceptas nuestra Política de cookies .

1 de Agosto de 2019
filosofía

¿Deberían tener derechos los robots?

Un estimulante análisis sobre una cuestión más relevante de lo que muchos piensan.

ROBOT RIGHTS
David J. Gunkel
MIT Press, 2018

Pensar lo impensable: este es el ejercicio mental que propone David J. Gunkel en su libro Robot rights sobre la controvertida cuestión de si los robots deberían tener derechos. Controvertida porque, a ojos de la mayoría de los expertos, se trata de una pregunta ociosa, risible o, en el mejor de los casos, demasiado prematura y por tanto no merecedora de consideración. La opinión generalizada de la comunidad robótica (científicos, ingenieros y fabricantes) es que hay otras cuestiones más urgentes a las que dedicar esfuerzos y recursos, incluso dentro del ámbito de la ética y la legislación.

Invariablemente, el robot es objeto pasivo o instrumental del dilema ético, nunca sujeto. Lo cual se traduce en que el robot no posea ningún derecho, aunque sea objeto de una disposición legislativa. El impacto que los robots están empezando a tener en las sociedades avanzadas, y que se verá notablemente acrecentado en los próximos años, hace que el debate ético sea inevitable, necesario y que implique a todos los actores, desde el científico y el tecnólogo hasta el usuario final, pasando por el fabricante, el programador y el legislador.

La presencia y las acciones de robots fuera de entornos controlados, como la industria o los laboratorios, plantea espinosas cuestiones relativas a la seguridad personal, la salvaguarda de la privacidad y la dignidad, el impacto ambiental y socioeconómico, etcétera. Las leyes, que regulan derechos y obligaciones, son el instrumento del que se dota la sociedad para proporcionar un contenido práctico y ejecutivo a los principios éticos de los que se derivan. Todas las iniciativas legislativas relativas a los robots abundan en aspectos que atañen a la responsabilidad civil de sus actos. Por ejemplo, la resolución del Parlamento Europeo del 16 de febrero de 2017, con recomendaciones sobre normas de derecho civil sobre robótica, contempla incluso «crear a largo plazo una personalidad jurídica específica para los robots, de forma que, como mínimo, los robots autónomos más complejos puedan ser considerados personas electrónicas responsables de reparar los daños que puedan causar, y posiblemente aplicar la personalidad electrónica a aquellos supuestos en los que los robots tomen decisiones autónomas inteligentes o interactúen con terceros de forma independiente». No obstante, dicha responsabilidad no conlleva la atribución de derechos a estas «personas electrónicas» [véase «Ética en la inteligencia artificial», por Ramon López de Mántaras; Investigación y Ciencia, agosto de 2017].

El libro de Gunkel trata todas estas cuestiones de forma metódica. Para empezar, expone las dificultades conceptuales de definir robot y derechos, y repasa las variantes de rechazo que despierta juntar ambos términos. El autor opta por una acepción flexible y polisémica de la palabra robot, en la que cabe tanto su naturaleza artificial como el paradigma percibe-piensa-actúa que caracteriza vagamente a dichas máquinas. El experto puede comulgar con esta vaguedad en la definición, que se convierte en certeza ante la máquina concreta: en palabras de Joseph Engelberger, el padre del robot industrial, «no sabría definir robot, pero sé reconocer uno cuando lo veo».

En cuanto a la noción de derecho, el autor recurre a las incidencias hohfeldianas; esto es, a la categorización que hace un siglo estableció el jurista Wesley Hohfeld para la clasificación de derechos (pretensiones, libertades, poderes e inmunidades) con definiciones accesibles al lego en la materia. También se exponen dos teorías que abordan la cuestión sobre qué o quién puede ser titular de derechos: la volitiva (el potencial sujeto ha de ser capaz de reclamarlos para sí) y la de interés (tal reclamación es expresada por un sujeto de derecho para un tercero o un colectivo, como los animales no humanos o el entorno natural, por ejemplo). Todo este esfuerzo terminológico se traduce en la autocontención del texto, y dibuja un terreno de juego común para las diferentes disciplinas implicadas, los tecnólogos, los juristas y los filósofos.

El núcleo del libro se desarrolla en torno a dos afirmaciones: «los robots pueden tener derechos» y «los robots deberían tener derechos». A partir de ellas analiza sus negaciones y sus relaciones causales y adversativas, del tipo «los robots no pueden tener derechos y por tanto los robots no deberían tener derechos» (capítulo 2), o «aunque los robots no puedan tener derechos, los robots deberían tener derechos» (capítulo 5). En cada parte se exponen los argumentos de quienes abogan por la correspondiente sentencia, así como las dificultades y riesgos que se derivan de ella.

Cabe decir que este análisis se lleva a cabo con gran rigor y que es una experiencia intelectual gratificante por cuanto cuestiona ciertas ortodoxias interiorizadas de forma acrítica por su aparente obviedad. Simultáneamente, lejos de ser una exposición árida, está llena de ejemplos y anécdotas y no exenta de pasión, como cuando rebate los argumentos de Joanna Bryson («aunque los robots puedan tener derechos, no deberían tenerlos»), quien sostuvo provocativamente que «los robots deberían ser esclavos» en un ensayo homónimo de 2010 y en escritos posteriores. Por seguir con el ejemplo, en este caso Gunkel contrapone la compleja casuística legal asociada a los esclavos en la antigua Roma, así como el deterioro moral que supone para una sociedad estar basada en la esclavitud. Otra reflexión inquietante es la paradoja del consentimiento informado: ¿podemos (debemos) construir algo que luego pueda expresar su deseo de no haber sido construido?

Que el lector no espere acabar el libro con certezas absolutas. Aunque el autor aboga por la pertinencia de plantear la cuestión de los derechos de los robots, no acaba dando recetas. Pero sí nos proporciona algo mucho más valioso, que —aunque es una constante a lo largo del libro— desarrolla sobre todo en el último capítulo: el cuestionamiento de la relación de precedencia de la ontología sobre la ética, del es sobre el debería, en terminología de David Hume. Esta relación se tambalea precisamente por las dificultades de definir lo que es cuando se debaten términos como consciencia, sentiencia o vida confrontándolos al paradigma del robot inteligente; es decir, que trasciende la mera instrumentalidad [véase «¿Soy humano?», por Gary Marcus; Investigación y Ciencia, mayo de 2017]. Y lo hace a hombros de un gigante: el filósofo Emmanuel Lévinas, quien criticaba la tendencia de la filosofía occidental tradicional de búsqueda de lo esencial, reduciendo las diferencias y convirtiendo al otro en una modalidad de lo mismo.

A este procedimiento inclusivo, que para Lévinas es un acto de violencia etnocentrista ya que supone suprimir la diferencia, que es lo que precisamente caracteriza al otro, el filósofo contraponía la alteridad como vía de definición del ser: soy por el otro, porque contemplo el rostro del otro. Y si bien Lévinas nunca planteó la alteridad en otros términos que no fueran humanos, lo cierto es que Gunkel consigue hacer una relectura creíble de sus planteamientos ético-filosóficos para afrontar el rostro del robot y decidir, a partir de la interacción y no de prejuicios ontológicos, qué estatus legal estamos dispuestos a concederle.

Es un punto de vista lo suficientemente flexible como para amoldarse a la realidad presente y a la posible evolución futura de las máquinas inteligentes. Y aunque probablemente conduzca, durante bastante tiempo todavía, a no conceder un estatus legal diferente al que estemos dispuestos a otorgar a lo que sabemos o creemos que es un simulacro de ser inteligente o consciente, también deja espacio a la posibilidad de que, en algún momento, en algún futuro, contemplemos en el rostro del robot una alteridad dotada de inteligencia general y, en consecuencia, nos tengamos que plantear abrir un nuevo paraguas legal para ese nuevo ser.

Artículos relacionados

Puedes obtener el artículo en...

Los boletines de Investigación y Ciencia

Elige qué contenidos quieres recibir.