Portada  |  26 febrero 2020

Alertan por un "futuro horrible" si avanza el desarrollo de robots asesinos

La Campaña es una alianza de 82 ONG de 32 países creada en 2012 que por primera vez realiza su reunión anual en un país del hemisferio sur.

Internacionales

Cinco activistas contra los sistemas de armas letales autónomas (LAWS) o robots asesinos coincidieron hoy en que se avanza hacia un "futuro horrible" si un tratado internacional no prohíbe su desarrollo futuro, y advirtieron que el uso de estos dispositivos implica "trasferir el riesgo (de muerte) del combatiente a la sociedad civil".

En ese sentido se expresaron hoy la premio Nobel de la Paz estadounidense Jody Williams; la ex programadora de Google Laura Nolan; la feminista africana Sylvie Ndongmo; y las especialistas argentinas María Pía Devoto y Vanina Martínez.

Fue durante la conferencia de prensa de apertura del Segundo Encuentro Global de la Campaña para Detener los Robots Asesinos que se desarrolla en Buenos Aires desde hoy, y hasta el viernes, en el Centro Cultural de la Ciencia.

La Campaña es una alianza de 82 ONG de 32 países creada en 2012 que por primera vez realiza su reunión anual en un país del hemisferio sur.

"Se está creando el 'momentum' internacional para que esta prohibición pueda suceder, y creemos que nuestros países tienen un rol que cumplir para alcanzar el consenso internacional y político necesario", dijo la anfitriona del encuentro y titular de la Red de Seguridad Humana en Latinoamérica y el Caribe (SEHLAC) María Pía Devoto.

Las LAWS "están diseñadas para atacar humanos, territorios o vehículos ocupados por humanos sin que participe la decisión humana" en contextos "preferentemente urbanos y residenciales", explicó la irlandesa Nolan, quien agregó que los robots asesinos "no sólo son drones: pueden ser tanques, submarinos, buques o aviones".

Nolan contó que renunció a su trabajo en Google cuando le pidieron que participara del Proyecto Maven, "una colaboración entre la empresa y el Departamento de Defensa de EEUU para enseñarle a los drones a tomar diferentes imágenes de personas, vehículos y patrones de vida" para elaborar modelos de ataque.

"No eran armas autónomas, pero le faltaba sólo un 5% para serlo, un sistema extremadamente problemático porque tenía que ver con la automatización de todo un acervo cognitivo que se usa para la vigilancia y la guerra", agregó.

Para Nolan, la proliferación de robots asesinos implicaría, por un lado, "una aceleración y amplificación de la guerra" y, por otro, "un sistema de transferencia del riesgo del combatiente a la población civil", cuyos elementos más vulnerables son "las mujeres y jóvenes".

Por su parte, Martínez, doctora en Ciencias de la Computación e investigadora del Conicet, hizo hincapié en "la preocupación que desde hace muchos años" embarga a buena parte de los científicos que trabajan en el área de la Inteligencia Artificial "en relación al desarrollo de armas autónomas letales", pero también sobre las "implicaciones sociales" de cada avance en esta materia.

En tanto, Williams, premio Nobel de la Paz 1997, activista contra las minas antipersonales, advirtió que el dron que mató al comandante iraní Qasem Soleimani "sólo fue una pequeña muestra de un futuro horrible de robots asesinos" (Ver entrevista aparte).

Comentarios