Por María Alicia Alvarado. Télam
Cómo detener el desarrollo de armas letales totalmente autónomas (LAWS) o “robots asesinos” es el tema convocante de un encuentro internacional que se desarrollará desde hoy hasta el viernes en Buenos Aires, con la participación Jody Williama, Premio Nobel de la Paz 1997, Laura Nolan, una programadora que renunció a su trabajo en Google por sospechar de los propósitos del proyecto de inteligencia artificial (IA) en el que estaba trabajando y la representante por África de la Liga Internacional de Mujeres por la Paz y la Libertad Sylvie Ndongmo.
Los robots asesinos son “sistemas de armas con capacidad de seleccionar y atacar objetivos sin un control humano significativo” y pueden no tener aspecto androide, dado que el software se puede implementar también en “un tanque, avión de caza o barco de guerra”.
Se trata de la segunda reunión global de la Campaña para Detener a los Robots Asesinos, una alianza de 82 ONGs entre las que se cuentan Human Right Watch y Amnistía Internacional, que se realizará desde el miércoles y hasta el viernes en el Centro Cultural de la Ciencia, Godoy Cruz 2270.
El encuentro de tres días del que participan más de un centenar de activistas de todo el mundo es abierto e incluirá charlas debate, talleres y reuniones; así como una intervención pública en Plaza de Mayo con la participación de “la robota María” (Ver recuadros).
“Llamamos a nuestros países a que lideren las negociaciones internacionales para la prohibición de los ‘killer robots’ porque es completamente inaceptable que se delegue a una máquina la decisión de matar”, dijo a Télam la anfitriona del encuentro, María Pía Devoto.
La campaña está promoviendo la creación de un convenio específico para impedir el desarrollo de LAWS que todavía no existen, pero que “ya se podrían fabricar” con las “herramientas económicas y computacionales” disponibles, según la investigadora del Conicet Vanina Martínez. Martínez aclaró que estos robots asesinos “no tiene nada que ver” con películas como “Terminator”.
“Estamos impulsando una prohibición preventiva similar a la que existe desde 1995 para las armas láser cegadoras, que se entendió iban a causar un daño excesivo“, agregó Devoto, quien dirige la Asociación para Políticas Públicas (APP), una de las organizaciones nacionales que integra la campaña.
“La premisa de la ciencia ficción es que las máquinas van a cobrar conciencia y actuar con sus propios objetivos, pero el problema no es ése -que nunca va a suceder-, sino que funcionarán con un software que no deja de ser hackeable y sujeto a errores de programación que al ser transmitidos al arma producirán un desastre”, dijo esta doctora en Ciencias de la Computación.
“Algunos apocalípticos plantean que los soldados robots no sienten hambre, sueño ni dolor; pero tampoco tienen espacio para la compasión o capacidad para hacer un análisis contextual de una realidad compleja y cambiante“, agregó Devoto
La campaña identifica como “precursores” a dispositivos como un robot fijo desarrollado por Corea del Sur que puede “identificar, rastrear y disparar a intrusos”; pero no al dron estadounidense que asesinó al general Qasem Soleimani, jefe de la Fuerza Quds del Cuerpo de la Guardia Revolucionaria Iraní, porque “hubo un operador humano, aunque haya estado a miles de kilómetros”, explicó.
Los peligros que plantean los killer robots son el traspaso de límites éticos y legales, pero también la reducción del umbral de inhibición para la guerra, el vacío de responsabilidad, la imprevisibilidad y el inicio de una nueva carrera armamentista.
La preocupación mundial se expresa en los pronunciamientos públicos de diferentes organismos y en la creación de un Grupo de Expertos Gubernamentales sobre LAWS dentro de la Convención sobre Ciertas Armas Convencionales de la ONU, en el marco del cual 30 países se pronunciaron por la prohibición, entre ellos la Argentina.
“El despliegue de tales sistemas es factible en años, no décadas”, advirtieron expertos encabezados por Stephen Hawking en una carta pública divulgada en 2015 que hoy tiene más de 4.500 firmas. “Y hay mucho en juego: las LAWS se han descrito como la tercera revolución en la guerra, después de la pólvora y armas nucleares”, anotaron.
Tras pronosticar que “se convertirán en los Kalashnikov del mañana” dado que “a diferencia de las armas nucleares, no requieren materias primas costosas o difíciles de obtener”, advirtieron que una vez desarrolladas, “solo será cuestión de tiempo hasta que aparezcan en el mercado negro y en manos de terroristas, dictadores (…) o señores de la guerra que desean perpetrar una limpieza étnica”. En un sentido parecido se expresaron dos años después más de 300 líderes del sector tecnológico, quienes urgieron a la ONU a “encontrar una forma de protegernos” de esta “Caja de Pandora”. “La IA es software y, como hay código libre disponible para que cualquiera lo utilice para lo que quiera, estos desarrollos se pueden hacer sin grandes inversiones”, explicó Martínez.
Charlas, talleres y el robot María en Plaza de Mayo
Charlas tipo TED, talleres y una intervención pública en Plaza de Mayo “con la presencia de la robot humanoide María”, son algunas de las actividades que integran el programa del Encuentro Global de la Campaña para Detener a los Robots Asesinos que se desarrollará entre el 26 y el 28 de febrero en Buenos Aires con unos 120 activistas de todo el mundo.
A las 14 habrá una charla debate sobre “Armas Autónomas Letales: perspectiva científica y legal latinoamericana”.
A las 18 todo se trasladará a la Plaza de Mayo, frente a la Casa Rosada, donde tendrá lugar una intervención pública a cargo de activistas de la Campaña, con la participación de la robot humanoide María.
El jueves y viernes se sucederán paneles, sesiones de trabajo en grupos pequeños y plenaria desde las 8 hasta las 18, con “Tratado de Reglamentación o Prohibición”, “Perspectiva científica latinoamericana”, “Planes nacionales y regionales”, entre otros.