La ametralladora puede ser montada en la torreta de un tanque o colocada en tierra sobre su propia plataforma. Cuando sus cámaras detectan figuras a la distancia, su software de inteligencia artificial identifica si se trata de humanos o de equipo militar, y lo más importante, si es amigo o enemigo.
Por el momento, esta no es todavía un arma autónoma: el soldado que recibe la información tiene que dar la orden de disparar, asegura la empresa fabricante devDroid, al presentarla en su país, Ucrania, en noviembre pasado.
Lo mismo dice Israel sobre otros sistemas de control a distancia que está empleando en la guerra en Gaza, como los perros-robot Vision 60, de la empresa estadunidense Ghost Robotics, o las motoconformadoras D-9, los temidos buldócers de Caterpillar: la intervención de inteligencia artificial permite que sus acciones sean mucho más veloces y eficaces, pero no actúan autónomamente, dice el ejército israelí, sino bajo la supervisión remota de un ser humano.
Los comandantes, sin embargo, se quejan de que la distancia genera una pérdida de tiempo en las comunicaciones que limita la capacidad de reacción y de que se pierde la señal en los túneles de Gaza.
Organizaciones especializadas alertan sobre los riesgos del inminente próximo paso: que esos y muchos otros aparatos letales, como drones aéreos y acuáticos, además de vehículos artillados, sean dotados de sistemas de toma autónoma de decisiones sobre las vidas de seres humanos. O sea, que alguien se pueda encontrar frente a una máquina que está resolviendo por su cuenta si debe o no eliminarlo.
En este contexto, pesa una información del 8 de noviembre: según la agencia Yonhap, en la empresa Donggoseong Export Agricultural Complex, en la provincia de Gyeongsang, en Corea del Sur, un brazo robótico industrial aplastó, mató y arrojó a una cinta transportadora a un técnico que lo inspeccionaba, porque no logró distinguirlo de una caja de verduras.
- Te recomendamos Las 5 claves de la IA para el futuro educativo y del crecimiento económico Negocios
Deshumanizar a las personas
Habsora o El Evangelio es una plataforma de inteligencia artificial cuyos algoritmos, mediante el método de “inferencia probabilística”, analizan grandes cantidades de datos para identificar patrones y hacer predicciones basadas en la probabilidad: si un individuo comparte suficientes características con otros identificados como combatientes enemigos, el sistema lo etiqueta como blanco, aunque no exista plena certidumbre.
En una entrevista para el periódico Yediot Ahronot, el ex jefe del Estado Mayor del ejército israelí, Aviv Kochavi, declaró el 30 de junio el ritmo de producción de objetivos militares solía ser de 50 cada año, pero “una vez que activamos esta máquina [El Evangelio], generó 100 objetivos nuevos cada día”.
Esta alta producción de dianas es trasladada a otro sistema llamado “Fábrica de Fuego”, que utiliza esos datos para calcular cargas de munición, priorizar miles de blancos para la fuerza aérea y los drones y plantear una calendarización de operaciones.
Hasta ahora, asegura el ejército israelí, ningún ataque se realiza sin la aprobación final de un ser humano.
Pero la conjunción de una productora de objetivos, una planificadora de acciones y máquinas capaces de ejecutarlas, preocupa a Stop Killer Robots (que se traduce como Alto a los Robots Asesinos), una red de 250 organizaciones formada en 2012 que el 4 de marzo advirtió que:
“El uso de robots equipados con sensores y sistemas automatizados por parte de los Estados plantea importantes preocupaciones sobre los crecientes niveles de deshumanización digital en los conflictos y la falta de regulación a pesar del creciente uso de estas tecnologías.
Las incertidumbres en torno a las capacidades de los robots utilizados por los militares, el alcance de sus funciones autónomas y su potencial armamentismo resaltan aún más por qué se necesita con urgencia una nueva ley internacional sobre la autonomía en los sistemas de armas”.
Por su parte, la organización no gubernamental Public Citizen publicó el 29 de febrero un informe para alertar de que las armas autónomas “deshumanizan inherentemente a las personas objetivo y hacen que sea más fácil tolerar matanzas generalizadas”, lo que viola el derecho internacional humanitario.
Aunque se insiste en que los algoritmos correctos van a prevenir el daño a inocentes, Public Citizen señala que “los ataques con drones en la llamada guerra contra el terrorismo han matado, como mínimo, a cientos de civiles, un problema debido a la mala (información de) inteligencia y a las circunstancias, no a fallos de disparo de los drones”, por lo cual es previsible que la introducción de sistemas autónomos agravará los riesgos.
- Te recomendamos ¿Cómo reducir los riesgos de la IA? Tecnología
Exigen prohibición de armas autónomas
En enero de 2023, el Departamento de Defensa de Estados Unidos trató de atender la problemática al emitir una directiva sobre el uso de funciones autónomas y semiautónomas en sistemas bélicos.
En ese documento, establece principios éticos para asegurar que el personal a cargo actuará “con el cuidado adecuado y de conformidad con el derecho de la guerra, los tratados aplicables, las reglas de seguridad de los sistemas de armas y las reglas de enfrentamiento aplicables”, y se propone introducir “medidas deliberadas para minimizar los sesgos no deseados”.
Tras revisar esa regulación, Human Rights Watch y la Clínica Internacional de Derechos Humanos de la Facultad de Derecho de Harvard concluyeron que “constituye una respuesta inadecuada a las graves preocupaciones y riesgos éticos, legales, de responsabilidad y de seguridad que plantean los sistemas de armas autónomos”.
Señala que la aplicación de esa directiva es muy limitada, porque sólo alcanza al Departamento de Defensa y no a otros organismos como la Agencia Central de Inteligencia o la Oficina de Aduanas y Protección Fronteriza.
Además de que permite las ventas y transferencias internacionales de armas autónomas a países que no tendrán que sujetarse a esas normas.
Por eso, Public Citizen pide que “Estados Unidos se comprometa a no desarrollar ni desplegar armas autónomas y a apoyar un tratado global” que las prohíba.
En esa tesitura, las organizaciones de la red Stop Killer Robots concluyen: “Dado que el secretario general de la ONU, el Comité Internacional de la Cruz Roja y más de 100 países han pedido un instrumento legal sobre sistemas de armas autónomos, existe una necesidad urgente de prohibiciones y regulaciones claras sobre la autonomía de los sistemas de armas en el derecho internacional”.
MO