‘El Evangelio’ en Gaza: la Inteligencia Artificial multiplica la letalidad

Antes, el ejército israelí producía 50 blancos de ataque al año. Con el programa HaBsora —el Evangelio—, genera 100 diarios, calculando incluso cuántos civiles morirán en cada lanzamiento.

‘El Evangelio’ en Gaza: la Inteligencia Artificial multiplica la letalidad. | Diseño: Óscar Ávila
Tel Aviv /

En el sistema bélico israelí, El Evangelio es una plataforma de Inteligencia Artificial (IA) que permite matar de una manera más eficiente y cientos de veces más veloz que los antiguos métodos.

El 1 de diciembre, es decir el día en que reiniciaron los combates tras un cese al fuego de una semana, presumió sus capacidades al anunciar que en sólo 24 horas había logrado atacar 400 objetivos.

Todo un récord: en la guerra de 2014, que duró 51 días, tempranamente empezaron a bombardear de manera desordenada porque en apenas dos semanas habían agotado todos los objetivos que prepararon e identificaron durante años, y se vieron en la necesidad de improvisar.

Ahora, eso ha dejado de ser un problema. El 30 de junio, el general y ex jefe del Estado Mayor, Aviv Kochavi, le dio una entrevista al periódico Yediot Ahronot, que en ese momento pasó desapercibida, en la que se refirió a un grupo establecido sólo tres años antes, la División Administrativa de Objetivos, compuesta de cientos de oficiales y soldados que emplean Inteligencia Artificial.

Aviv Kochavi, ex jefe del Estado Mayor. | Foto: Especial

No mencionó el nombre de la nueva plataforma pero la describió como “una máquina que procesa vastas cantidades de datos más rápido y más efectivamente que cualquier ser humano, convirtiéndolas en objetivos accionables. En la Operación Guardián de las Murallas (una ofensiva contra Gaza de 11 días en mayo de 2021), una vez que activamos esta máquina, generó 100 objetivos nuevos cada día. Para ponerlo en perspectiva, en el pasado producíamos 50 objetivos en Gaza cada año”.

Bombardeos en la Franja de Gaza. | Foto: AFP


La IA predice y calcula, humanos ejecutan


El 2 de noviembre, el ejército israelí reconoció en un comunicado de prensa el uso de una plataforma de IA de generación de objetivos que se llama HaBsora o El Evangelio, la cual, “a través de la extracción automática y rápida de inteligencia actualizada produce blancos a un ritmo veloz. 

Genera una recomendación para el investigador, con el objetivo de que haya una correlación completa entre la recomendación de la máquina y la identificación realizada por una persona”.

Una investigación de los medios israelíes, Sikha Mekomit y +972, publicada el 30 de noviembre, incluyó los testimonios de siete miembros actuales y retirados de la comunidad de inteligencia israelí, que revelaron cómo funciona ese sistema: crea objetivos empleando un método denominado “inferencia probabilística”, mediante el que los algoritmos analizan grandes cantidades de datos para identificar patrones. 

Su eficacia depende tanto de la calidad como de la cantidad de datos que procesa, y utiliza los patrones para hacer predicciones basadas en la probabilidad: si un individuo comparte suficientes características con otros identificados como combatientes enemigos, el sistema lo etiqueta como blanco, aunque no exista plena certeza.

Esta plataforma interactúa con otra conocida como Fábrica de Fuego, que utiliza los datos de los objetivos aprobados para calcular cargas de munición, priorizar miles de blancos para la aviación y los drones y plantear una calendarización de ataques.

Estos sistemas de Inteligencia Artificial, según describió una de las fuentes a los investigadores, “esencialmente facilitan una fábrica de asesinatos en masa”.

Bombardeos en la Franja de Gaza. | Foto: AFP

“Sabemos cuánto daño colateral causamos”

Los objetivos bajo ataque en Gaza se dividen en cuatro categorías: los blancos tácticos,como grupos de combatientes, arsenales, lanzadores de cohetes y de misiles antitanque, cuarteles y puestos de observación; los blancos subterráneos, que son los túneles de Hamás y las construcciones civiles que pueda haber sobre ellos; los blancos de poder, con la intención de crear malestar popular contra Hamás, como las torres residenciales de las ciudades y edificios públicos como oficinas gubernamentales, bancos y universidades; y finalmente, los hogares de los operadores de Hamás, con quienes vivan ahí o en las proximidades. Muchas veces, una torre de departamentos es derribada porque se cree que en uno de sus pisos había algo relacionado con Hamás.

Mujer camina entre escombros de un edificio bombardeado en Palestina. | Foto: AFP

Israel ha asegurado que la IA le permite salvar vidas civiles. Pero el número sin precedentes de víctimas indica lo contrario. Y de hecho, el 9 de octubre, en una de sus primeras declaraciones al inicio de la guerra, el portavoz militar, Daniel Hagari, adelantó que “el énfasis estará en (causar) daño, no en la precisión”.

Según el reporte de los reporteros de Sikha Mekomit y de +972, “el ejército ha expandido significativamente el bombardeo de objetivos de naturaleza no militar”. Cuenta con archivos sobre la gran mayoría de objetivos potenciales en Gaza, incluyendo hogares, que estipulan el número de civiles que probablemente morirán en un objetivo determinado.

“Este número es calculado y conocido previamente por las unidades de inteligencia militar, que también saben, poco tiempo antes de un ataque, exactamente y con certeza cuántos civiles morirán”.

Otras veces, “bombardeamos con base en una señal de celular que, en una zona amplia, indica dónde está el blanco, matando a civiles. Con frecuencia, esto se hace para ahorrar tiempo, en lugar de hacer algo más trabajo para conseguir una indicación más precisa”.

Bombardeos en la Franja de Gaza. | Foto: AFP

Las fuentes de la investigación indicaron que ha aumentado exponencialmente la permisividad para matar a civiles como “daños colaterales” en casos, por ejemplo, como el intento de asesinar a un solo alto mando militar de Hamás: “Los números se incrementaron de docenas de muertes de civiles en operaciones previas, a cientos de muertes de civiles”.

“Nada pasa por accidente”, declaró uno de los informantes que conocen la inteligencia israelí.

“Cuando matan a una niña de tres años en un hogar de Gaza, es porque alguien en el ejército decidió que no era un gran problema que la mataran, que era un precio correcto a pagar para acabar con el objetivo. No somos Hamás. Estos no son cohetes que van a caer en cualquier lugar. Todo es intencional. Sabemos exactamente cuánto daño colateral causamos en cada casa”.

IOG

  • Témoris Grecko
  • Periodista, documentalista y analista político que ha cubierto conflictos sociales y armados en 95 países y territorios, publicado siete libros y escrito cinco documentales.

LAS MÁS VISTAS

¿Ya tienes cuenta? Inicia sesión aquí.

Crea tu cuenta ¡GRATIS! para seguir leyendo

No te cuesta nada, únete al periodismo con carácter.

Hola, todavía no has validado tu correo electrónico

Para continuar leyendo da click en continuar.