Denuncian que ejército israelí ocupa la Inteligencia Artificial para seleccionar objetivos
Reportes de medios israelíes han sacado a la luz el uso de una base de datos con inteligencia artificial, denominada “Lavender”, por parte del ejército de Israel para seleccionar objetivos en la Franja de Gaza durante el último conflicto bélico.
De acuerdo con lo publicado por +972 Magazine y Local Call, Lavender habría señalado a miles de palestinos como potenciales objetivos para los ataques aéreos en Gaza. Fuentes anónimas de inteligencia israelí señalaron que, pese a un margen de error del 10%, el sistema fue empleado para agilizar la identificación y el ataque a presuntos integrantes, mayormente de rango inferior, del grupo armado que gobierna Gaza.
Rory Challands, periodista de Al Jazeera, reportó que Lavender habría generado listas de hasta 37.000 objetivos. Marc Owen Jones, académico de la Universidad Hamid Bin Khalifa, ha mostrado su inquietud ante el uso de sistemas de IA no verificados para decisiones críticas que afectan vidas civiles, sugiriendo una pausa en el uso de IA en conflictos armados.
Programa habría contribuido con altas cifras de bajas civiles
Según estos informes, el empleo de Lavender podría haber contribuido a la alta cifra de bajas civiles palestinas en Gaza. Para el jueves, las cifras oficiales de Gaza indicaban más de 33.000 palestinos fallecidos y 75.000 lesionados debido a los ataques israelíes desde el comienzo del conflicto.
El uso de IA en estas circunstancias ha suscitado alarmas sobre posibles infracciones al derecho internacional humanitario. Challands resaltó que los analistas israelíes frecuentemente disponen de solo segundos para revisar las listas de Lavender antes de dar luz verde a los bombardeos.
Frente a las críticas, el ejército de Israel ha defendido su proceder, alegando que se llevan a cabo revisiones independientes para asegurar que los objetivos de Lavender se ajusten a los estándares internacionales. Han negado que sea un “sistema” per se, describiéndolo más bien como una base de datos de información sobre presuntos terroristas.
No obstante, expertos como Ben Saul, relator especial de la ONU, han advertido sobre la posible conexión entre el uso de IA y la comisión de crímenes de guerra. Asimismo, la intención de Israel de comercializar estas tecnologías ha generado inquietud entre la comunidad internacional.
Lea también Relatores ONU: Destrucción de Hospital Shifa fue un acto de «genocidio en tiempo real»
El ejército israelí ha desarrollado un programa basado en inteligencia artificial conocido como “Lavender”.https://t.co/g5FutEmn7U
— 𝐌𝐨𝐫𝐢𝐚𝐡 (@elberethmoria) April 4, 2024







