Dakar-Echo

« Lavender », cette intelligence artificielle israélienne utilisée pour le ciblage de civils à Gaza

« Lavender », cette intelligence artificielle israélienne utilisée pour le ciblage de civils à Gaza

Un autre système d’intelligence artificielle, appelé « Where’s Daddy ? », serait utilisé par l’armée israélienne pour suivre les personnes ciblées, selon des médias israéliens.

Une récente enquête menée conjointement par le magazine en ligne d’information et d’opinion de gauche israélien +972 et le site d’information en hébreu Local Call révèle l’existence d’un programme d’intelligence artificielle appelé «Lavender», développé par l’armée israélienne. Ce programme aurait joué un rôle important dans le ciblage des Palestiniens, en particulier au cours des premières phases du récent conflit à Gaza.

Selon six anciens officiers des services de renseignement contactés par les deux médias israéliens et directement impliqués dans l’utilisation de l’IA pour le ciblage, Lavender est conçu pour identifier des cibles potentielles à assassiner au sein des ailes militaires du mouvement Hamas et du Jihad islamique palestinien, y compris des individus de rang inférieur.

Au cours de la première phase du conflit, l’armée s’est fortement appuyée sur Lavender, marquant environ 37.000 Palestiniens comme militants présumés pour d’éventuelles frappes aériennes, ainsi que leurs lieux de résidence.

L’enquête souligne que les militaires faisaient largement confiance aux décisions de Lavender, traitant ses résultats «comme s’il s’agissait d’une décision humaine». Le personnel se contentait souvent d’approuver les choix de la machine, passant un minimum de temps à vérifier les cibles avant d’autoriser les bombardements.

Tout en sachant que Lavender commet des erreurs dans environ 10 % des cas et qu’il identifie parfois des individus qui n’ont que peu ou pas de liens avec des groupes militants, l’armée a approuvé des frappes aériennes sur des cibles marquées avec peu d’attention. En particulier, les frappes aériennes visaient principalement des personnes à leur domicile, souvent la nuit lorsque les familles étaient présentes, car cela était jugé plus facile du point de vue du renseignement.

Un autre système d’intelligence artificielle
En outre, l’enquête révèle l’utilisation d’un autre système d’intelligence artificielle appelé « Where’s Daddy ? » (Où est papa ?) pour suivre les personnes ciblées et mener des bombardements lorsqu’elles se trouvaient à l’intérieur de leur résidence familiale.

Les conséquences de ces actions ont été graves : des milliers de Palestiniens, dont de nombreux non-combattants, ont été tués par des frappes aériennes, en particulier au début du conflit. La préférence de l’armée pour les missiles non guidés plutôt que pour les bombes de précision a entraîné d’importants dommages collatéraux, notamment la destruction de bâtiments entiers et la perte de vies civiles.

Contrairement aux pratiques antérieures, l’armée a autorisé d’importantes pertes civiles lors des assassinats ciblés, permettant notamment de tuer jusqu’à 15 ou 20 civils pour chaque agent subalterne du Hamas marqué par Lavender.

En outre, des hauts responsables du Hamas ont été pris pour cible, ce qui a parfois entraîné la mort de plus de 100 civils au cours d’une seule frappe aérienne.

L’enquête s’articule autour de six étapes chronologiques du processus de ciblage automatisé de l’armée israélienne au cours des premières semaines de la guerre de Gaza, qui a débuté le 7 octobre 2023.

OLJ

Articles similaires

Laisser un commentaire