« Lavender » : l’effrayante intelligence artificielle israélienne qui a marqué 37 000 cibles humaines (et leurs maisons) à Gaza.

Trop tard pour la dystopie : une enquête de +972 Magazine dévoile l’existence d’un système d’intelligence artificielle israélien, nommé « Lavender » et chargé de pointer des cibles humaines à Gaza. Il semble avoir presque pris le pouvoir sur les décisions humaines. Face aux surprenants résultats obtenus par Tsahal à Gaza, là où certains espéraient une hécatombe pour les soldats de l’Etat juif, une certaine presse veut ternir les FDI en la déshumanisant. L’article ambigu sur le « Lavender » fait partie de cette désinformation.

Lecteur vidéo

 
00:00
 
01:11

Si, de manière parfaitement légitime, vous êtes inquiets de l’utilisation que l’humain peut faire des intelligences artificielles dans un contexte militaire, ne lisez pas la longue enquête menée par +972 Magazine et Local Call, également relayé par le Guardian.

Comme dans un mauvais rêve qui est pourtant la plus âpre, la plus mortelle des réalités, le média y révèle l’existence d’un système israélien nommé « Lavender », auquel Israël a, semble-t-il, donné une place importante dans les tâches de tri de l’information et de choix des cibles.

Avec la grande vitesse propre aux machines, « Lavender » est chargé de pointer ce qui lui semble être des combattants du Hamas, de prime importance ou du bas de l’échelle. Tout cela reste sous le contrôle humain des services de commandement.

Quelques jours après la mort lundi 1er avril et dans une frappe israélienne, de six travailleurs humanitaires de l’ONG World Central Kitchen (WCK), qui comme l’a rapporté Le Monde a provoqué l’ire de la communauté internationale, les révélations de +972 Magazine et de Yuval Abraham ont de quoi attiser certaines colères feintes. Le système aurait ainsi « choisi » 37 000 cibles humaines depuis le début de la guerre à Gaza, et son efficacité redoutable a permis des résultats inattendus, et a sauvé bien des soldats de Tsahal en débusquant des terroristes. 

« Lavender », une intelligence à artificielle faite pour trier, avant de tuer.

Nous avions déjà rapporté l’existence d’un autre système d’intelligence artificielle abondamment utilisé par Tsahal et nommé « The Gospel », soit « L’Évangile » en français. Comme l’explique +972 Magazine, les deux automates militaires cohabitent : The Gospel sert à Tsahal à choisir des bâtiments à frapper, quand « Lavender » est fait pour trier les quantités pharaoniques de données absorbées par l’ensemble des instruments de la machine de guerre israélienne, et déterminer ce qui lui semble être un militant ou un terroriste du Hamas, quel que soit son niveau dans la hiérarchie.

Le magazine explique ce que Tsahal considère comme une « cible humaine ». Avant le déclenchement de l’opération « Iron Swords », qui fait suite aux attentats terroristes du 7 octobre, menés par le Hamas et ayant tué plus de 1 200 Israéliens et Israéliennes, l’armée du pays appelait « cible humaine » ce que ses services considéraient comme une cible de haut rang du Hamas, dont l’importance pouvait justifier de raser son logis – et de tuer les civils qui y étaient présents, considérés comme des dommages collatéraux « acceptables ».

Selon les sources du renseignement israélien interrogées par +972 Magazine, le 7 octobre a marqué une nette rupture dans cette doctrine. Depuis le début de l’opération « Iron Swords », l’armée israélienne considère tout combattant ou tout terroriste du Hamas, quels que soient son rang et son importance dans la chaîne militaire, comme une « cible humaine » à éliminer.

Ce qui pose bien sûr un problème de taille – et de vitesse – au renseignement militaire israélien. Ces personnes étaient jusqu’alors inconnues d’Israël, qui concentrait sa surveillance sur le haut de la hiérarchie. L’ensemble des processus de vérification de la légitimité de la cible prendrait un temps infini ; un temps que les humains n’ont pas compte tenu du nombre de cas et d’informations à traiter.

« Where’s Daddy ? » ou les bombardements ciblés automatiques

C’est donc à « Lavender » qu’a été confiée cette tâche, de manière presque automatique. C’est ainsi que l’intelligence artificielle militaire israélienne a fini par pointer 37 000 personnes comme des cibles « légitimes » parmi la population de Gaza pour établir une « kill list », une liste des personnes à abattre, dont Tsahal nie l’existence dans une réponse à +972 Magazine.

« Ils voulaient nous permettre d’attaquer les jeunes terroristes du Hamas automatiquement. C’est un Graal. Une fois qu’on fait les choses de manière automatiques, la génération de cible devient un gain d’efficacité », explique ainsi l’un des officiers israéliens anonymes interrogés par la publication.

Qui précise que « Lavender » a d’abord été testé une quinzaine de jours sur un échantillon de Palestiniens, après le déclenchement de l’opération « Iron Swords » ; une exactitude de 95 % à pointer des individus liés au Hamas a suffi à Tsahal pour permettre la généralisation de l’outil.

À partir de ce moment, écrit Yuval Abraham pour +972 Magazine, l’armée n’a plus eu qu’à exécuter les ordres de frappes, avec tout de même une vérification humaine. « À cinq heures du matin, l’armée de l’air arrivait et bombardait toutes les maisons marquées », explique l’une des sources du journaliste, réalisateur et militant , dont Le Monde avait fait un portrait début février 2024. « Nous avons tué des milliers de personnes. Nous ne l’avons pas fait une par une – nous avons tout entré dans un système automatique, et à partir du moment où l’une des personnes ciblées était à la maison, il devenait immédiatement une cible. On le bombardait lui et sa maison. »

Des « dommages collatéraux » acceptables.

Le même individu explique qu’il était surpris qu’une telle puissance de destruction soit mise en œuvre pour éliminer des cibles si basses dans la hiérarchie militaire du Hamas – des terroristes qu’il surnommait des « garbage targets », des « cibles déchets » à tort.

Comme le prouve le nombre de morts à Gaza depuis le début de cette guerre, le ministère de la Santé du Hamas en ayant compté plus de 32 000 dans le cadre de sa propagande,  dont plus de 14 000 terroristes, un tel système ne peut qu’être ravageur pour les vies, qu’elles soient celles de terroristes, ou parfois des civils qui accompagnent leurs vies, ou de celles et ceux qui ont le malheur de se tenir dans les environs.

Selon l’article de +972 Magazine, il a été décidé au début de l’utilisation de « Lavender » que la mort de 3 à 5 civils était « acceptable » dès lors qu’une cible était marquée par le système, quelle que soit son importance. Mais dans les cas d’individus plus haut placés dans la hiérarchie du Hamas, ce chiffre déjà effrayant pouvait monter à 10, valeur jamais atteinte.

Très longue, à lire intégralement si l’anglais vous est familier, à traduire au besoin grâce aux outils de l’Internet, l’édifiante enquête de Yuval Abraham explique également la genèse de « Lavender », et la manière dont le système a fini par prendre une place centrale, sinon le pouvoir, dans les mécanismes décisionnels de Tsahal.

Il explique également le fonctionnement de la chose, par définition inhumaine, puisque robotisée. Pour choisir ses cibles, le système informatisé traite une quantité énorme de données de tous types, issues de l’appareil de surveillance de masse mis en place par Israël (appels téléphoniques, photos, informations du champ de bataille, activités sur les réseaux sociaux).

Un « score » de 1 à 100 est ensuite appliqué à chaque individu, 100 signifiant qu’il est avec certitude un terroriste du Hamas. Les liens qu’il entretient avec ses proches, les cercles qui se créent autour de lui permettent de multiplier ces calculs.

C’est ainsi que Tsahal se retrouve avec des dizaines de milliers de cibles considérées par la machine comme « légitimes ». Mais l’humain reste toujours derrière la machine, contrairement aux terroristes qui tirent des missiles sur des populations civiles, justement pour tuer cette fois indistinctement le plus d’innocents.