Doctrine Dahiya étendue à l’intelligence artificielle
Le 30 novembre 2023, Local Call et +972, deux médias indépendants israélo-palestiniens en ligne, publiaient une enquête importante [1] qui éclairait la nature de la logique génocidaire à l’œuvre à Gaza. Sur la base de témoignages de membres des services de renseignements israéliens, elle révélait que l’armée d’Israël utilisait une intelligence artificielle pour générer un très grand nombre de cibles bombardées ensuite lors de frappes aériennes « à un rythme qui dépasse de loin ce qui était auparavant possible ».
15.000 cibles ont été frappées au cours des 35 premiers jours. On compte des cibles militaires, mais aussi des cibles non-militaires comme des bâtiments publics et des maisons familiales. Des familles entières sont visées et décimées pour assassiner une personne suspectée d’être un agent du Hamas, en toute connaissance de cause puisque l’intelligence artificielle est capable d’évaluer le nombre de victimes civiles, pudiquement appelées « dommages collatéraux ».
L’article parlait alors d’une usine d’assassinats de masse qui met l’accent sur « la quantité plutôt que sur la qualité ». C’est la première fois dans l’histoire des bombardements israéliens que l’armée autorise autant d’assassinats de civils :
« Rien ne se passe par accident », y déclare une source. « Lorsqu’une fillette de 3 ans est tuée dans une maison à Gaza, c’est parce que quelqu’un dans l’armée a décidé qu’il n’était pas grave qu’elle soit tuée – que c’était un prix qui valait la peine d’être payé pour atteindre une autre cible. Nous ne sommes pas du Hamas. Ce ne sont pas des roquettes aléatoires. Tout est intentionnel. Nous savons exactement combien il y a de dommages collatéraux dans chaque maison ».
C’est une nouvelle extension de la « doctrine Dahiya » [2] qui assume l’usage d’une force disproportionnée pour produire un état de choc, mettre la pression sur la population civile et mener à bien le projet de destruction systématique.
Une IA liste les cibles à abattre
Une nouvelle enquête publiée le 3 avril [3] indique que l’armée d’Israël utilise un autre système d’intelligence artificielle, Lavender, qui permet cette fois d’établir une liste de personnes à cibler et à éliminer, et plus seulement de bâtiments. Des dizaines de milliers d’individus, suspectés d’être des membres du Hamas ou du Jihad Islamique Palestinien (JIP), ont ainsi été marqués : 37.000 à l’apogée du fonctionnement de la machine.
Le commandant actuel de l’unité de renseignements d’élite israélienne, auteur en 2021 d’un livre sur le sujet (The Human-Machine Team : How to Create Synergy Between Human and Artificial Intelligence That Will Revolutionize Our World), indique la nécessité d’une machine spéciale pouvant traiter des quantités massives de données afin de générer ces cibles. Une telle technologie, écrit-il, résoudrait un « goulet d’étranglement humain pour à la fois localiser les nouveaux objectifs et pour approuver les objectifs ». Il ne serait pas possible à des agents humains de déterminer autant de cibles et aussi rapidement. D’où la nécessité des logiciels automatisés et de l’intelligence artificielle.
L’armée incite clairement les officiers à adopter les listes sans être obligé de faire des vérifications approfondies : parfois 20 secondes par cible. Toutes les instructions vont dans le sens de la facilitation des bombardements : « Now we have to fuck up Hamas, no matter what the cost. Whatever you can, you bomb », « Maintenant, nous devons foutre en l’air le Hamas, quel qu’en soit le prix. Tout ce que tu peux, tu bombardes ».
L’enquête distingue différentes étapes dans la production automatisée de cibles :
Il faut d’abord établir une liste d’individus à partir des informations recueillies sur la plupart des 2,3 millions d’habitants de la bande de Gaza par un système de surveillance de masse : « Informations visuelles, informations cellulaires, connexions avec les médias sociaux, informations sur le champ de bataille, contacts téléphoniques, photos ». Chaque personne se voit attribuer une note de 1 à 100 selon la probabilité qu’elle appartienne au Hamas. Si Lavender décide qu’un individu est un militant du Hamas, il faut traiter le fait de l’éliminer « comme un ordre, sans obligation de vérifier de manière indépendante pourquoi la machine avait fait ce choix ou d’examiner les données brutes de renseignement sur lesquelles elle se fonde » afin « de gagner du temps et de permettre la production de masse de cibles humaines sans entrave ».
Le problème c’est qu’être une personne qui a des liens avec un militant du Hamas, parce qu’elle est de la même famille par exemple, suffit pour être considéré comme un membre du Hamas. De même, en temps de guerre, les téléphones se prêtent, se donnent, se perdent, ils ne constituent pas une base de données solide. Il y a un risque d’erreur assumé, mais c’est la statistique qui tranche. Seule vérification, il faut s’assurer qu’il s’agit d’un homme et pas d’une femme, puisque pour l’armée israélienne il n’y a pas de femmes dans les branches militaires du Hamas et du JIP.
Il faut ensuite choisir ou frapper les cibles générées par Lavender, c’est le système « Where’s Daddy ». Ce sont encore une fois les maisons privées qui sont ciblées en priorité pour la bonne raison qu’il est plus facile de marquer de telles cibles à l’aide de systèmes automatisés : « Ces programmes suivent simultanément des milliers de personnes, identifient quand elles sont à la maison, et envoient une alerte automatique à l’agent de ciblage, qui marque ensuite la maison pour bombardement ».
Vient le choix de l’arme à utiliser pour bombarder. Dans la majeure des cas, il s’agit de « dumb bombs » – « bombes stupides » – moins précise mais moins chères car non téléguidées. Même pour des cibles considérées comme mineures, comme des agents subalternes du Hamas, qui vivaient dans des bâtiments de plusieurs étages : « l’armée était autorisée à le tuer et à tuer tout le monde dans le bâtiment ».
C’est la raison pour laquelle l’état-major israélien a décidé d’augmenter le ratio cible/pertes civiles : « Dans ce calcul, il pourrait aussi y avoir 20 enfants pour un jeune agent ». Ici encore, rien n’est laissé au hasard, tout est prédéterminé et fixé à l’avance. Le dommage collatéral n’est pas un accident mais une variable. Quand il s’agit de cadres du Hamas, l’armée autorise « le meurtre [de centaines] de civils par cible ».
Bien évidemment, derrière cette apparente maîtrise technologique, se cache une imprécision considérable. C’est aussi ce à quoi sert le système : pouvoir bombarder sans trop de questions. Dans de nombreux cas les victimes civiles sont largement supérieures à celles qui sont estimées, puisque la machine calcule par principe que quand un quartier a été largement vidé de ses habitants, il ne peut pas y avoir grand monde dans une seule habitation. D’autre part, trop souvent, les habitations familiales ont été bombardées sans que la personne ciblée ne se trouve à l’intérieur puisque aucune vérification n’avait été faite en temps réel.
Une opération de nettoyage ethnique soutenue par une volonté génocidaire
Dans son ouvrage Le nettoyage ethnique de la Palestine [4], l’historien israélien Ilan Pappe mettait à jour le degré de préparation qui avait précédé l’attaque des villes et des villages palestiniens en 1947-1948 lors de la « Nakba ». Un plan systématique avait été élaboré. « Quand tout a été fini, près de 800.000 personnes – plus de la moitié de la population autochtone de Palestine – avaient été déracinées, 531 villages détruits, 11 quartiers vidés de leurs habitants ».
Il n’existe pas de massacres d’ampleur sans une volonté clairement établie qui s’incarne dans la somme des moyens matériels, militaires et administratifs mis en œuvre pour parvenir à son résultat. Historiens et juristes auront à mettre en évidence le caractère préparé, organisé et rationnel du génocide en cours à Gaza. Alors que le gouvernement israélien et ses différents chiens de garde, sur les plateaux télévisés en France, continuent à parler de dommages collatéraux et d’absence d’intentionnalité, les éléments les plus effroyables sont déjà visibles pour qui veut bien voir. Le travail de +972 dévoile l’une des caractéristiques les plus effroyables du monde qui vient et de la façon dont il mènera sa guerre : l’usage de l’intelligence artificielle et celui de la domotique.