Par Hamidou TRAORE
A l’heure où les réseaux sociaux sont devenus des armes d’influence entre puissances, de TikTok dans la rivalité sino-américaine, une autre bataille, plus opaque, se joue loin des écrans. À Gaza, des données personnelles seraient désormais mobilisées pour désigner des cibles humaines. Au cœur des révélations : un logiciel d’intelligence artificielle baptisé « Lavender », utilisé par Tsahal dans le cadre de son offensive consécutive au 7 octobre.
Une révélation venue d’Israël
L’alerte ne vient pas d’une ONG étrangère, mais d’un journaliste israélien. Dans une enquête publiée par le magazine en ligne +972 Magazine, Yuval Abraham affirme que l’armée israélienne a développé et déployé « Lavender » dès le lendemain des attaques du 7 octobre.
Son enquête repose sur les témoignages de six officiers du renseignement israélien. Tous décrivent un système capable d’agréger des volumes massifs de données : images issues de la vidéosurveillance, métadonnées téléphoniques, connexions aux réseaux sociaux, historiques de contacts, informations de terrain. L’objectif : attribuer à chaque individu un score de probabilité d’appartenance au Hamas ou au Jihad islamique palestinien.
Une fois le seuil atteint, la personne est « marquée ». Elle entre alors dans une liste de cibles potentielles.
La fabrique algorithmique des cibles
Selon les sources citées, « Lavender » aurait identifié jusqu’à 37 000 personnes considérées comme membres ou affiliées au Hamas. Un chiffre vertigineux dans un territoire aussi densément peuplé que la bande de Gaza.
Le fonctionnement décrit interroge : la corrélation de données multiples, un changement fréquent de téléphone, l’appartenance à un groupe de messagerie, la présence dans une zone donnée, peut suffire à augmenter le score d’un individu. L’algorithme ne prouverait pas, il probabiliserait. Mais sur le terrain, cette probabilité deviendrait action.
Plus troublant encore, certaines sources évoquent des frappes réalisées au domicile des suspects, au motif qu’il serait plus simple de localiser une personne chez elle. La maison familiale devient alors une coordonnée GPS.
Des règles d’engagement inédites
Les témoignages rapportés par Yuval Abraham décrivent également des règles d’engagement élargies. Pour neutraliser un combattant présumé de rang subalterne, jusqu’à vingt victimes civiles seraient considérées comme « acceptables ». Pour un cadre supérieur, ce ratio pourrait atteindre cent.
Ces chiffres, s’ils sont confirmés, soulèvent une question centrale : la décision de vie ou de mort peut-elle reposer principalement sur une recommandation algorithmique ? Le droit international humanitaire impose les principes de distinction et de proportionnalité. Un score généré par une machine peut-il satisfaire à ces exigences juridiques ?
Surveillance de masse et dépendance technologique
Derrière « Lavender », c’est tout un écosystème de surveillance qui apparaît. Les officiers évoquent l’exploitation de caméras, l’analyse des flux numériques, ainsi que l’accès à des données issues d’acteurs technologiques internationaux.
La guerre moderne ne se limite plus aux champs de bataille physiques. Elle se nourrit de traces numériques, d’empreintes invisibles laissées par des millions d’utilisateurs. Les données, autrefois carburant du marketing ciblé, deviennent des outils de ciblage militaire.
Une communauté internationale « préoccupée »
Face à ces révélations, les réactions internationales se multiplient. Les Nations unies ont exprimé leur « profonde préoccupation » quant aux méthodes employées dans la conduite des hostilités à Gaza.
Au-delà du cas israélo-palestinien, l’affaire « Lavender » ouvre une brèche plus large : celle de l’automatisation croissante des décisions létales. Si l’intelligence artificielle promet efficacité et rapidité, elle brouille aussi les chaînes de responsabilité. Qui répond d’une erreur ? Le développeur ? L’officier valideur ? Le commandement politique dirigé par Benjamin Netanyahu ?
L’algorithme comme juge et bourreau ?
La promesse technologique est celle d’une guerre plus « précise ». Mais la précision statistique ne garantit ni la justice ni la légitimité. Dans un territoire où civils et combattants vivent imbriqués, la dépendance à un système probabiliste peut transformer la guerre en processus industriel.
L’enquête de Yuval Abraham ne clôt pas le débat. Elle l’ouvre. Elle oblige à regarder en face une mutation profonde : lorsque la donnée devient une cible et que l’algorithme désigne l’ennemi, la frontière entre renseignement et exécution s’amincit dangereusement.
Reste une interrogation fondamentale : à l’ère de l’intelligence artificielle militaire, qui contrôle la machine, et qui en assume les conséquences ?
Hamidou TRAORE
