Au Moyen-​Orient, l’IA au cœur du chaos

Frappes pla­ni­fiées par algo­rithmes, drones à bas coût, pro­pa­gande générée par intel­li­gence arti­fi­cielle : l’opération « Epic Fury », menée fin février par les États-​Unis et Israël contre l’Iran, illustre l’irruption massive de l’in­tel­li­gence arti­fi­cielle dans la guerre moderne. Mais cette révo­lu­tion tech­no­lo­gique soulève une question centrale : dans une guerre accélérée par les machines, qui prend réel­le­ment les décisions ?

Le 28 février 2026, l’o­pé­ra­tion « Epic Fury » est lancée. En quelques heures, des frappes massives conjointes des États-​Unis et d’Israël déca­pitent une partie du régime iranien et le guide suprême, Ali Khamenei, est tué. Si l’é­vé­ne­ment est un séisme géo­po­li­tique, il en cache un autre, tout aussi profond : cette guerre, selon les experts, est la première à grande échelle où l’in­tel­li­gence arti­fi­cielle n’est pas un simple outil parmi d’autres, mais une pièce maîtresse du dis­po­si­tif, présente à chaque étape de la « chaîne de la mort ». Mais cette puissance nouvelle vient avec son lot de questions ver­ti­gi­neuses. Qui décide vraiment ? Le soldat, le stratège, l’in­gé­nieur, ou l’al­go­rithme ? Entre une pers­pec­tive de guerre à faible coût humain, qui pourrait tenter les bel­li­gé­rants de la planète à vendre des conflits plus faci­le­ment à leur popu­la­tion, et la dan­ge­reuse dilution de la res­pon­sa­bi­lité humaine que ces tech­no­lo­gies pour­raient accélérer, focus sur l’inquiétante place de l’IA dans le conflit au Moyen-Orient. 

L’IA omni­pré­sente

L’opération Epic Fury n’a pas commencé le 28 février. Comme l’ex­plique le jour­na­liste israélien Yossi Melman sur France Info, « la récu­pé­ra­tion d’in­for­ma­tions sur Khamenei et les autres hauts gradés iraniens dure depuis des années ». Israël aurait en effet piraté une caméra de vidéo­sur­veillance près de la résidence du guide, et l’IA aurait analysé en temps réel des masses de données pour car­to­gra­phier les habitudes, les horaires et les dépla­ce­ments de la cible. Une pratique que l’on avait déjà pu observer lors de l’enlèvement de Nicolás Maduro au Venezuela, où l’IA Claude avait participé à coor­don­ner sa capture. Cette mutation est également maté­rielle : avec des drones « low-​cost » pilotés par l’IA comme le Lucas par ailleurs au design des drones iraniens utilisés par la Russie en Ukraine l’armée amé­ri­caine peut désormais saturer le ciel avec 30 drones, pour le prix d’un seul missile Tomahawk, réduisant ainsi la pression de l’opinion publique contre la guerre. Parallèlement, l’IA devient aussi une arme infor­ma­tion­nelle, utilisée par l’Iran pour diffuser de fausses images de des­truc­tions mili­taires afin d’alimenter sa propagande.

Le bras de fer Anthropic vs Pentagone

Pourtant, en parallèle de cette guerre, où l’IA est plus que jamais présente, un conflit avait éclaté entre la Maison Blanche et le PDG de l’IA Claude, active en Iran. Son PDG, Dario Amodei, a refusé que son IA soit utilisée pour la sur­veillance de masse ou des armes autonomes, poussant l’administration de Donald Trump à menacer d’activer le Defense Production Act pour contraindre l’entreprise à coopérer, avant de fina­le­ment annoncer ce retrait. Mais couper une IA d’un système classifié ne prend pas un week-​end. L’interdiction est annoncée le vendredi soir. Les bombes tombent le samedi matin et Claude est toujours dans les systèmes. L’épisode révèle un vide juridique majeur : une fois intégrée dans des systèmes mili­taires, une IA échappe largement au contrôle de ses créateurs, soulevant la question centrale : si quelque chose tourne mal, qui est res­pon­sable ? Pendant ce temps, OpenAI signe rapi­de­ment un accord avec le Pentagone. Son PDG, Sam Altman, assure poser les mêmes limites, mais sans les écrire noir sur blanc dans le contrat. 

L’humain dans la boucle ?

Cependant, cette omni­pré­sence algo­rith­mique se heurte à une réalité de terrain bien plus nuancée. Le bom­bar­de­ment d’une école de filles lors des premières frappes, qui a tué 175 civils, en est une illus­tra­tion brutale. Si le secré­taire américain à la Défense, Pete Hegseth, a invoqué une enquête en cours, une analyse de géo­lo­ca­li­sa­tion du New York Times suggère déjà une expli­ca­tion technique : le bâtiment était intégré à une base militaire jusqu’en 2013, avant d’en être séparé. Il sem­ble­rait donc que les systèmes de ciblage aient fonc­tionné sur des cartes obsolètes depuis déjà 13 ans. Car si l’IA peut traiter des données à une vitesse record, elle ne sait pas dis­tin­guer une salle de classe d’un bunker si ses données sources sont périmées. Cette bavure pose la question que tout le monde évite : dans cette course à la vitesse, l’humain a‑t-​il encore le temps de vérifier ce que la machine lui ordonne de frapper ?

Les res­pon­sables poli­tiques assurent que l’humain reste « dans la boucle ». Mais qu’en est-​il vraiment ? Une enquête du magazine israélien +972, relayée par le New York Times, décrit le fonc­tion­ne­ment d’un système d’IA nommé Lavender, utilisé par l’armée israé­lienne à Gaza. Ce programme analyse des données de sur­veillance et attribue à chacun un score de pro­ba­bi­lité d’appartenance au Hamas. En quelques semaines, il aurait généré une liste de 37 000 noms. Le problème, c’est le rythme : les officiers dis­po­saient en moyenne de vingt secondes pour « valider » chaque cible — juste assez pour vérifier uni­que­ment que le nom cor­res­pon­dait à un homme existant. L’humain restait dans la boucle, mais la boucle tournait si vite qu’il n’était plus qu’un simple tampon. 

À Lille, la Grand-​Place réapprend à vivre sans voitures

Depuis le 12 janvier, la Grand Place de Lille...

Quand Lille s’invite dans les paroles des artistes…

Le soleil brille enfin sur les pavés du Vieux-Lille...

Lille l’engloutie : le fantôme de la Venise du Nord sous les pavés

Si Bruges tire aujourd'hui sa gloire de ses canaux...

Contrepoint n°43

Le Berger d’Alep : écrire la guerre pour mieux raconter l’humain

Entre deux reportages, la journaliste Stéphanie Perez publie, le 12 mars 2026, son nouveau roman : Le Berger d’Alep. Inspiré des conflits qu’elle couvre depuis...

Après la mort de Khamenei, l’espoir d’un Iran libre ?

Samedi 28 février, Ali Khamenei, guide suprême de l’Iran depuis 36 ans, a été tué lors de frappes conjointes menées par Israël et les...

À Dunkerque, les réfugiés ont les yeux vers la Manche et les pieds dans l’eau

Autour de Dunkerque, près de 2500 réfugiés s’entassent dans des camps boueux, espérant pouvoir bientôt traverser la Manche et rejoindre l’Angleterre. C’est cinq fois...