Frappes planifiées par algorithmes, drones à bas coût, propagande générée par intelligence artificielle : l’opération « Epic Fury », menée fin février par les États-Unis et Israël contre l’Iran, illustre l’irruption massive de l’intelligence artificielle dans la guerre moderne. Mais cette révolution technologique soulève une question centrale : dans une guerre accélérée par les machines, qui prend réellement les décisions ?
Le 28 février 2026, l’opération « Epic Fury » est lancée. En quelques heures, des frappes massives conjointes des États-Unis et d’Israël décapitent une partie du régime iranien et le guide suprême, Ali Khamenei, est tué. Si l’événement est un séisme géopolitique, il en cache un autre, tout aussi profond : cette guerre, selon les experts, est la première à grande échelle où l’intelligence artificielle n’est pas un simple outil parmi d’autres, mais une pièce maîtresse du dispositif, présente à chaque étape de la « chaîne de la mort ». Mais cette puissance nouvelle vient avec son lot de questions vertigineuses. Qui décide vraiment ? Le soldat, le stratège, l’ingénieur, ou l’algorithme ? Entre une perspective de guerre à faible coût humain, qui pourrait tenter les belligérants de la planète à vendre des conflits plus facilement à leur population, et la dangereuse dilution de la responsabilité humaine que ces technologies pourraient accélérer, focus sur l’inquiétante place de l’IA dans le conflit au Moyen-Orient.
L’IA omniprésente
L’opération Epic Fury n’a pas commencé le 28 février. Comme l’explique le journaliste israélien Yossi Melman sur France Info, « la récupération d’informations sur Khamenei et les autres hauts gradés iraniens dure depuis des années ». Israël aurait en effet piraté une caméra de vidéosurveillance près de la résidence du guide, et l’IA aurait analysé en temps réel des masses de données pour cartographier les habitudes, les horaires et les déplacements de la cible. Une pratique que l’on avait déjà pu observer lors de l’enlèvement de Nicolás Maduro au Venezuela, où l’IA Claude avait participé à coordonner sa capture. Cette mutation est également matérielle : avec des drones « low-cost » pilotés par l’IA comme le Lucas — par ailleurs au design des drones iraniens utilisés par la Russie en Ukraine — l’armée américaine peut désormais saturer le ciel avec 30 drones, pour le prix d’un seul missile Tomahawk, réduisant ainsi la pression de l’opinion publique contre la guerre. Parallèlement, l’IA devient aussi une arme informationnelle, utilisée par l’Iran pour diffuser de fausses images de destructions militaires afin d’alimenter sa propagande.
Le bras de fer Anthropic vs Pentagone
Pourtant, en parallèle de cette guerre, où l’IA est plus que jamais présente, un conflit avait éclaté entre la Maison Blanche et le PDG de l’IA Claude, active en Iran. Son PDG, Dario Amodei, a refusé que son IA soit utilisée pour la surveillance de masse ou des armes autonomes, poussant l’administration de Donald Trump à menacer d’activer le Defense Production Act pour contraindre l’entreprise à coopérer, avant de finalement annoncer ce retrait. Mais couper une IA d’un système classifié ne prend pas un week-end. L’interdiction est annoncée le vendredi soir. Les bombes tombent le samedi matin et Claude est toujours dans les systèmes. L’épisode révèle un vide juridique majeur : une fois intégrée dans des systèmes militaires, une IA échappe largement au contrôle de ses créateurs, soulevant la question centrale : si quelque chose tourne mal, qui est responsable ? Pendant ce temps, OpenAI signe rapidement un accord avec le Pentagone. Son PDG, Sam Altman, assure poser les mêmes limites, mais sans les écrire noir sur blanc dans le contrat.
L’humain dans la boucle ?
Cependant, cette omniprésence algorithmique se heurte à une réalité de terrain bien plus nuancée. Le bombardement d’une école de filles lors des premières frappes, qui a tué 175 civils, en est une illustration brutale. Si le secrétaire américain à la Défense, Pete Hegseth, a invoqué une enquête en cours, une analyse de géolocalisation du New York Times suggère déjà une explication technique : le bâtiment était intégré à une base militaire jusqu’en 2013, avant d’en être séparé. Il semblerait donc que les systèmes de ciblage aient fonctionné sur des cartes obsolètes depuis déjà 13 ans. Car si l’IA peut traiter des données à une vitesse record, elle ne sait pas distinguer une salle de classe d’un bunker si ses données sources sont périmées. Cette bavure pose la question que tout le monde évite : dans cette course à la vitesse, l’humain a‑t-il encore le temps de vérifier ce que la machine lui ordonne de frapper ?
Les responsables politiques assurent que l’humain reste « dans la boucle ». Mais qu’en est-il vraiment ? Une enquête du magazine israélien +972, relayée par le New York Times, décrit le fonctionnement d’un système d’IA nommé Lavender, utilisé par l’armée israélienne à Gaza. Ce programme analyse des données de surveillance et attribue à chacun un score de probabilité d’appartenance au Hamas. En quelques semaines, il aurait généré une liste de 37 000 noms. Le problème, c’est le rythme : les officiers disposaient en moyenne de vingt secondes pour « valider » chaque cible — juste assez pour vérifier uniquement que le nom correspondait à un homme existant. L’humain restait dans la boucle, mais la boucle tournait si vite qu’il n’était plus qu’un simple tampon.