Une frappe aérienne américaine aurait tué plus de 165 élèves dans une école primaire de Minab, dans le sud de l'Iran. Selon des sources, une enquête américaine laisse entrevoir une probable responsabilité des États-Unis dans la frappe contre cette école en Iran. Les mêmes notent que le système Claude d'Anthropic, utilisé par le Pentagone pour planifier ses opérations militaires, aurait désigné la cible sur la base de renseignements obsolètes. L'affaire révèle les risques mortels d'une IA déployée dans la chaîne de commandement militaire sans garde-fous suffisants, et déclenche une crise sans précédent entre l'administration Trump, Anthropic et l'ensemble de l'écosystème de l'intelligence artificielle.Le samedi 1er mars 2026, des missiles s'abattaient sur l'école de filles Shajareh Tayyebeh, dans la ville de Minab, au sud de l'Iran. La frappe a rasé l'établissement scolaire et tué 165 élèves et membres du personnel, dont la majorité étaient des enfants de primaire âgés de 7 à 12 ans. Au moins 95 autres personnes ont été blessées.
Selon des informations du Wall Street Journal, le Pentagone a utilisé le modèle d'IA Claude, d'Anthropic, pour planifier ses frappes militaires sur l'Iran au cours du week-end — et l'utilisait probablement encore au moment de la publication des informations.
Ce qui retient l'attention des experts n'est pas seulement le bilan humain, mais la mécanique présumée de l'erreur. Selon une source anonyme au sein du département de la Justice interrogée par This Week in Worcester, la théorie immédiate est que le programme d'IA aurait inclus la position de l'école sur la base de renseignements archivés plus anciens. La logique derrière le lancement de la frappe, et les mécanismes qui ont conduit à son autorisation, restent encore flous. En d'autres termes, l'IA aurait confondu l'école — qui occupe ou jouxte un site anciennement associé aux Gardiens de la Révolution islamique (IRGC) — avec une cible militaire légitime, sans que la chaîne de validation humaine n'ait apparemment corrigé cette erreur.
Le Pentagone a refusé de dire si l'attaque avait été suggérée par un système d'IA. Interrogé par Futurism, le commandement américain CENTCOM, qui supervise les opérations au Moyen-Orient, s'est contenté de répondre : « Nous n'avons rien à vous communiquer à ce sujet pour le moment. »
Claude au cœur de la machine de guerre
Pour frapper plus de 1 000 cibles dans les 24 premières heures de son offensive contre l'Iran, l'armée américaine a utilisé les systèmes d'intelligence artificielle les plus avancés jamais déployés en temps de guerre. Un programmeur logistique au sein du département de la Défense, cité par This Week in Worcester, a confirmé que le département avait rapidement intensifié son recours à un système basé sur Claude au cours de l'année écoulée, l'intégrant à de nombreuses décisions opérationnelles fondamentales.
Ce déploiement massif n'est pas le fruit du hasard. En juillet 2025, le département de la Défense avait attribué à des entreprises d'IA un contrat d'une valeur pouvant atteindre 200 millions de dollars pour des services d'intelligence artificielle, incluant Anthropic. Anthropic était également la première entreprise d'IA à avoir intégré ses modèles dans des flux de travail opérationnels sur des réseaux classifiés.
Le Pentagone n'a pas précisé comment exactement l'outil d'IA était déployé, mais son utilisation se poursuivait malgré l'annonce d'une interdiction gouvernementale, survenue après un différend avec Anthropic. Ce différend est au cœur de la crise politique qui a suivi la frappe sur Minab.
La rupture : Anthropic refuse de retirer ses garde-fous
Avant même que les bombes ne tombent sur l'école de Minab, les tensions couvaient entre le Pentagone et Anthropic. Le différend portait sur un point de principe : l'administration Trump exigeait qu'Anthropic modifie son contrat pour permettre une utilisation de Claude à des fins « toutes légales » (all lawful purposes). Les négociations avaient achoppé sur les deux lignes rouges d'Anthropic : l'utilisation de l'IA dans des armes autonomes, et son utilisation pour la surveillance de masse des citoyens américains — deux points que le Pentagone disait ne pouvoir accepter.
Anthropic a tenu bon. Le PDG Dario Amodei avait déclaré ne pas pouvoir, en conscience, accéder aux demandes du Pentagone. En réponse, l'administration Trump a contre-attaqué frontalement. Le Pentagone a officiellement notifié à la direction d'Anthropic que l'entreprise et ses produits étaient désignés comme un « risque pour la chaîne d'approvisionnement », avec effet immédiat. Cette désignation oblige les fournisseurs de défense à...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.


