D'un côté, l'armée américaine se sert d'une IA adossée aux modèles d'Anthropic pour sélectionner des cibles en Iran. De l'autre, une enquête révèle que huit chatbots sur dix aident des adolescents à planifier des attaques de masse. Deux affaires publiées à quelques heures d'intervalle, qui posent avec une acuité inédite la même question : qui contrôle vraiment ce que l'IA peut faire ?Deux informations tombent presque simultanément et semblent, à première vue, sans rapport. La première : l'armée américaine utilise des systèmes d'intelligence artificielle de Palantir, eux-mêmes adossés aux modèles Claude d'Anthropic, pour identifier des cibles dans le cadre de la guerre contre l'Iran. La seconde : une enquête conjointe de CNN et du Centre pour la lutte contre la haine numérique (CCDH) démontre que huit des dix chatbots les plus utilisés par les adolescents aux États-Unis et en Europe ont fourni une assistance concrète à des utilisateurs se présentant comme des mineurs en train de planifier des fusillades scolaires, des attentats ou des assassinats politiques. Deux histoires, un même angle mort : l'IA déploie une puissance croissante pendant que les garde-fous, qu'ils soient éthiques, légaux ou techniques, peinent à suivre le rythme.
Claude en Iran : la guerre algorithmique prend forme
Des sources proches du dossier, ayant requis l'anonymat pour évoquer des affaires sensibles, ont confirmé que l'armée américaine utilise les systèmes de la société d'analyse de données Palantir pour identifier des cibles potentielles dans le cadre des frappes aériennes en cours contre l'Iran. Ce logiciel s'appuie en partie sur les modèles Claude d'Anthropic. L'amiral Brad Cooper, commandant du CENTCOM, a reconnu publiquement dans une vidéo diffusée sur X que l'IA était devenue un outil central dans le processus de sélection des cibles.
L'opération baptisée « Epic Fury » a permis, selon les déclarations officielles, de frapper plus de 2 000 cibles avec une précision qualifiée de « remarquable ». Mais c'est précisément cette précision revendiquée qui mérite examen. Des analystes rappellent que les succès et les échecs des systèmes d'aide à la décision en contexte guerrier tiennent davantage à des facteurs organisationnels qu'à la technologie elle-même. De plus, l'histoire militaire américaine fourmille de précédents douloureux : la destruction accidentelle de l'ambassade de Chine à Belgrade en 1999, le tir d'un croiseur américain sur un avion civil iranien en 1988, ou encore les nombreuses victimes civiles des guerres en Irak et en Afghanistan dues à des erreurs d'analyse.
Plus troublant encore : des éléments suggèrent qu'un missile Tomahawk a touché une école de filles adjacente à une base navale iranienne, faisant environ 175 morts, une erreur de ciblage qui pourrait résulter d'une défaillance du renseignement américain. Le « human in the loop » (l'humain dans la boucle décisionnelle) que toutes les parties brandissent comme garantie suffisante est-il vraiment opérant quand un algorithme produit des listes de cibles à la vitesse de la lumière et qu'un officier doit valider sous pression temporelle ?
Le paradoxe Anthropic : sanctionné pour ses garde-fous, utilisé malgré tout
L'affaire prend une dimension proprement kafkaïenne quand on examine la position d'Anthropic dans ce dispositif. Les négociations entre le Pentagone et Anthropic ont échoué sur deux lignes rouges que la société entendait maintenir : l'interdiction d'utiliser ses modèles pour la surveillance de masse des citoyens américains, et l'interdiction de les déployer dans des armes autonomes létales. Le Pentagone, lui, exigeait un accès « pour toute utilisation légale », refusant qu'une entreprise privée dicte les conditions d'emploi de ses outils en situation de conflit armé.
La désignation de « risque pour la chaîne d'approvisionnement » signifie qu'aucun sous-traitant de défense ne peut utiliser la technologie d'Anthropic dans des travaux réalisés pour le Pentagone. Pete Hegseth avait indiqué que l'armée cesserait d'utiliser Claude « immédiatement », tout en prévoyant une période de transition de six mois pour éviter une rupture dans des opérations critiques. Résultat : Claude participe encore activement aux opérations en Iran, pendant qu'Anthropic est simultanément poursuivi pour avoir refusé de lever ses propres protections éthiques.
La société a déposé deux recours fédéraux, l'un en Californie du Nord, l...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.