IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Le Pentagone confie la désignation de ses cibles à l'IA de Palantir bien que Maven s'appuie encore en grande partie sur Claude
L'IA d'Anthropic qui a récemment été bannie

Le , par Stéphane le calme

138PARTAGES

5  0 
Le Pentagone confie la désignation de ses cibles à l'IA de Palantir bien que Maven s'appuie encore en grande partie sur Claude,
l'IA d'Anthropic qui a récemment été bannie

Le 9 mars 2026, le secrétaire américain adjoint à la Défense Steve Feinberg signait une lettre destinée aux hauts responsables militaires : le système d'intelligence artificielle Maven, développé par Palantir, est désormais élevé au rang de « programme officiel » du Pentagone. Une décision qui institutionnalise l'IA de ciblage au cœur de l'armée la plus puissante du monde et qui révèle, en creux, une guerre de tranchées inédite entre la Silicon Valley et la chaîne de commandement militaire.

L'histoire de Maven commence en 2017 sous la forme d'un projet modeste : labelliser automatiquement des images issues de drones militaires pour soulager les analystes humains. À l'époque, Google était impliqué dans la démarche, avant de se retirer sous pression de ses propres employés. Palantir avait alors développé son système d'IA spécifiquement pour répondre aux besoins du Projet Maven, et la plateforme a grandi de façon considérable depuis.

Neuf ans plus tard, Maven n'a plus grand-chose à voir avec un simple outil de tri d'images. Il s'agit désormais d'une plateforme de commandement et de contrôle capable d'analyser des données de champ de bataille et d'identifier des cibles. Elle est décrite comme le principal système d'exploitation IA de l'armée américaine, qui a mené des milliers de frappes ciblées contre l'Iran au cours des dernières semaines.

Maven peut analyser rapidement d'immenses volumes de données provenant de satellites, de drones, de radars, de capteurs et de rapports de renseignement, puis utiliser l'IA pour identifier automatiquement des menaces ou des cibles potentielles : véhicules militaires ennemis, bâtiments ou dépôts d'armement.

La décision de Feinberg formalise cette réalité opérationnelle. Dans la terminologie du département de la Défense, le statut de « programme officiel » représente une mise à niveau fondamentale par rapport à la structure contractuelle précédente de Palantir. Contrairement aux initiatives expérimentales financées par des budgets de recherche ou des crédits à court terme, les programmes officiels bénéficient de lignes budgétaires dédiées avec des engagements pluriannuels de soutien.


La mécanique d'une hégémonie budgétaire

Ce changement de statut n'est pas anodin sur le plan technique et institutionnel. Le mémo de Feinberg procède également à une réorganisation de la chaîne de commandement : la supervision de Maven sera transférée de l'Agence nationale de renseignement géospatial vers le Bureau du chef du numérique et de l'intelligence artificielle du Pentagone dans un délai de trente jours. Les futurs contrats avec Palantir seront quant à eux gérés par l'armée de terre.

Feinberg a écrit : « Il est impératif d'investir maintenant, et de manière ciblée, pour approfondir l'intégration de l'intelligence artificielle au sein de la force interarmées, et de faire des décisions assistées par IA la pierre angulaire de notre stratégie. »

Pour Palantir, la manne financière accumulée depuis quelques années atteint des proportions vertigineuses. L'entreprise a décroché un contrat avec l'armée américaine d'une valeur pouvant aller jusqu'à 10 milliards de dollars. Ces attributions ont contribué à doubler le cours de l'action en un an, portant la capitalisation boursière de la société à près de 360 milliards de dollars. La désignation comme programme officiel relève significativement le coût de transition pour le Pentagone et établit Palantir comme fournisseur par défaut d'IA et de ciblage sur un large spectre d'opérations militaires. L'entreprise devient en pratique l'intégrateur et l'orchestrateur des capacités d'IA en matière de défense, plutôt qu'un simple prestataire de solutions ponctuelles.

La démonstration qui ne laisse aucun doute

Mi-mars 2026, lors d'un événement organisé par Palantir, le responsable du bureau IA du Pentagone, Cameron Stanley, a réalisé une présentation qui a dissipé les dernières ambiguïtés sur la nature de l'outil. Il a montré comment la plateforme Maven pouvait être utilisée pour le ciblage d'armements au Moyen-Orient, en présentant des captures d'écran de cartes thermiques issues du système. « Quand nous avons commencé, il fallait des heures pour faire ce que vous venez de voir », a-t-il déclaré, selon une vidéo publiée sur YouTube par l'entreprise.

La rapidité du traitement est au cœur de la proposition de valeur militaire de Maven. Là où des analystes humains passaient des heures à corréler flux satellitaires, données radar et rapports de renseignement pour proposer une désignation de cible, le système automatise l'essentiel de ce travail en quelques instants. Les partisans du programme y voient une avancée décisive dans le rythme opérationnel ; ses détracteurs, une réduction dangereuse du temps laissé à la délibération humaine.


L'épine dans la chaîne d'approvisionnement : la rupture avec Anthropic

C'est ici que l'affaire prend une tournure particulièrement révélatrice des tensions qui traversent l'industrie de l'IA. Maven, ce système que le Pentagone vient d'élever au rang de colonne vertébrale de son appareil militaire, repose en partie sur un modèle d'IA fabriqué par une entreprise que ce même Pentagone vient de bannir.

Le département de la Défense a officiellement désigné Anthropic comme un risque pour la chaîne d'approvisionnement, obligeant les prestataires et sous-traitants de défense à certifier qu'ils n'utilisent pas les modèles de l'entreprise dans leur travail avec le Pentagone. Le motif invoqué : Anthropic refusait d'accorder un accès sans restriction à son modèle Claude pour des usages militaires autonomes et pour la surveillance de masse de citoyens américains.

Dario Amodei, PDG d'Anthropic, avait annoncé qu'il ne permettrait pas à son modèle d'être utilisé pour des armes autonomes ou pour la surveillance de masse des citoyens américains. Le ministère de la Défense a contesté que le désaccord portait sur ces points, affirmant que les entreprises privées ne peuvent pas dicter à l'État l'usage qu'il fait des technologies en contexte de guerre ou d'opérations tactiques.

Anthropic a répondu en déposant une plainte en justice, qualifiant la décision de mise sur liste noire punissant l'entreprise pour ses règles de sécurité. Les avocats de la société ont soutenu que Claude n'avait pas été conçu pour être utilisé dans des armes létales autonomes sans supervision humaine, ni pour espionner des citoyens américains à grande échelle.


Maven : l’IA de Palantir tourne (en partie) sur Claude... mais peut-être plus pour longtemps

Pendant longtemps, un acteur discret mais central a fait tourner la machine Maven de Palantir Technologies : les modèles d’intelligence artificielle de Anthropic, et en particulier Claude.

Contrairement à ce que l’on pourrait penser, Claude n’est pas un simple outil annexe. Il a été intégré au cœur même du système, là où se joue l’essentiel : l’analyse de données massives issues de capteurs militaires, la synthèse d’informations complexes et l’aide à la décision. En clair, Claude agit comme une couche « cognitive » capable de transformer des flux bruts (images satellites, vidéos de drones, signaux divers) en informations directement exploitables.

Ce rôle central illustre une bascule plus large : les grands modèles de langage ne sont plus seulement des assistants conversationnels, mais deviennent des briques critiques dans des systèmes opérationnels à haute intensité.

Mais cet équilibre est en train de changer.

Sous pression stratégique, notamment du côté du Pentagone, la dépendance à Anthropic est désormais remise en question. En ligne de mire : les risques liés à un fournisseur unique dans des environnements sensibles. Résultat, Palantir Technologies travaille à diversifier ses modèles et à réduire la place de Claude dans Maven.

Le problème ? Claude est profondément imbriqué dans l’architecture du système. Le remplacer ne consiste pas à « brancher » un autre modèle, mais à repenser une partie des workflows construits autour de ses capacités.

C’est là que le pari technologique de Palantir prend tout son sens. Avec son approche dite « agnostique », la plateforme peut, en théorie, basculer entre plusieurs modèles (qu’ils viennent d’OpenAI, d’Anthropic ou d’autres acteurs).

Maven sans Claude : un chantier colossal

La décision du Pentagone a créé une situation opérationnelle kafkaïenne. La plateforme Maven utilise de multiples flux de travail et séquences d'instructions qui ont été construits à l'aide de Claude Code, l'outil de développement logiciel d'Anthropic. Palantir va devoir remplacer ce modèle par un autre et reconstruire des parties entières de son logiciel.

Les ingénieurs sur le terrain ne cachent pas leur scepticisme. Des informaticiens en poste au sein du Pentagone dénoncent cette décision comme contre-productive : ils avaient finalement réussi à familiariser les opérateurs avec l'IA. Ils estiment que Claude est le meilleur modèle disponible, tandis que Grok, le modèle d'Elon Musk, produit souvent des réponses incohérentes à une même requête.

La recertification de systèmes fonctionnant sur des produits Anthropic pour un usage militaire pourrait prendre des mois. Dans le cas d'un système existant remplacé par un nouveau, la certification pourrait prendre de douze à dix-huit mois. « Ce n'est pas seulement coûteux, c'est une perte de productivité », a déclaré Joe Saunders, PDG de RunSafe Security, un prestataire gouvernemental.

La situation est d'autant plus absurde que Reuters a rapporté que le Pentagone a utilisé les outils Claude pour soutenir les opérations militaires américaines dans le conflit avec l'Iran, et que des sources indiquent que la technologie reste en usage malgré la mise sur liste noire.

Questions éthiques et enjeux de gouvernance mondiale

Au-delà des querelles contractuelles, la désignation officielle de Maven soulève des interrogations de fond que la communauté internationale ne peut pas ignorer. Des groupes d'experts des Nations Unies ont averti que le ciblage d'armements par IA sans intervention humaine soulève des risques éthiques, juridiques et sécuritaires, dans la mesure où les systèmes d'apprentissage automatique intègrent des biais involontaires issus des données d'entraînement.

Palantir maintient une position nuancée sur ce point : son logiciel ne prend pas de décisions létales de façon autonome, et les humains demeurent responsables de la sélection et de l'approbation de chaque cible. Mais la frontière entre un système d'aide à la décision ultrarapide et un système décisionnel de facto est de plus en plus difficile à tracer, surtout lorsque la pression opérationnelle pousse à raccourcir les boucles de validation.

La désignation de Maven comme programme officiel produit également des effets de signal au-delà des frontières américaines. Les alliés de l'OTAN et les nations partenaires cherchant à harmoniser leurs systèmes avec l'infrastructure militaire américaine pourraient accélérer l'adoption de Maven ou de systèmes similaires. Ce qui était une décision contractuelle nationale peut ainsi devenir un étalon pour l'ensemble des architectures de défense occidentales.

Un précédent aux implications durables

L'affaire Maven–Anthropic–Pentagone cristallise une tension structurelle qui n'est pas près de se résorber : celle entre des entreprises technologiques qui intègrent des garde-fous éthiques dans leurs produits, et des États qui entendent conserver une souveraineté totale sur l'usage des outils qu'ils financent. Le précédent créé par l'éviction d'Anthropic envoie un signal clair à tous les acteurs du secteur : imposer des limites à l'usage militaire de son IA peut valoir une mise sur liste noire fédérale, indépendamment de la qualité du produit.

Anthropic avait été la première entreprise à faire certifier ses modèles pour un usage sur des réseaux militaires classifiés, via un partenariat avec Palantir approuvé il y a près de deux ans. Elle disposait d'une autorisation FedRAMP High et affirmait n'avoir jamais reçu de signalement de sécurité ou de compétence de la part du gouvernement fédéral. Son exclusion ne repose donc pas sur des failles techniques, mais sur une divergence de principe : ce qui rend la décision d'autant plus significative.

Que Maven tienne ses promesses opérationnelles ou génère ses premiers incidents dans des conditions de combat réelles, une chose est certaine : l'ère où l'IA militaire relevait du projet expérimental est révolue. Elle est désormais inscrite dans le budget fédéral, intégrée aux doctrines interarmées, et validée au plus haut niveau de la hiérarchie du Pentagone.

Source : vidéo dans le texte, Reuters

Et vous ?

Un fournisseur privé peut-il légitimement imposer des conditions d'usage éthiques sur un produit vendu à une armée nationale, ou cède-t-il nécessairement sa souveraineté sur la technologie dès lors qu'il signe un contrat de défense ?

La dépendance de Maven envers Claude, malgré la mise sur liste noire d'Anthropic, révèle une vulnérabilité réelle dans la chaîne d'approvisionnement technologique militaire : comment les États peuvent-ils éviter de se retrouver tributaires de modèles dont ils ne maîtrisent pas les paramètres internes ?

La démonstration publique de Cameron Stanley, montrant des cartes thermiques de ciblage au Moyen-Orient en direct lors d'un événement commercial de Palantir, est-elle une transparence bienvenue ou une banalisation inquiétante de l'usage létal de l'IA ?

Si Maven devient l'étalon OTAN pour l'IA de défense, quelles conséquences pour les armées européennes qui auraient pu développer leurs propres capacités souveraines ?
Vous avez lu gratuitement 2 426 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !