Alex Karp, PDG de Palantir, a reconnu que sa société continue d'utiliser les modèles d'IA Claude d'Anthropic, même après que le Pentagone ait désigné le géant de l'IA comme un risque pour la chaîne d'approvisionnementAlex Karp, PDG de Palantir, a confirmé que l'entreprise continuait d'utiliser les modèles d'intelligence artificielle (IA) « Claude » d'Anthropic, alors que le Pentagone a récemment désigné cette société comme un risque pour la chaîne d'approvisionnement. Intervenant lors de la conférence AIPcon 9, Karp a reconnu que, bien que le département de la Défense (DoD) envisage de se passer progressivement d'Anthropic, les technologies de cette dernière demeurent intégrées aux systèmes de Palantir. La décision du Pentagone a également suscité des inquiétudes quant à la faisabilité d'une transition rapide, en particulier dans le cadre des opérations militaires critiques.
Ces déclarations interviennent dans un contexte de différend entre Anthropic et le Pentagone concernant l'utilisation militaire de l'IA. En février 2026, le secrétaire à la Défense, Pete Hegseth, avait exigé qu'Anthropic assouplisse ses garanties en matière d'IA afin de permettre une utilisation militaire plus large de sa technologie. Le PDG d'Anthropic, Dario Amodei, a rejeté la demande du Pentagone, affirmant que la société préférait renoncer à travailler avec l'armée américaine plutôt que de voir ses modèles utilisés à des fins de guerre ou de surveillance de masse.
La confrontation s'est intensifiée quelques semaines plus tard, lorsque le département de la Défense a officiellement désigné Anthropic comme un risque pour la chaîne d'approvisionnement, une qualification réservée jusqu'alors aux seuls adversaires étrangers. Cette mesure oblige les sous-traitants et les fournisseurs du secteur de la défense à certifier qu’ils n’utilisent pas Claude pour des travaux liés au Pentagone. Malgré cette désignation, les modèles Claude sont toujours utilisés pour soutenir les opérations militaires américaines en Iran.
Palantir Technologies Inc. est une société américaine cotée en bourse, basée à Miami en Floride, qui développe des plateformes d'intégration et d'analyse de données. Ces plateformes permettent aux agences gouvernementales, aux forces armées et aux entreprises de combiner et d'analyser des données provenant de multiples sources. Fondée en 2003, les produits phares de l'entreprise, Gotham et Foundry, relient des bases de données auparavant cloisonnées afin de soutenir les opérations de renseignement, l'analyse antiterroriste, l'application de la loi et l'analyse de données d'entreprise.
Alex Karp, PDG de Palantir, a récemment reconnu que son entreprise continuait d’utiliser les modèles d’IA « Claude » d’Anthropic, alors même que le Pentagone a officiellement classé ce géant de l’IA comme un risque pour la chaîne d’approvisionnement.
« Le ministère de la Défense prévoit de se passer progressivement d’Anthropic ; pour l’instant, ce n’est pas encore le cas. Nos produits sont intégrés à Anthropic, et à l’avenir, ils seront probablement intégrés à d’autres grands modèles de langage », a déclaré Alex Karp, lors de la conférence AIPcon 9 de Palantir dans le Maryland.
Emil Michael, directeur technique du département de la Défense, a déclaré qu'il faudrait du temps pour abandonner les modèles d'Anthropic, soulignant : « On ne peut pas simplement supprimer du jour au lendemain un système qui est profondément ancré. »
Le président Donald Trump a déclaré que les agences fédérales disposeraient de six mois pour cesser progressivement d'utiliser les produits d'Anthropic, bien qu'une note interne du Pentagone indique que des dérogations pourraient être accordées pour les opérations critiques si aucune alternative viable n'existe.
Le fait que Palantir s'appuie sur Claude met en évidence la complexité de dissocier les systèmes d'IA des opérations de défense, même après une interdiction officielle. Bien que le Pentagone ait fixé un délai de six mois, tant les responsables que les sous-traitants reconnaissent que des exceptions pourraient s'avérer nécessaires pour éviter de perturber des missions militaires sensibles.
Par ailleurs, la dynamique complexe entre Anthropic et le Pentagone a récemment pris une tournure légale. En réaction à la décision du Pentagone, Anthropic a intenté un procès contre l'administration Trump, exigeant l'annulation de sa désignation comme « risque pour la chaîne d'approvisionnement ». L'entreprise considère cette mesure comme « sans précédent et illégale », estimant qu'elle viole ses droits à la liberté d'expression et à la procédure régulière. L'entreprise demande désormais la suspension de cette décision, faisant valoir que des contrats représentant des centaines de millions de dollars sont menacés.
Au-delà du cadre judiciaire, un incident tragique survenu récemment a soulevé des questions cruciales sur l'aspect éthique de l'utilisation de l'IA dans le domaine militaire, accentuant les préoccupations relatives à son usage sans régulation.
Une frappe aérienne américaine en Iran a récemment fait la une des journaux, après qu'une erreur de ciblage liée à l'utilisation du système Claude d'Anthropic a conduit au bombardement d'une école primaire pour filles, faisant plus de 165 morts. Selon des sources, le système, utilisé par le Pentagone pour planifier ses opérations militaires, aurait désigné la cible sur la base de renseignements obsolètes.
Cet incident met en lumière les dangers d'un déploiement de l'IA dans des contextes militaires sensibles sans garanties suffisantes de contrôle humain. Elle a également ébranlé la confiance dans la fiabilité des systèmes d'IA militaires et exacerbé les tensions entre les parties prenantes, notamment l'administration Trump, Anthropic et l'ensemble de l'écosystème de l'IA.
Et vous ?
Quel est votre avis sur le sujet ?
Trouvez-vous la décision de Palantir de continuer à utiliser les modèles Claude d'Anthropic judicieuse ou pertinente ?Voir aussi :
Anthropic blacklisté pour avoir refusé la surveillance de masse, OpenAI en profite et conclut un accord avec le Pentagone, alimentant la campagne #CancelChatGPT où plusieurs se désabonnent en masse
Le Pentagone menace Anthropic de la considérer comme « risque pour la chaîne d'approvisionnement » s'il n'a pas un accès total à son IA Claude pour le ciblage d'armes autonomes et la surveillance de masse
Le Pentagone américain adopte le chatbot IA Grok d'Elon Musk alors qu'il suscite un tollé mondial : Grok serait mis en service au sein du département de la Défense car « l'IA du Pentagone ne serait pas woke »
Palantir Technologies, une société de logiciels de surveillance travaillant avec l'agence controversée ICE, se proclame gardien des droits des Américains et protecteur de leurs données personnelles
Vous avez lu gratuitement 2 456 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

.

