Anthropic a décider d'assouplir son principe de sécurité fondamental pour faire face à la concurrence. Au lieu d'imposer des garde-fous à son développement de modèles d'IA, Anthropic adopte un cadre de sécurité non contraignant qui, selon elle, peut évoluer et évoluera. Cette annonce est surprenante, car Anthropic s'est décrite comme l'entreprise d'IA avec une « âme ». Elle intervient également la semaine même où Anthropic mène une bataille importante avec le Pentagone au sujet des lignes rouges en matière d'IA. Le changement de politique est distinct et sans rapport avec les discussions d'Anthropic avec le Pentagone, selon une source familière de l'affaire.Anthropic est une entreprise américaine de recherche et de développement en intelligence artificielle fondée en 2021 par d’anciens membres d’OpenAI, dont Dario Amodei et Daniela Amodei. La société est spécialisée dans les travaux liés à la sûreté, à l’alignement et à la gouvernance des systèmes d’IA avancés. Son objectif affiché est de développer des modèles puissants tout en réduisant les risques associés à leur déploiement à grande échelle, notamment en matière de sécurité, de biais, de manipulation et d’impacts sociétaux.
En fait, depuis sa création, Anthropic s’est positionnée comme l’anti-thèse d’une IA purement utilitariste, optimisée uniquement pour la performance. Avec Claude, l’entreprise revendique une approche dite de « constitutional AI », où le modèle apprend non seulement à répondre, mais aussi à se corriger lui-même en se référant à un corpus de principes explicites. La nouvelle constitution publiée marque une évolution notable : elle n’est plus un simple outil interne d’entraînement, mais un document revendiqué comme central dans l’identité même du modèle.
Ce texte agit comme une sorte de charte fondamentale. Il ne décrit pas des comportements précis à adopter, mais des valeurs, des priorités et des hiérarchies de principes. Claude est entraîné à évaluer ses propres réponses à l’aune de ces règles, à détecter ses dérives potentielles et à reformuler de lui-même ses sorties lorsqu’elles entrent en tension avec la constitution.
Puis fin janvier 2026, un conflit discret mais féroce a éclaté entre l'armée américaine et Anthropic. Le conflit porte sur une question d'une simplicité trompeuse : qui décide de l'utilisation d'une IA puissante dans la guerre ? Anthropic, l'entreprise à l'origine de l'assistant d'IA Claude, a tracé une ligne de démarcation. Les négociateurs du Pentagone veulent que l'entreprise lève les restrictions qui empêchent actuellement sa technologie d'être déployée pour des opérations autonomes de ciblage et de surveillance d'armes à l'intérieur des frontières américaines. Anthropic a refusé.
Récemment, le secrétaire américain à la Défense Pete Hegseth a donné au PDG d'Anthropic jusqu'au 27 février 2026 à 17h pour ouvrir la technologie d'IA de l'entreprise à une utilisation militaire sans restriction, sous peine de perdre son contrat avec le gouvernement fédéral. Il aurait également menacé de désigner Anthropic comme un risque pour la chaîne d'approvisionnement. Le Pentagone accélère l'intégration de l'IA pour maintenir sa compétitivité face à la Chine.
En réponse, Anthropic a décider d'assouplir son principe de sécurité fondamental pour faire face à la concurrence. Au lieu d'imposer des garde-fous à son développement de modèles d'IA, Anthropic adopte un cadre de sécurité non contraignant qui, selon elle, peut évoluer et évoluera. Dans un billet de blog décrivant sa nouvelle politique, Anthropic a déclaré que les lacunes de sa politique de mise à l'échelle responsable, vieille de deux ans, pourraient entraver sa capacité à être compétitive sur un marché de l'IA en pleine croissance.
Cette annonce est surprenante, car Anthropic s'est décrite comme l'entreprise d'IA avec une « âme ». Elle intervient également la semaine même où Anthropic mène une bataille importante avec le Pentagone au sujet des lignes rouges en matière d'IA. Le changement de politique est distinct et sans rapport avec les discussions d'Anthropic avec le Pentagone, selon une source familière de l'affaire. Le secrétaire à la défense Pete Hegseth a lancé un ultimatum au PDG d'Anthropic, Dario Amodei, pour qu'il revienne sur les mesures de protection de l'entreprise en matière d'IA, sous peine de perdre un contrat du Pentagone d'une valeur de 200 millions de dollars. Le Pentagone a menacé d'inscrire Anthropic sur une liste noire du gouvernement.
Dans son billet de blog, l'entreprise explique que sa politique de sécurité précédente visait à établir un consensus au sein de l'industrie sur l'atténuation des risques liés à l'IA - des garde-fous que l'industrie n'a pas réussi à franchir. Anthropic a également souligné que sa politique de sécurité était en décalage avec le climat politique anti-réglementaire qui règne actuellement à Washington.
La politique précédente d'Anthropic stipulait qu'elle devait interrompre la formation de modèles plus puissants si leurs capacités dépassaient la capacité de l'entreprise à les contrôler et à assurer leur sécurité - une mesure qui a été supprimée dans la nouvelle politique. Anthropic a fait valoir que les développeurs d'IA responsables qui interrompent leur croissance alors que des acteurs moins prudents vont de l'avant risquent « d'aboutir à un monde moins sûr ». Dans le cadre de la nouvelle politique, Anthropic a déclaré qu'elle séparerait ses propres plans de sécurité de ses recommandations pour l'industrie de l'IA.
Anthropic a écrit qu'elle avait espéré que ses principes de sécurité initiaux « encourageraient d'autres entreprises d'IA à introduire des politiques similaires ». C'est l'idée d'une « course vers le haut » (l'inverse d'une « course vers le bas »), dans laquelle les différents acteurs de l'industrie sont incités à améliorer, plutôt qu'à affaiblir, les mesures de protection de leurs modèles et leur position globale en matière de sécurité". L'entreprise suggère aujourd'hui que cela n'a pas été le cas.
Un porte-parole d'Anthropic a décrit la politique mise à jour comme « la plus solide à ce jour en matière de responsabilité publique et de transparence ». « Nous avons franchi une étape importante par rapport à nos politiques précédentes en nous engageant à publier à intervalles réguliers des rapports détaillés sur nos plans visant à renforcer nos mesures d'atténuation des risques, ainsi que sur les modèles de menace et les capacités de tous nos modèles », a déclaré le porte-parole. « Depuis le début, nous avons dit que le rythme de l'IA et les incertitudes dans le domaine nous obligeraient à itérer et à améliorer rapidement la politique. »
En juin 2025, Anthropic avait lancé Claude Gov pour les clients américains du secteur de la sécurité nationale, un ensemble exclusif de modèles d'intelligence artificielle (IA) qui est déjà entre les mains de certaines agences gouvernementales. Anthropic a déclaré que les modèles disponibles sous Claude Gov sont conçus pour traiter des documents classifiés, fonctionner mieux dans les langues et dialectes "essentiels à la sécurité nationale" et avoir une meilleure compréhension des contextes du renseignement et de la défense. Le produit d'IA destiné au gouvernement d'Anthropic était annoncé alors que plusieurs entreprises se font concurrence pour vendre des outils technologiques émergents aux agences fédérales. L'enjeu est de remporter de nouveaux contrats et d'acquérir le prestige de travailler sur des missions gouvernementales importantes.
Voici l'annonce d'Anthropic :
Politique de mise à l'échelle responsable d'Anthropic : Version 3.0
Nous publions la troisième version de notre Politique de Changement d'échelle responsable (Responsible Scaling Policy - RSP), le cadre volontaire que nous utilisons pour atténuer les risques catastrophiques des systèmes d'IA.
Anthropic dispose d'une RSP depuis plus de deux ans, et nous avons beaucoup appris sur ses avantages et ses défauts. Nous mettons donc à jour la politique afin de renforcer ce qui a bien fonctionné jusqu'à présent, d'améliorer la politique si nécessaire et de mettre en œuvre de nouvelles mesures pour accroître la transparence et la responsabilité de notre prise de décision.
Dans ce billet, nous examinerons certaines des idées qui sous-tendent les changements.
Le RSP original et notre théorie du changement
Le RSP est notre tentative de résoudre le problème de la prise en compte des risques liés à l'IA qui ne sont pas présents au moment où la politique est rédigée, mais qui pourraient apparaître rapidement en raison de l'évolution exponentielle de la technologie. Lorsque nous avons rédigé le RSP original en septembre 2023, les grands modèles de langage étaient essentiellement des interfaces de chat. Aujourd'hui, ils peuvent naviguer sur le web, écrire et exécuter du code, utiliser des ordinateurs et entreprendre des actions autonomes en plusieurs étapes. L'apparition de ces nouvelles capacités s'est accompagnée de l'apparition de nouveaux risques. Nous nous attendons à ce que cette tendance se poursuive.
Nous avons axé le RSP sur le principe des engagements conditionnels, ou « si-alors ». Si un modèle dépasse certains niveaux de capacité (par exemple, les capacités en sciences biologiques qui pourraient aider à la création d'armes dangereuses), la politique stipule que nous devons introduire un nouvel ensemble de garanties plus strictes (par exemple, contre l'utilisation abusive des modèles et le vol des poids des modèles).
Chaque ensemble de garanties correspond à un « niveau de sécurité de l'IA » (AI Safety Level - ASL) : par exemple, l'ASL-2 correspond à un ensemble de garanties requises, tandis que l'ASL-3 correspond à un ensemble de garanties plus strictes nécessaires pour des modèles d'IA plus performants.
Les premières ASL (ASL-2 et ASL-3) ont été définies de manière très détaillée, mais il était plus difficile de spécifier les garanties correctes pour des modèles qui n'étaient pas encore au point depuis plusieurs générations. Nous avons donc...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.
