Le PDG d'Anthropic, Dario Amodei, a réaffirmé l'engagement de l'entreprise à faire progresser le leadership américain dans le domaine de l'intelligence artificielle. Dans sa déclaration, Amodei a souligné le principe fondateur de l'entreprise : l'IA doit être une force au service du progrès humain, et non un danger. Ses remarques font suite aux critiques répétées du capital-risqueur David Sacks, qui occupe le poste de tsar de l'IA et de la cryptographie auprès du président américain Donald Trump. Il avait précédemment qualifié la start-up d'intelligence artificielle soutenue par Google et Amazon de « woke ».En mai, la Chambre des représentants des États-Unis a adopté le projet de loi budgétaire phare de Donald Trump, après des jours de querelles entre les factions disparates de son parti républicain. La Chambre des représentants, contrôlée par les républicains, a approuvé par 215 voix contre 214, ce projet de loi de plus de 1 000 pages qui réduirait les impôts, les dépenses sociales et la dette fédérale. Mais le projet de loi budgétaire interdirait aux États d'appliquer des lois régissant l'intelligence artificielle (IA) pendant dix ans.
Anthropic est une start-up américaine spécialisée dans l'intelligence artificielle (IA) fondée en 2021. Elle a développé une famille de grands modèles de langage (LLM) baptisée Claude. Selon l'entreprise, elle mène des recherches et développe des IA afin « d'étudier leurs propriétés de sécurité à la frontière technologique » et utilise ces recherches pour déployer des modèles sûrs pour le public.
Récemment, le PDG d'Anthropic, Dario Amodei, a réaffirmé l'engagement de l'entreprise à faire progresser le leadership américain dans le domaine de l'intelligence artificielle. Dans sa déclaration, Amodei a souligné le principe fondateur de l'entreprise : l'IA doit être une force au service du progrès humain, et non un danger. Cela signifie développer des produits véritablement utiles, faire preuve de transparence quant aux risques et aux avantages, et collaborer avec ceux qui partagent cet objectif.
Anthropic a connu une croissance remarquable, avec un chiffre d'affaires passant de 1 milliard à 7 milliards de dollars en seulement neuf mois. Amodei a décrit l'entreprise comme « la société de logiciels à la croissance la plus rapide de l'histoire », soulignant que cette expansion s'est produite tout en déployant l'IA de manière responsable. Il a également souligné qu'il existe des produits qu'Anthropic ne fabriquera pas et des risques qu'elle ne prendra pas, même s'ils pourraient générer des profits, renforçant ainsi l'engagement à long terme de l'entreprise en matière de sécurité et d'éthique.
Le PDG d'Anthropic, Dario Amodei, a répondu à ce qu'il a qualifié d'« affirmations inexactes » concernant la position politique de l'entreprise. Ses remarques font suite aux critiques répétées du capital-risqueur David Sacks, qui occupe le poste de tsar de l'IA et de la cryptographie auprès du président américain Donald Trump. Il avait précédemment qualifié la start-up d'intelligence artificielle soutenue par Google et Amazon de « woke ».
Amodei a publié une déclaration affirmant que l'entreprise était en phase avec l'administration Trump sur « les domaines clés de la politique en matière d'IA » et qu'elle était intéressée par une collaboration avec « toute personne sérieusement désireuse de faire avancer les choses ». Il a déclaré : « Je suis convaincu qu'Anthropic, l'administration et les dirigeants de tous bords politiques veulent la même chose : garantir que la puissante technologie de l'IA profite au peuple américain et que les États-Unis progressent et consolident leur avance dans le domaine du développement de l'IA. »
L'entreprise d'IA a attiré l'attention de Sacks après que Jack Clark, l'un des cofondateurs d'Anthropic et son actuel responsable des politiques, ait publié un essai intitulé « Technological Optimism and Appropriate Fear » (Optimisme technologique et crainte appropriée), qui a déclenché un débat en ligne sur la réglementation de l'IA. Sacks s'est exprimé sur le réseau social X (anciennement Twitter) pour critiquer l'essai et accuser Anthropic de « mener une stratégie sophistiquée de captation réglementaire basée sur la peur ». Il a déclaré que l'entreprise était « principalement responsable de la frénésie réglementaire de l'État qui nuit à l'écosystème des start-ups ».
Auparavant, Anthropic s'était opposée à un amendement au « One Big Beautiful Bill Act » de Trump qui visait à suspendre pendant 10 ans les réglementations étatiques en matière d'IA.
Cependant, cette proposition n'a pas été retenue dans la législation finale. L'entreprise a également soutenu un projet de loi californien exigeant que les principaux développeurs d'IA partagent publiquement leurs protocoles de sécurité, avec des exemptions pour les entreprises dont le chiffre d'affaires annuel est inférieur à 500 millions de dollars.
L'investisseur milliardaire et cofondateur de LinkedIn, Reid Hoffman, a également défendu Anthropic, qualifiant l'entreprise de « l'un des bons ». Hoffman, l'un des premiers investisseurs dans OpenAI et actuel actionnaire, a déclaré que Greylock, dont il est partenaire, avait également investi dans Anthropic. Sacks a répondu au message de Hoffman, et les deux hommes ont échangé des commentaires en ligne. Sacks a écrit que le « véritable problème » était « l'intention d'Anthropic de faire passer en catimini des réglementations sur l'IA woke et d'autres réglementations sur l'IA par le biais d'États bleus comme la Californie ».
Amodei a rapidement clarifié la position d'Anthropic, déclarant que l'entreprise avait toujours soutenu une approche fédérale unifiée plutôt que des lois état par état. « Lorsque nous sommes d'accord, nous le disons. Lorsque nous ne le sommes pas, nous proposons une alternative à prendre en considération. Nous agissons ainsi parce que nous sommes une société d'intérêt public dont la mission est de veiller à ce que l'IA profite à tous et de maintenir l'avance des États-Unis dans ce domaine », a souligné Amodei. « Encore une fois, nous pensons partager ces objectifs avec l'administration Trump, les deux chambres du Congrès et le public », a-t-il ajouté.
Concernant le projet de loi controversé « One Big Beautiful Bill Act », les partisans de cette mesure affirment qu'elle est essentielle pour développer rapidement l'IA sans contrainte et gagner la compétition face à la Chine. Mais le projet de loi est très impopulaire dans le pays ; un sondage révèle que les Américains s'opposent au moratoire sur la réglementation de l'IA dans une proportion de 3 contre 1. Plus précisément, la réponse la plus populaire est « fortement opposé » avec 36 % des électeurs, suivie de « pas sûr » (27 %), « plutôt opposé » (19 %), « plutôt favorable » (11 %) et « fortement favorable » (7 %). En d'autres termes, le soutien fort est la position la plus impopulaire de toutes. Dans toutes les catégories d'âge, les électeurs sont plus nombreux à s'opposer au moratoire qu'à le soutenir, les jeunes Américains étant les plus opposés.
Voici la déclaration de Dario Amodei partagée par Anthropic :
Déclaration de Dario Amodei, PDG d'Anthropic, sur l'engagement d'Anthropic à promouvoir le leadership américain dans la création d'une IA puissante et bénéfique.
Anthropic repose sur un principe simple : l'IA doit être une force au service du progrès humain, et non un danger. Cela signifie créer des produits véritablement utiles, parler honnêtement des risques et des avantages, et travailler avec tous ceux qui souhaitent sérieusement y parvenir. Je suis tout à fait d'accord avec les récentes déclarations du vice-président JD Vance sur l'IA, en particulier lorsqu'il souligne la nécessité de maximiser les applications qui aident les gens, comme les avancées dans le domaine de la médecine et de la prévention des maladies, tout en minimisant celles qui sont nuisibles. Cette position est à la fois sage et conforme à ce que souhaite la grande majorité du public.
Anthropic est l'entreprise de logiciels qui connaît la croissance la plus rapide de l'histoire, avec un chiffre d'affaires passant de 1 à 7 milliards de dollars au cours des neuf derniers mois, et nous avons réussi à atteindre cet objectif tout en déployant l'IA de manière réfléchie et responsable. Il y a des produits que nous ne fabriquerons pas et des risques que nous ne prendrons pas, même s'ils nous permettraient de gagner de l'argent.
Notre position de longue date est que la gestion des impacts sociétaux de l'IA doit relever de la politique plutôt que de la politique. Je suis convaincu qu'Anthropic, l'administration et les dirigeants de tous bords politiques souhaitent la même chose : garantir que la puissante technologie de l'IA profite au peuple américain et que les États-Unis progressent et consolident leur avance dans le domaine du développement de l'IA.
Malgré notre habitude de communiquer fréquemment et de manière transparente sur nos positions, on constate depuis peu une recrudescence d'affirmations inexactes concernant les positions politiques d'Anthropic. Certaines sont suffisamment importantes pour justifier une mise au point.
Notre alignement avec l'administration Trump sur des domaines clés de la politique en matière d'IA
- Nous travaillons directement avec le gouvernement fédéral de plusieurs manières. En juillet, le ministère de la Guerre a attribué à Anthropic un contrat de deux ans d'une valeur de 200 millions de dollars pour la création d'un prototype de capacités d'IA de pointe qui renforcent la sécurité nationale. Nous avons conclu un partenariat avec l'Administration des services généraux afin de proposer Claude for Enterprise et Claude for Government pour 1 dollar à l'ensemble du gouvernement fédéral. Claude est également déployé sur des réseaux classifiés par l'intermédiaire de partenaires tels que Palantir et le Lawrence Livermore National Laboratory.
- Anthropic a publiquement salué le plan d'action du président Trump en matière d'IA. Nous avons soutenu les efforts du président visant à développer l'approvisionnement énergétique aux États-Unis afin de remporter la course à l'IA, et j'ai personnellement participé à un sommet sur l'IA et l'énergie en Pennsylvanie avec le président Trump, où nous avons eu une conversation fructueuse sur le leadership américain dans le domaine de l'IA. Le directeur des produits d'Anthropic a participé à un événement à la Maison Blanche où nous nous sommes engagés à accélérer les applications de l'IA dans le domaine de la santé, et notre responsable des affaires extérieures a participé à l'événement du groupe de travail sur l'éducation à l'IA de la Maison Blanche afin de soutenir leurs efforts pour améliorer la maîtrise de l'IA par les enseignants.
- Toutes les grandes entreprises d'IA ont embauché des experts en politique issus des deux partis et des administrations récentes, et Anthropic ne fait pas exception. Nous avons embauché des républicains et des démocrates, et avons constitué un conseil consultatif qui comprend d'anciens hauts fonctionnaires de l'administration Trump. Anthropic prend ses décisions d'embauche en fonction de l'expertise, de l'intégrité et des compétences des candidats, et non de leur affiliation politique.
- Nous (et de nombreuses autres organisations) avons respectueusement exprimé notre désaccord avec un seul amendement proposé dans le One Big Beautiful Bill : le moratoire de 10 ans sur les lois étatiques relatives à l'IA, qui aurait bloqué toute action sans proposer d'alternative fédérale. Cette disposition spécifique a été rejetée par les républicains et les démocrates par 99 voix contre 1 au Sénat. Notre position de longue date est qu'une approche fédérale uniforme est préférable à un patchwork de lois étatiques. J'ai proposé une telle norme il y a plusieurs mois et nous sommes prêts à travailler avec les deux partis pour la mettre en œuvre.
Notre préférence pour une norme nationale en matière d'IA
- Bien que nous continuions à plaider en faveur de cette norme fédérale, l'IA évolue si rapidement que nous ne pouvons pas attendre que le Congrès agisse. Nous avons donc soutenu un projet de loi soigneusement élaboré en Californie, où la plupart des principaux laboratoires d'IA américains ont leur siège, y compris Anthropic. Ce projet de loi, SB 53, oblige les plus grands développeurs d'IA à rendre publics leurs protocoles de sécurité pour les modèles de pointe et est rédigé de manière à exempter toute entreprise dont le chiffre d'affaires annuel brut est inférieur à 500 millions de dollars, ne s'appliquant donc qu'aux très grandes entreprises d'IA. Anthropic a soutenu cette exemption afin de protéger les start-ups et en a d'ailleurs proposé une première version....
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.