IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Anthropic bloque l'utilisation par des clients tiers des abonnements à Claude Code : la fin de l'interopérabilité et de l'ouverture des outils de dev ou simple épisode dans la bataille des assistants IA ?

Le , par Stéphane le calme

26PARTAGES

10  0 
Claude Code était jusqu’ici l’un des moyens les plus rentables d’accéder à l’IA d’Anthropic. Mais face à l’usage massif via des clients non officiels, la startup a décidé de couper court. Pour ses utilisateurs, c’est la douche froide. Pour ses concurrents, un avertissement. Et pour la communauté open source, une piqûre de rappel : rien n’est vraiment libre dans le monde des IA propriétaires.

On pensait avoir trouvé l’outil parfait pour coder avec une IA. OpenCode permettait de jongler entre Claude, GPT-4 et d’autres modèles au sein d’un seul terminal, en toute fluidité. Mais en début d’année 2026, plusieurs développeurs abonnés à Claude Code ont constaté une panne soudaine : leur outil préféré, souvent un client open source comme OpenCode ou Clawdbot, ne pouvait plus accéder au modèle Claude. Très vite, la cause est identifiée : Anthropic a verrouillé son API pour empêcher tout usage non autorisé en dehors de son propre environnement. Le message est clair : Claude Code est désormais réservé à Claude Code. Fini les interfaces tierces. Seule l’application maison est tolérée. Une manœuvre brutale mais calculée, révélatrice des tensions croissantes entre ouverture communautaire et stratégie de verrouillage.

Claude Code, lancé par Anthropic comme une alternative sécurisée à Codex d’OpenAI, proposait aux développeurs une interface en ligne de commande pour générer du code, rédiger des tests, comprendre des erreurs. Mais contrairement à Codex CLI, son code était obfusqué et fermé. Rapidement, des outils comme OpenCode ont comblé le vide en proposant une expérience plus flexible, unifiant plusieurs IA, avec un succès retentissant sur GitHub. Pour beaucoup, OpenCode était devenu la façon la plus ergonomique et productive d’utiliser Claude.

La coupure, brutale et non annoncée, a pris la communauté à revers. Le message reçu par les utilisateurs est sans appel : les identifiants Claude Code ne peuvent plus être utilisés que via l’outil officiel. Le motif avancé, bien que non confirmé publiquement, semble évident : trop d’utilisateurs exploitaient les forfaits illimités de Claude Code via des outils tiers, détournant ainsi la logique économique du modèle. Là où un usage intensif via l’API officielle coûterait plusieurs centaines voire milliers de dollars, le contournement via OpenCode permettait d’en profiter pour un abonnement mensuel modique. Pour Anthropic, il devenait urgent de fermer la brèche.

Mais la méthode interroge. Aucun avertissement, aucune alternative officielle, aucune offre intermédiaire pour ceux qui veulent bénéficier de la puissance de Claude dans un environnement de leur choix. Juste un couperet. Pour beaucoup, c’est un signal clair : la priorité d’Anthropic n’est plus la communauté de développeurs enthousiastes, mais la protection d’un actif devenu stratégique. Certains y voient un geste à court terme, qui pourrait à long terme aliéner ceux qui auraient été les meilleurs ambassadeurs du modèle Claude.

Ce blocage pose une question plus large : dans un secteur où les grands modèles deviennent des services fermés, à quel point les développeurs peuvent-ils encore construire des outils interopérables, portables, adaptables à leurs propres besoins ? Et si demain chaque fournisseur IA impose sa propre interface, ses propres usages, que restera-t-il de l’esprit d’expérimentation qui a toujours animé les communautés open source ?

Claude Code n’est pas seulement un produit. C’est un cas d’école. Il illustre comment, dans la ruée vers l’IA, même les acteurs les plus réputés pour leur éthique n’hésitent plus à verrouiller leurs systèmes pour conserver un avantage concurrentiel. Face à cela, la communauté tech devra choisir : se plier aux règles changeantes de fournisseurs tout-puissants, ou redoubler d’efforts pour construire, ailleurs, des alternatives véritablement ouvertes.

Contexte : Claude et le modèle Claude Code d’Anthropic

Anthropic est une startup d’intelligence artificielle fondée en 2021 par d’anciens employés d’OpenAI. Son modèle de langage Claude est souvent présenté comme une alternative à ChatGPT, avec un accent mis sur la sécurité et une grande capacité de contexte. En 2025, Anthropic a lancé Claude Code, un outil spécialisé pour l’assistance à la programmation. Claude Code se présente comme un environnement de ligne de commande (CLI) permettant d’utiliser l’IA de Claude pour générer du code, déboguer, écrire des tests, etc. Il a été conçu pour rivaliser avec des solutions similaires d’OpenAI, comme l’interface Codex CLI. Contrairement à OpenAI qui a publié le code source de son CLI Codex sous licence open source, Anthropic a gardé Claude Code propriétaire et obfusqué : le code n’est pas librement accessible et son utilisation est soumise à des conditions strictes. Cette approche fermée avait déjà suscité des critiques en 2025, lorsque Anthropic a émis une plainte DMCA pour faire retirer du code source dé-obfusqué de Claude Code publié par un développeur indépendant.


L’émergence de clients alternatifs : OpenCode, Clawdbot et autres

Face aux limitations du CLI officiel d’Anthropic, la communauté open source s’est mobilisée. Des projets comme OpenCode (proposé par la startup Anomaly Innovations) ont développé des outils alternatifs pour exploiter Claude et d’autres modèles dans un environnement unifié. OpenCode est un CLI/TUI open source très populaire (plus de 58 000 étoiles sur GitHub) qui permet de brancher différents fournisseurs d’IA – que ce soit Anthropic, OpenAI, Google ou même des modèles locaux – pour assister les développeurs dans leur codage.

De même, des bots comme Clawdbot ont vu le jour, offrant des orchestrations d’agents IA pour le code. Ces solutions tierces offraient souvent une meilleure expérience utilisateur et davantage de flexibilité que l’outil officiel d’Anthropic : par exemple, OpenCode a la réputation d’être plus performant et plus ergonomique que Claude Code, tout en permettant de passer d’un modèle à l’autre selon les besoins.

Par ailleurs, d’autres initiatives comme GPT4Free ont cherché à démocratiser l’accès aux IA propriétaires en contournant leurs restrictions. GPT4Free, par exemple, est (ou était) un projet GitHub très en vogue qui permettait d’utiliser gratuitement GPT-4 ou Claude en s’appuyant sur des API non officielles ou des services tiers. Ce type de projet exploite souvent les failles des API ouvertes de certains sites (moteurs de recherche, plateformes proposant des chatbots alimentés par GPT/Claude) pour rediriger des requêtes sans payer directement l’éditeur du modèle. Naturellement, ces usages « gratuits » ou non autorisés ont tendance à attirer l’attention des entreprises concernées, soucieuses de protéger leurs ressources et leurs revenus.


Le blocage soudain des connexions tierces à Claude Code

Début janvier 2026, de nombreux développeurs abonnés à Claude Code ont constaté que leurs outils tiers ne fonctionnaient plus pour se connecter à l’API d’Anthropic. Des applications tierces courantes – comme l’open source OpenCode ou le bot Clawdbot – n’arrivaient soudain plus à se connecter au modèle Claude. L’alerte a été donnée par un développeur (Theo) sur X (Twitter), qui a rapporté qu’Anthropic « serre la vis » sur l’utilisation de comptes Claude dans des applications tierces.

En pratique, les utilisateurs recevaient un message d’erreur explicite lorsqu’ils tentaient d’utiliser leur jeton Claude Code en dehors du CLI officiel : « This credential is only authorized for use with Claude Code and cannot be used for other API requests » (en français : « Ces identifiants ne sont autorisés que pour Claude Code et ne peuvent pas servir à d’autres requêtes API »). Autrement dit, Anthropic a activé une restriction technique pour empêcher que les jetons OAuth fournis dans le cadre de l’abonnement Claude Code soient utilisés dans des outils non approuvés par la société.

Rapidement, la communauté a compris que ce blocage était volontaire de la part d’Anthropic, visant spécifiquement les clients non officiels. Par exemple, certains ont remarqué que la restriction semblait cibler OpenCode en particulier : une méthode alternative un peu plus discrète (via un multiplexeur de modèles nommé llm-mux) continuait à fonctionner, suggérant qu’Anthropic a potentiellement « filtré » ou identifié les requêtes émanant d’OpenCode pour les bloquer. En parallèle, les développeurs du projet OpenCode ont commencé à travailler sur des correctifs pour contourner la limitation : dès le 9 janvier, un patch officieux était proposé pour rétablir l’accès, témoignage de l’effet « chat et souris » qui s’engage souvent dans ce genre de situation.


Les réactions de la communauté et implications pour l’open source

La nouvelle du blocage a provoqué un véritable tollé parmi les développeurs utilisateurs de ces outils tiers. De nombreux professionnels avaient intégré OpenCode ou Clawdbot dans leur flux de travail quotidien et ont exprimé leur frustration. Sur les réseaux sociaux, on a vu défiler des messages de déception et de colère : « Je viens tout juste de configurer mon environnement, et voilà que tout tombe en panne… », « J’utilisais OpenCode depuis hier, c’était trop beau pour durer », ou encore « J’annule mon abonnement Claude Code sur-le-champ ».

Certains soulignent l’ironie de la situation : Anthropic, qui se présentait comme une entreprise à l’éthique exemplaire visant le bien de l’humanité, adopte ici une stratégie perçue comme très mercantile et anti-communautaire. Un utilisateur a sarcastiquement commenté qu’Anthropic a sûrement jugé qu’une plateforme open source permettant aux gens de travailler comme ils l’entendent était « trop nuisible pour l’humanité », dénonçant ce qu’il considère comme de l’hypocrisie de la part d’une entreprise prônant le « global good ».

Au-delà de la colère, c’est la déception qui transparaît : beaucoup de développeurs appréciaient l’expérience améliorée qu’offrait OpenCode par rapport à l’outil propriétaire d’Anthropic. L’interface et les fonctionnalités d’OpenCode étaient jugées plus efficaces, et l’outil permettait en outre d’utiliser plusieurs modèles concurrents au sein d’un même workflow plutôt que d’être verrouillé sur Claude Code seul.

Désormais, ces utilisateurs se voient contraints soit de revenir à l’interface officielle Claude Code (que nombre jugent moins aboutie), soit de payer le tarif API bien plus élevé pour continuer à utiliser Claude via OpenCode. Beaucoup menacent de changer de crèmerie : certains annoncent déjà migrer vers la concurrence ou se replier sur des solutions open source, même si moins performantes, par principe. Pour les mainteneurs de projets open source comme OpenCode ou Clawdbot, c’est un coup dur : leur utilité même est remise en question par ce verrouillage, ce qui pose la question de la viabilité de tels projets face aux changements unilatéraux des fournisseurs d’API.

Pourquoi Anthropic a-t-il bloqué ces usages ?

Anthropic n’a pas communiqué officiellement sur les raisons de ce blocage (aucune annonce publique ni réponse sur X au moment des faits). On peut toutefois dégager plusieurs hypothèses cohérentes, alignées avec le point de vue de l’entreprise :

Protection du modèle économique

C’est sans doute le facteur principal. Anthropic propose Claude Code sous forme d’abonnement mensuel (de l’ordre de 100$ pour Claude Pro ou 200$ pour Claude Max). Ces forfaits « illimités » sont extrêmement attractifs au regard du coût de l’API Claude classique : pour une utilisation intensive en un mois, les appels API pourraient facilement revenir à plus de 1000 $ si l’on payait à l’usage.

En d’autres termes, Anthropic vend à perte un accès Claude Code forfaitaire par rapport au tarif unitaire de ses API. Mais cette « bonne affaire » n’était tenable pour la startup que si les utilisateurs passaient par son application officielle, avec peut-être des limitations pratiques ou une expérience moins propice à l’abus.

Or, en utilisant OpenCode, les abonnés pouvaient bénéficier du « buffet à volonté » de tokens à 200 $ tout en contournant les inconforts ou limites du client officiel. Pour Anthropic, c’est une perte de revenus potentiels : l’entreprise préférerait sans doute que ces clients payent à la requête via l’API (ce qui pourrait leur coûter 5 fois plus cher ou davantage sur le mois).

Le blocage se comprend alors comme une mesure pour forcer les utilisateurs d’OpenCode à basculer vers le modèle pay-as-you-go plus rémunérateur, ou à revenir dans le giron de l’outil officiel.

Respect des conditions d’utilisation (ToS)

Anthropic avait dès le départ interdit l’usage des tokens Claude Code en dehors de son application. Ses conditions stipulent « qu'à moins d’une approbation explicite, nous n’autorisons pas les développeurs tiers à intégrer Claude.ai ou à réutiliser nos identifiants dans leurs produits », visant précisément les harnesses et orchestrateurs comme OpenCode ou Clawdbot.

Jusque-là, cette interdiction était surtout théorique (Anthropic tolérait tacitement ces usages, ce qui a permis l’essor d’OpenCode). Le revirement de janvier 2026 marque simplement le passage à l’application stricte de ces règles. D’un point de vue de fournisseur de service, on peut estimer qu’Anthropic cherche à reprendre le contrôle sur la manière dont ses modèles sont utilisés, pour des raisons légales (responsabilité en cas de détournement ou d’abus via une app tierce), de support (difficile d’aider un utilisateur qui passe par un outil non maîtrisé) ou encore de suivi qualité.

Préservation de la relation client et de la marque

En laissant des outils tiers comme OpenCode s’intercaler, Anthropic risquait de devenir un simple fournisseur en arrière-plan, perdant la visibilité auprès des développeurs. L’un des commentateurs a fait remarquer qu’Anthropic ne veut pas devenir un « backend interchangeable » au service d’un outil tiers qui capterait, lui, toute l’attention et la fidélité des développeurs.

Contrôler l’interface utilisateur via Claude Code officiel, c’est s’assurer qu’on ne dépend pas d’un autre produit pour l’adoption de son IA. Dans un marché naissant où gagner la préférence des développeurs est crucial, Anthropic protège ainsi son empreinte : elle veut que « ses » utilisateurs passent...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Matthieu Vergne
Expert éminent https://www.developpez.com
Le 10/01/2026 à 15:11
Tous les modèles que j'utilise sont téléchargés depuis huggingface et tournent en local sur mon PC via LM Studio. Cette problématiques (et toutes celles liées à des LLM nécessitant la création d'un compte ailleurs) ne m'impacte donc pas. Et quand je tombe sur un outil qui ne supporte pas l'usage de modèles locaux, je vais voir ailleurs. Mes modèles et process sont donc établis, stables, et entièrement indépendant de ces grandes entreprises américaines qui, comme d'habitude, inondent le marché de manière non rentable pour établir un monopole et tuer les concurrents, avant de restreindre pour pomper le fric des gens rendus dépendants et se renflouer. Étant contre ce type de pratiques, je ne mets pas le doigt dedans.
4  0 
Avatar de Matthieu Vergne
Expert éminent https://www.developpez.com
Le 12/01/2026 à 13:19
Citation Envoyé par Diablo150 Voir le message
J'espère que tu as quand même conscience qu'il y a des gens qui financent à grand frais des modèles et les mettent gracieusement à ta disposition (Mistral, Deepseek, Alibaba, etc...).
[...]
je trouve que ton commentaire manque de hauteur de vue et est assez nombriliste, comme si tu étais à l'origine de ces modèles...
1. Nulle part je n'affirme avoir créé ces modèles. Je mets en avant qu'une fois téléchargé, un modèle est sur ton PC, tu n'est plus dépendant de son éditeur si celui-ci venait à plier boutique ou à changer sa stratégie, comme c'est le sujet ici. C'est le même genre de raisonnement entre un jeu installé localement vs. un jeu en ligne : quand l'éditeur met fin au service, le jeu en ligne n'est plus disponible, contrairement au jeu local. On ne dit pas pour autant que les joueurs privilégiant les jeux locaux sont nombriliste comme s'ils avaient créé le jeu.

2. J'espère que tu as quand même conscience que ces gens pompent gratuitement internet pour produire ces modèles ? Et que des tas de procès sont en cours à cause de ça ? Ces boîtes agissent dans leur intérêt, pas "gracieusement". Ils mettent leurs modèles à disposition parce que c'est dans leur intérêt (publicité, course contre la concurrence, etc.). Il ne faudrait pas retourner le raisonnement.

3. Tous mes projets persos sont en open source sur GitHub (en CC0 qui plus est), et je contribue de temps en temps à d'autres projets. Donc qu'on ne vienne pas me dire que je ne pense qu'à moi.

Additionnellement, ce que tu payes via un abonnement c'est aussi l'infrastructure, l'électricité pour exécuter les modèles, et la main d’œuvre pour maintenir tout ça. En téléchargeant des modèles à faire tourner toi-même, ce coût tu le payes via le matériel que tu achètes, l'électricité que tu consommes, et le temps que tu passes à mettre en place et maintenir toi-même ton infrastructure locale, tout en étant restreint par ce que tu peux faire tourner sur une petite infra locale.

Cela n'a rien de nombriliste, il s'agit d'être résilient. Je préfère mettre mon temps et mon argent pour assurer mon indépendance plutôt que pour avoir le dernier cri.
3  0 
Avatar de Diablo150
Membre régulier https://www.developpez.com
Le 11/01/2026 à 18:08
Tous les modèles que j'utilise sont téléchargés depuis huggingface et tournent en local sur mon PC via LM Studio[...]
J'espère que tu as quand même conscience qu'il y a des gens qui financent à grand frais des modèles et les mettent gracieusement à ta disposition (Mistral, Deepseek, Alibaba, etc...).
C'est littéralement hors de prix et il n'est pas dit que ça soit pérenne (en particulier pour Mistral et DeepSeek si ils ne parviennent pas à trouver suffisamment de débouchés par ailleurs).
Les Chinois semble être incités par leur gouvernement à ouvrir leur modèles par stratégie, mais il n'est pas certain que cela dure éternellement (rappelons que c'était également le cas d'OpenAI à la base et Meta/llama, c'est fini).

Donc tu penses être libre, mais c'est à mon avis bien plus précaire que ce que tu sembles croire.

P.S: J'utilise moi même Devstral en local pour le développement et Qwen3 pour la documentation, je suis pas anti llm local, au contraire.
Mais je trouve que ton commentaire manque de hauteur de vue et est assez nombriliste, comme si tu étais à l'origine de ces modèles...
1  2