IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Anthropic bloque l'utilisation par des clients tiers des abonnements à Claude Code : la fin de l'interopérabilité et de l'ouverture des outils de dev ou simple épisode dans la bataille des assistants IA ?

Le , par Stéphane le calme

190PARTAGES

10  0 
Claude Code était jusqu’ici l’un des moyens les plus rentables d’accéder à l’IA d’Anthropic. Mais face à l’usage massif via des clients non officiels, la startup a décidé de couper court. Pour ses utilisateurs, c’est la douche froide. Pour ses concurrents, un avertissement. Et pour la communauté open source, une piqûre de rappel : rien n’est vraiment libre dans le monde des IA propriétaires.

On pensait avoir trouvé l’outil parfait pour coder avec une IA. OpenCode permettait de jongler entre Claude, GPT-4 et d’autres modèles au sein d’un seul terminal, en toute fluidité. Mais en début d’année 2026, plusieurs développeurs abonnés à Claude Code ont constaté une panne soudaine : leur outil préféré, souvent un client open source comme OpenCode ou Clawdbot, ne pouvait plus accéder au modèle Claude. Très vite, la cause est identifiée : Anthropic a verrouillé son API pour empêcher tout usage non autorisé en dehors de son propre environnement. Le message est clair : Claude Code est désormais réservé à Claude Code. Fini les interfaces tierces. Seule l’application maison est tolérée. Une manœuvre brutale mais calculée, révélatrice des tensions croissantes entre ouverture communautaire et stratégie de verrouillage.

Claude Code, lancé par Anthropic comme une alternative sécurisée à Codex d’OpenAI, proposait aux développeurs une interface en ligne de commande pour générer du code, rédiger des tests, comprendre des erreurs. Mais contrairement à Codex CLI, son code était obfusqué et fermé. Rapidement, des outils comme OpenCode ont comblé le vide en proposant une expérience plus flexible, unifiant plusieurs IA, avec un succès retentissant sur GitHub. Pour beaucoup, OpenCode était devenu la façon la plus ergonomique et productive d’utiliser Claude.

La coupure, brutale et non annoncée, a pris la communauté à revers. Le message reçu par les utilisateurs est sans appel : les identifiants Claude Code ne peuvent plus être utilisés que via l’outil officiel. Le motif avancé, bien que non confirmé publiquement, semble évident : trop d’utilisateurs exploitaient les forfaits illimités de Claude Code via des outils tiers, détournant ainsi la logique économique du modèle. Là où un usage intensif via l’API officielle coûterait plusieurs centaines voire milliers de dollars, le contournement via OpenCode permettait d’en profiter pour un abonnement mensuel modique. Pour Anthropic, il devenait urgent de fermer la brèche.

Mais la méthode interroge. Aucun avertissement, aucune alternative officielle, aucune offre intermédiaire pour ceux qui veulent bénéficier de la puissance de Claude dans un environnement de leur choix. Juste un couperet. Pour beaucoup, c’est un signal clair : la priorité d’Anthropic n’est plus la communauté de développeurs enthousiastes, mais la protection d’un actif devenu stratégique. Certains y voient un geste à court terme, qui pourrait à long terme aliéner ceux qui auraient été les meilleurs ambassadeurs du modèle Claude.

Ce blocage pose une question plus large : dans un secteur où les grands modèles deviennent des services fermés, à quel point les développeurs peuvent-ils encore construire des outils interopérables, portables, adaptables à leurs propres besoins ? Et si demain chaque fournisseur IA impose sa propre interface, ses propres usages, que restera-t-il de l’esprit d’expérimentation qui a toujours animé les communautés open source ?

Claude Code n’est pas seulement un produit. C’est un cas d’école. Il illustre comment, dans la ruée vers l’IA, même les acteurs les plus réputés pour leur éthique n’hésitent plus à verrouiller leurs systèmes pour conserver un avantage concurrentiel. Face à cela, la communauté tech devra choisir : se plier aux règles changeantes de fournisseurs tout-puissants, ou redoubler d’efforts pour construire, ailleurs, des alternatives véritablement ouvertes.

Contexte : Claude et le modèle Claude Code d’Anthropic

Anthropic est une startup d’intelligence artificielle fondée en 2021 par d’anciens employés d’OpenAI. Son modèle de langage Claude est souvent présenté comme une alternative à ChatGPT, avec un accent mis sur la sécurité et une grande capacité de contexte. En 2025, Anthropic a lancé Claude Code, un outil spécialisé pour l’assistance à la programmation. Claude Code se présente comme un environnement de ligne de commande (CLI) permettant d’utiliser l’IA de Claude pour générer du code, déboguer, écrire des tests, etc. Il a été conçu pour rivaliser avec des solutions similaires d’OpenAI, comme l’interface Codex CLI. Contrairement à OpenAI qui a publié le code source de son CLI Codex sous licence open source, Anthropic a gardé Claude Code propriétaire et obfusqué : le code n’est pas librement accessible et son utilisation est soumise à des conditions strictes. Cette approche fermée avait déjà suscité des critiques en 2025, lorsque Anthropic a émis une plainte DMCA pour faire retirer du code source dé-obfusqué de Claude Code publié par un développeur indépendant.


L’émergence de clients alternatifs : OpenCode, Clawdbot et autres

Face aux limitations du CLI officiel d’Anthropic, la communauté open source s’est mobilisée. Des projets comme OpenCode (proposé par la startup Anomaly Innovations) ont développé des outils alternatifs pour exploiter Claude et d’autres modèles dans un environnement unifié. OpenCode est un CLI/TUI open source très populaire (plus de 58 000 étoiles sur GitHub) qui permet de brancher différents fournisseurs d’IA – que ce soit Anthropic, OpenAI, Google ou même des modèles locaux – pour assister les développeurs dans leur codage.

De même, des bots comme Clawdbot ont vu le jour, offrant des orchestrations d’agents IA pour le code. Ces solutions tierces offraient souvent une meilleure expérience utilisateur et davantage de flexibilité que l’outil officiel d’Anthropic : par exemple, OpenCode a la réputation d’être plus performant et plus ergonomique que Claude Code, tout en permettant de passer d’un modèle à l’autre selon les besoins.

Par ailleurs, d’autres initiatives comme GPT4Free ont cherché à démocratiser l’accès aux IA propriétaires en contournant leurs restrictions. GPT4Free, par exemple, est (ou était) un projet GitHub très en vogue qui permettait d’utiliser gratuitement GPT-4 ou Claude en s’appuyant sur des API non officielles ou des services tiers. Ce type de projet exploite souvent les failles des API ouvertes de certains sites (moteurs de recherche, plateformes proposant des chatbots alimentés par GPT/Claude) pour rediriger des requêtes sans payer directement l’éditeur du modèle. Naturellement, ces usages « gratuits » ou non autorisés ont tendance à attirer l’attention des entreprises concernées, soucieuses de protéger leurs ressources et leurs revenus.


Le blocage soudain des connexions tierces à Claude Code

Début janvier 2026, de nombreux développeurs abonnés à Claude Code ont constaté que leurs outils tiers ne fonctionnaient plus pour se connecter à l’API d’Anthropic. Des applications tierces courantes – comme l’open source OpenCode ou le bot Clawdbot – n’arrivaient soudain plus à se connecter au modèle Claude. L’alerte a été donnée par un développeur (Theo) sur X (Twitter), qui a rapporté qu’Anthropic « serre la vis » sur l’utilisation de comptes Claude dans des applications tierces.

En pratique, les utilisateurs recevaient un message d’erreur explicite lorsqu’ils tentaient d’utiliser leur jeton Claude Code en dehors du CLI officiel : « This credential is only authorized for use with Claude Code and cannot be used for other API requests » (en français : « Ces identifiants ne sont autorisés que pour Claude Code et ne peuvent pas servir à d’autres requêtes API »). Autrement dit, Anthropic a activé une restriction technique pour empêcher que les jetons OAuth fournis dans le cadre de l’abonnement Claude Code soient utilisés dans des outils non approuvés par la société.

Rapidement, la communauté a compris que ce blocage était volontaire de la part d’Anthropic, visant spécifiquement les clients non officiels. Par exemple, certains ont remarqué que la restriction...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Matthieu Vergne
Expert éminent https://www.developpez.com
Le 10/01/2026 à 15:11
Tous les modèles que j'utilise sont téléchargés depuis huggingface et tournent en local sur mon PC via LM Studio. Cette problématiques (et toutes celles liées à des LLM nécessitant la création d'un compte ailleurs) ne m'impacte donc pas. Et quand je tombe sur un outil qui ne supporte pas l'usage de modèles locaux, je vais voir ailleurs. Mes modèles et process sont donc établis, stables, et entièrement indépendant de ces grandes entreprises américaines qui, comme d'habitude, inondent le marché de manière non rentable pour établir un monopole et tuer les concurrents, avant de restreindre pour pomper le fric des gens rendus dépendants et se renflouer. Étant contre ce type de pratiques, je ne mets pas le doigt dedans.
4  0 
Avatar de Matthieu Vergne
Expert éminent https://www.developpez.com
Le 12/01/2026 à 13:19
Citation Envoyé par Diablo150 Voir le message
J'espère que tu as quand même conscience qu'il y a des gens qui financent à grand frais des modèles et les mettent gracieusement à ta disposition (Mistral, Deepseek, Alibaba, etc...).
[...]
je trouve que ton commentaire manque de hauteur de vue et est assez nombriliste, comme si tu étais à l'origine de ces modèles...
1. Nulle part je n'affirme avoir créé ces modèles. Je mets en avant qu'une fois téléchargé, un modèle est sur ton PC, tu n'est plus dépendant de son éditeur si celui-ci venait à plier boutique ou à changer sa stratégie, comme c'est le sujet ici. C'est le même genre de raisonnement entre un jeu installé localement vs. un jeu en ligne : quand l'éditeur met fin au service, le jeu en ligne n'est plus disponible, contrairement au jeu local. On ne dit pas pour autant que les joueurs privilégiant les jeux locaux sont nombriliste comme s'ils avaient créé le jeu.

2. J'espère que tu as quand même conscience que ces gens pompent gratuitement internet pour produire ces modèles ? Et que des tas de procès sont en cours à cause de ça ? Ces boîtes agissent dans leur intérêt, pas "gracieusement". Ils mettent leurs modèles à disposition parce que c'est dans leur intérêt (publicité, course contre la concurrence, etc.). Il ne faudrait pas retourner le raisonnement.

3. Tous mes projets persos sont en open source sur GitHub (en CC0 qui plus est), et je contribue de temps en temps à d'autres projets. Donc qu'on ne vienne pas me dire que je ne pense qu'à moi.

Additionnellement, ce que tu payes via un abonnement c'est aussi l'infrastructure, l'électricité pour exécuter les modèles, et la main d’œuvre pour maintenir tout ça. En téléchargeant des modèles à faire tourner toi-même, ce coût tu le payes via le matériel que tu achètes, l'électricité que tu consommes, et le temps que tu passes à mettre en place et maintenir toi-même ton infrastructure locale, tout en étant restreint par ce que tu peux faire tourner sur une petite infra locale.

Cela n'a rien de nombriliste, il s'agit d'être résilient. Je préfère mettre mon temps et mon argent pour assurer mon indépendance plutôt que pour avoir le dernier cri.
3  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 20/02/2026 à 11:57
Citation Envoyé par Alex Voir le message
[..]La tendance est claire : Anthropic comble toutes les lacunes qui permettent aux gros utilisateurs d'accéder à Claude à un prix forfaitaire.[..]

Quel est votre avis sur le sujet ?
Ça coûte beaucoup trop cher à Anthropic, qui tout comme OpenAI, perd beaucoup trop d'argent chaque mois.
1  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 28/03/2026 à 21:58
Il sera d'Anthropic comme de OpenAI... Le gros problème pour les promoteurs d'IA, c'est la gratuité qui attire les foules de "blaireaux"...

Alors? La fête est finie... Limitons, limitons, limitons quand ce n'est pas clôturons le service comme pour le Sora de OpenAI

Le spectacle commence, tous aux pop-corn! Ces comiques de l'IA vont devoir trouver des clients qui paient les VRAIS coûts engendrés par l'IA
4  3 
Avatar de OrthodoxWindows
Membre expert https://www.developpez.com
Le 29/03/2026 à 19:41
Citation Envoyé par Anselme45 Voir le message
Il sera d'Anthropic comme de OpenAI... Le gros problème pour les promoteurs d'IA, c'est la gratuité qui attire les foules de "blaireaux"...

Alors? La fête est finie... Limitons, limitons, limitons quand ce n'est pas clôturons le service comme pour le Sora de OpenAI

Le spectacle commence, tous aux pop-corn! Ces comiques de l'IA vont devoir trouver des clients qui paient les VRAIS coûts engendrés par l'IA
Cette pour cette raison que de plus en plus de spécialiste de l'IA soutiennent l’hypothèse d'une mort des LLM telle que nous les connaissons aujourd'hui, à cause d'un coût économique et énergétique intenable à long terme.
A la place, il y aurai plus des petits modèles (pourvu d'algos plus complexes) travaillant conjointement, pour arriver au résultat final après un prompt, chaque modèle sélectionnant le modèle suivant le plus adapté.
je simplifie beaucoup, mais c'est l'idée générale.

Ce qui est bien dans l’acharnement des entreprises tel que OpenAI ou Anthropic dans les modèles les plus large possible, c'est que les restrictions qu'ils sont aujourd'hui forcés à imposer poussent les utilisateurs vers des modèles open-source certes moins puissants (question de coûts là aussi) mais distribué sous licences vraiment libres (comme la licence MIT). Ce qui est logique, Microsoft Office ou Adobe n'ont pas gagné en faisant payer tout le monde au début, mais en laissant leurs logiciels se faire facilement pirater, jusqu’à atteindre un monopole.
0  0 
Avatar de Diablo150
Membre régulier https://www.developpez.com
Le 11/01/2026 à 18:08
Tous les modèles que j'utilise sont téléchargés depuis huggingface et tournent en local sur mon PC via LM Studio[...]
J'espère que tu as quand même conscience qu'il y a des gens qui financent à grand frais des modèles et les mettent gracieusement à ta disposition (Mistral, Deepseek, Alibaba, etc...).
C'est littéralement hors de prix et il n'est pas dit que ça soit pérenne (en particulier pour Mistral et DeepSeek si ils ne parviennent pas à trouver suffisamment de débouchés par ailleurs).
Les Chinois semble être incités par leur gouvernement à ouvrir leur modèles par stratégie, mais il n'est pas certain que cela dure éternellement (rappelons que c'était également le cas d'OpenAI à la base et Meta/llama, c'est fini).

Donc tu penses être libre, mais c'est à mon avis bien plus précaire que ce que tu sembles croire.

P.S: J'utilise moi même Devstral en local pour le développement et Qwen3 pour la documentation, je suis pas anti llm local, au contraire.
Mais je trouve que ton commentaire manque de hauteur de vue et est assez nombriliste, comme si tu étais à l'origine de ces modèles...
1  2 
Avatar de Ryu2000
Inactif https://www.developpez.com
Le 31/03/2026 à 8:31
Citation Envoyé par OrthodoxWindows Voir le message
Cette pour cette raison que de plus en plus de spécialiste de l'IA soutiennent l’hypothèse d'une mort des LLM telle que nous les connaissons aujourd'hui, à cause d'un coût économique et énergétique intenable à long terme.
Ce n'est pas ce que pensent Google, Amazon, Méta.
Elles ont la certitude qu'une entreprise réussira à développer une IA qui sera très demandés par les entreprises et les particuliers.
Il y aura des centaines de millions d'utilisateurs payants. (admettons que pour qu'un ingénieur gagne 2500€ net l'entreprise paie 4000€, quand une IA permettra de diminuer le nombre d'ingénieurs l'entreprise sera prête à payer ce service 4000€ par mois).

C'est normal de limiter le nombre de requêtes des utilisateurs gratuits, si tu veux utiliser le service tu dois payer.
Des progrès seront fait et les IA consommeront moins d'énergie dans le futur. Si les projets survivent encore 12 ans, vous allez voir ce que vous allez voir. (ou alors tout sera mort bien avant)
0  1