Claude Code était jusqu’ici l’un des moyens les plus rentables d’accéder à l’IA d’Anthropic. Mais face à l’usage massif via des clients non officiels, la startup a décidé de couper court. Pour ses utilisateurs, c’est la douche froide. Pour ses concurrents, un avertissement. Et pour la communauté open source, une piqûre de rappel : rien n’est vraiment libre dans le monde des IA propriétaires.On pensait avoir trouvé l’outil parfait pour coder avec une IA. OpenCode permettait de jongler entre Claude, GPT-4 et d’autres modèles au sein d’un seul terminal, en toute fluidité. Mais en début d’année 2026, plusieurs développeurs abonnés à Claude Code ont constaté une panne soudaine : leur outil préféré, souvent un client open source comme OpenCode ou Clawdbot, ne pouvait plus accéder au modèle Claude. Très vite, la cause est identifiée : Anthropic a verrouillé son API pour empêcher tout usage non autorisé en dehors de son propre environnement. Le message est clair : Claude Code est désormais réservé à Claude Code. Fini les interfaces tierces. Seule l’application maison est tolérée. Une manœuvre brutale mais calculée, révélatrice des tensions croissantes entre ouverture communautaire et stratégie de verrouillage.
Claude Code, lancé par Anthropic comme une alternative sécurisée à Codex d’OpenAI, proposait aux développeurs une interface en ligne de commande pour générer du code, rédiger des tests, comprendre des erreurs. Mais contrairement à Codex CLI, son code était obfusqué et fermé. Rapidement, des outils comme OpenCode ont comblé le vide en proposant une expérience plus flexible, unifiant plusieurs IA, avec un succès retentissant sur GitHub. Pour beaucoup, OpenCode était devenu la façon la plus ergonomique et productive d’utiliser Claude.
La coupure, brutale et non annoncée, a pris la communauté à revers. Le message reçu par les utilisateurs est sans appel : les identifiants Claude Code ne peuvent plus être utilisés que via l’outil officiel. Le motif avancé, bien que non confirmé publiquement, semble évident : trop d’utilisateurs exploitaient les forfaits illimités de Claude Code via des outils tiers, détournant ainsi la logique économique du modèle. Là où un usage intensif via l’API officielle coûterait plusieurs centaines voire milliers de dollars, le contournement via OpenCode permettait d’en profiter pour un abonnement mensuel modique. Pour Anthropic, il devenait urgent de fermer la brèche.
Mais la méthode interroge. Aucun avertissement, aucune alternative officielle, aucune offre intermédiaire pour ceux qui veulent bénéficier de la puissance de Claude dans un environnement de leur choix. Juste un couperet. Pour beaucoup, c’est un signal clair : la priorité d’Anthropic n’est plus la communauté de développeurs enthousiastes, mais la protection d’un actif devenu stratégique. Certains y voient un geste à court terme, qui pourrait à long terme aliéner ceux qui auraient été les meilleurs ambassadeurs du modèle Claude.
Ce blocage pose une question plus large : dans un secteur où les grands modèles deviennent des services fermés, à quel point les développeurs peuvent-ils encore construire des outils interopérables, portables, adaptables à leurs propres besoins ? Et si demain chaque fournisseur IA impose sa propre interface, ses propres usages, que restera-t-il de l’esprit d’expérimentation qui a toujours animé les communautés open source ?
Claude Code n’est pas seulement un produit. C’est un cas d’école. Il illustre comment, dans la ruée vers l’IA, même les acteurs les plus réputés pour leur éthique n’hésitent plus à verrouiller leurs systèmes pour conserver un avantage concurrentiel. Face à cela, la communauté tech devra choisir : se plier aux règles changeantes de fournisseurs tout-puissants, ou redoubler d’efforts pour construire, ailleurs, des alternatives véritablement ouvertes.
Contexte : Claude et le modèle Claude Code d’Anthropic
Anthropic est une startup d’intelligence artificielle fondée en 2021 par d’anciens employés d’OpenAI. Son modèle de langage Claude est souvent présenté comme une alternative à ChatGPT, avec un accent mis sur la sécurité et une grande capacité de contexte. En 2025, Anthropic a lancé Claude Code, un outil spécialisé pour l’assistance à la programmation. Claude Code se présente comme un environnement de ligne de commande (CLI) permettant d’utiliser l’IA de Claude pour générer du code, déboguer, écrire des tests, etc. Il a été conçu pour rivaliser avec des solutions similaires d’OpenAI, comme l’interface Codex CLI. Contrairement à OpenAI qui a publié le code source de son CLI Codex sous licence open source, Anthropic a gardé Claude Code propriétaire et obfusqué : le code n’est pas librement accessible et son utilisation est soumise à des conditions strictes. Cette approche fermée avait déjà suscité des critiques en 2025, lorsque Anthropic a émis une plainte DMCA pour faire retirer du code source dé-obfusqué de Claude Code publié par un développeur indépendant.
L’émergence de clients alternatifs : OpenCode, Clawdbot et autres
Face aux limitations du CLI officiel d’Anthropic, la communauté open source s’est mobilisée. Des projets comme OpenCode (proposé par la startup Anomaly Innovations) ont développé des outils alternatifs pour exploiter Claude et d’autres modèles dans un environnement unifié. OpenCode est un CLI/TUI open source très populaire (plus de 58 000 étoiles sur GitHub) qui permet de brancher différents fournisseurs d’IA – que ce soit Anthropic, OpenAI, Google ou même des modèles locaux – pour assister les développeurs dans leur codage.
De même, des bots comme Clawdbot ont vu le jour, offrant des orchestrations d’agents IA pour le code. Ces solutions tierces offraient souvent une meilleure expérience utilisateur et davantage de flexibilité que l’outil officiel d’Anthropic : par exemple, OpenCode a la réputation d’être plus performant et plus ergonomique que Claude Code, tout en permettant de passer d’un modèle à l’autre selon les besoins.
Par ailleurs, d’autres initiatives comme GPT4Free ont cherché à démocratiser l’accès aux IA propriétaires en contournant leurs restrictions. GPT4Free, par exemple, est (ou était) un projet GitHub très en vogue qui permettait d’utiliser gratuitement GPT-4 ou Claude en s’appuyant sur des API non officielles ou des services tiers. Ce type de projet exploite souvent les failles des API ouvertes de certains sites (moteurs de recherche, plateformes proposant des chatbots alimentés par GPT/Claude) pour rediriger des requêtes sans payer directement l’éditeur du modèle. Naturellement, ces usages « gratuits » ou non autorisés ont tendance à attirer l’attention des entreprises concernées, soucieuses de protéger leurs ressources et leurs revenus.
Le blocage soudain des connexions tierces à Claude Code
Début janvier 2026, de nombreux développeurs abonnés à Claude Code ont constaté que leurs outils tiers ne fonctionnaient plus pour se connecter à l’API d’Anthropic. Des applications tierces courantes – comme l’open source OpenCode ou le bot Clawdbot – n’arrivaient soudain plus à se connecter au modèle Claude. L’alerte a été donnée par un développeur (Theo) sur X (Twitter), qui a rapporté qu’Anthropic « serre la vis » sur l’utilisation de comptes Claude dans des applications tierces.
En pratique, les utilisateurs recevaient un message d’erreur explicite lorsqu’ils tentaient d’utiliser leur jeton Claude Code en dehors du CLI officiel : « This credential is only authorized for use with Claude Code and cannot be used for other API requests » (en français : « Ces identifiants ne sont autorisés que pour Claude Code et ne peuvent pas servir à d’autres requêtes API »). Autrement dit, Anthropic a activé une restriction technique pour empêcher que les jetons OAuth fournis dans le cadre de l’abonnement Claude Code soient utilisés dans des outils non approuvés par la société.
Rapidement, la communauté a compris que ce blocage était volontaire de la part d’Anthropic, visant spécifiquement les clients non officiels. Par exemple, certains ont remarqué que la restriction...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Quel est votre avis sur le sujet ?