
s'attirant les foudres de la majorité
Anthropic, l'entreprise d'intelligence artificielle, a récemment mis en place des limites de débit hebdomadaires pour son outil d'assistance au codage, Claude Code. Cette décision vise à freiner l'utilisation intensive par certains utilisateurs qui, selon Anthropic, laisseraient Claude Code fonctionner « en continu en arrière-plan, 24 heures sur 24, 7 jours sur 7 ».
Les raisons invoquées par Anthropic pour cette nouvelle politique sont multiples. Tout d'abord, une utilisation aussi constante engendre des coûts financiers considérables pour l'entreprise. De plus, elle soulève des préoccupations environnementales en raison de la consommation d'énergie nécessaire pour maintenir ces opérations ininterrompues. L'entreprise a également évoqué la possibilité que certains utilisateurs violent les conditions de service en partageant ou en revendant des comptes, bien que les détails à ce sujet restent flous.
Contexte
Anthropic a récemment déclenché un tollé au sein de la communauté des développeurs : l'entreprise d'IA a décidé de restreindre l’accès à Claude Code à travers des limitations de requêtes imposées à tous les utilisateurs. Elle a annoncé l’imposition de nouvelles limitations d’usage à Claude Code, sa déclinaison spécialisée pour le développement logiciel. Motif invoqué : une surcharge causée par des utilisateurs qui ne « désactivent jamais leur session », accaparant indéfiniment les ressources. Cette décision a donc été prise, selon l’entreprise, pour limiter les usages abusifs qui compromettaient la stabilité du service. Toutefois, cette mesure a rapidement suscité une vague d'indignation au sein de la communauté tech.
Des limites imposées sans préavis : le coup de tonnerre dans la devosphère
Les premières alertes sont apparues sur les réseaux sociaux et les forums de développeurs au cours du mois de juillet. Des utilisateurs réguliers de Claude Code ont commencé à remarquer des interruptions soudaines de leurs sessions, des refus de requêtes, ou encore des messages vagues évoquant des « limitations temporaires ».
Claude Code, lancé comme concurrent direct de GitHub Copilot et d’autres outils d’aide à la programmation, a très vite conquis les développeurs grâce à sa puissance contextuelle et sa capacité à manipuler de larges bases de code. Mais selon Anthropic, un certain nombre d'utilisateurs, parfois des entreprises, laissent Claude tourner en permanence, souvent dans des sessions automatisées ou semi-automatisées, générant une consommation disproportionnée de ressources serveurs.
L'entreprise affirme avoir été contrainte d'intervenir pour maintenir une expérience fluide pour l'ensemble des utilisateurs. Ainsi, de nouveaux plafonds de requêtes ont été discrètement introduits au cours des dernières semaines, déclenchant un mécontentement palpable sur les forums et réseaux sociaux de développeurs.
Pourquoi ces restrictions ont choqué les développeurs
Dans un premier temps, de nombreux utilisateurs ont exprimé leur frustration face au manque de transparence : aucune communication anticipée, aucun message clair dans les interfaces utilisateur, aucune documentation mise à jour.
Mais au-delà de la forme, c’est surtout le fond qui dérange : Claude Code a été commercialisé comme un outil de développement “continu” et “ultra-contextuel”, supposé accompagner les programmeurs sur des sessions longues, parfois sur des bases de code entières. C’est précisément cette capacité qui le différenciait de concurrents plus limités comme GitHub Copilot.
Les nouvelles restrictions brisent cette promesse : les développeurs ne peuvent plus interagir librement avec l’IA, ce qui affecte directement leur productivité. Certains parlent même de projets bloqués ou ralentis, notamment dans des contextes professionnels où Claude Code est utilisé pour automatiser des analyses statiques, générer des tests unitaires ou refactoriser du code legacy.
Anthropic se justifie : protéger l’infrastructure contre une « minorité gourmande »
Face aux critiques, Anthropic a tenté de rassurer. Selon la société, moins de 5 % des utilisateurs seraient responsables de plus de 50 % des requêtes. Ces « super-utilisateurs » utiliseraient Claude comme un outil semi-autonome, voire intégré à des pipelines automatisés, le faisant fonctionner comme un back-end IA illimité.

Une posture très loin de calmer le jeu
Certains utilisateurs ont célébré cette annonce :
« Je soutiens totalement cette initiative ! Cela me permet de me sentir moins frustré lorsque je ne peux pas utiliser Claude pendant mes heures de travail. Je n'utilise le code Claude que pour mes projets personnels. J'ai été bloqué par une API surchargée au cours des deux dernières semaines, ce qui était extrêmement agaçant ! »
Mais la plupart des commentaires sur ce fil se sont montré réfractaires à la façon d'Anthropic de gérer le problème.
Un utilisateur déclare par exemple :
« Pourquoi créer un SDK et un produit scriptable ? Vous encouragez l'automatisation et l'utilisation d'outils, mais vous voulez maintenant faire payer un supplément aux personnes qui ont atteint leur plafond pour utiliser les flux de travail et les outils qu'elles ont créés. C'est horrible. Je pensais que vous étiez les gentils, mais je me suis clairement trompé ».
Un autre de déclarer :
Vous modifiez votre politique parce qu'une minorité d'utilisateurs abusifs ne peut être contrôlée ? Ce n'est pas une bonne stratégie commerciale. Au lieu de vous occuper de ces utilisateurs, vous punissez tous les utilisateurs payants.
Nous voulons plus de cohérence, de meilleurs tarifs et moins de limites de débit. Les utilisateurs ne devraient pas être pénalisés pour les actions des autres. Cette approche aliène votre base d'utilisateurs.
Cela reflète les actions de Cursor AI et d'OpenAI, qui poussent à un système « pay-to-win ».
Nous attendons mieux de votre part.
Nous voulons plus de cohérence, de meilleurs tarifs et moins de limites de débit. Les utilisateurs ne devraient pas être pénalisés pour les actions des autres. Cette approche aliène votre base d'utilisateurs.
Cela reflète les actions de Cursor AI et d'OpenAI, qui poussent à un système « pay-to-win ».
Nous attendons mieux de votre part.
La société introduit deux nouvelles limites hebdomadaires
Anthropic indique que ses limites d'utilisation existantes, qui sont réinitialisées toutes les cinq heures, resteront en vigueur. La société introduit également deux nouvelles limites hebdomadaires qui sont réinitialisées tous les sept jours : l'une est une limite d'utilisation globale, tandis que l'autre est spécifique au modèle d'IA le plus avancé d'Anthropic, Claude Opus 4. Anthropic précise que les abonnés Max peuvent acheter des utilisations supplémentaires, au-delà de la limite prévue, aux tarifs API standard.
Cette annonce intervient quelques semaines seulement après qu'Anthropic ait discrètement introduit des limites de débit pour Claude Code. La société avait alors déclaré être consciente des problèmes, mais avait refusé d'en dire plus. Si l'outil de codage IA d'Anthropic a remporté un franc succès auprès des développeurs, la société semble avoir du mal à le proposer à grande échelle. La page d'état d'Anthropic montre que Claude Code a connu au moins sept pannes partielles ou majeures au cours du mois dernier, peut-être parce que certains utilisateurs intensifs semblent utiliser Claude Code sans interruption.
« Claude Code a connu une demande sans précédent depuis son lancement », a déclaré Amie Rotherham, porte-parole d'Anthropic, au sujet des limites hebdomadaires. Rotherham précise que « la plupart des utilisateurs ne remarqueront pas de différence » et que cette limite concernera moins de 5 % des abonnés, sur la base de leurs habitudes d'utilisation actuelles ».
Anthropic indique que la plupart des utilisateurs Pro peuvent s'attendre à bénéficier de 40 à 80 heures de Sonnet 4 via Claude Code dans le cadre de leurs limites tarifaires hebdomadaires. Les abonnés au forfait Max d'Anthropic, à 100 dollars par mois, peuvent s'attendre à bénéficier de 140 à 280 heures de Sonnet 4 et de 15 à 35 heures d'Opus 4. Et les abonnés au forfait Max d'Anthropic, à 200 dollars par mois, peuvent s'attendre à 240 à 480 heures de Sonnet 4 et 24 à 40 heures d'Opus 4.
La société note que l'utilisation peut varier en fonction de la taille du code source et d'autres facteurs, mais la manière dont Anthropic mesure l'utilisation ici n'est pas tout à fait claire. Anthropic affirme que le forfait Max à 200 $ offre une utilisation 20 fois supérieure à celle du forfait Pro, mais d'après les chiffres actualisés, les abonnés ne bénéficient désormais que d'environ 6 fois plus d'heures Claude Code que les utilisateurs Pro.
Il est possible que le chiffre de 20 fois s'applique toujours lorsqu'il est mesuré en jetons ou en puissance de calcul, mais la société n'a pas immédiatement clarifié ce point.
Plusieurs fournisseurs d'outils de codage IA sont en train de revoir la stratégie de tarification de leurs produits
Anthropic a déjà déclaré qu'elle était très limitée en termes de ressources informatiques, ce qui semble être le cas de la plupart des fournisseurs de modèles d'IA aujourd'hui. La plupart des entreprises d'IA se précipitent pour mettre en ligne de nouveaux centres de données d'IA afin de répondre à la demande massive de service et de formation de leurs modèles d'IA.
Plusieurs fournisseurs d'outils de codage IA sont en train de revoir la stratégie de tarification de leurs produits. En juin, la société derrière Cursor, Anysphere, a modifié la tarification de son forfait Pro à 20 dollars par mois afin de limiter les abus des utilisateurs intensifs. Cependant, Anysphere s'est ensuite excusée pour avoir mal communiqué ces changements, ce qui a conduit certains utilisateurs à payer plus que prévu. Un autre fournisseur d'outils de codage IA, Replit, a également procédé à des changements de tarification similaires en juin.
Un modèle de croissance sous pression : l’IA victime de son succès
Cette décision illustre un problème structurel qui affecte l’ensemble du secteur de l’intelligence artificielle générative : ces outils, aussi puissants soient-ils, sont coûteux à faire fonctionner à grande échelle. Chaque requête, chaque interaction avec Claude Code mobilise une quantité non négligeable de ressources (GPU, RAM, bande passante, etc.). Multipliez cela par des millions d’utilisateurs… et vous obtenez une facture que même les plus grosses startups de la Silicon Valley peinent à assumer.
Anthropic, comme OpenAI ou Google, est confrontée à une double tension :
- technique, car les infrastructures ne suivent pas toujours l’explosion de la demande ;
- commerciale, car proposer des modèles performants en accès libre ou à bas prix devient de moins en moins soutenable.
Sources : Anthropic, page de statut
Et vous ?




Vous avez lu gratuitement 73 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.