
Anthropic introduit des limites à cause d’un “hacker” chinois
Une histoire incroyable sur comment un utilisateur a piraté l’économie de l’intelligence artificielle. Et a forcé Anthropic à changer les règles du jeu pour tous.
Un post est apparu sur un forum chinois de quelqu’un qui a pris la 1ère place sur le site Claude Count. Ses dépenses — 50 000$ convertis aux prix API. Et c’est une estimation conservatrice — la somme réelle pourrait être 2 fois plus élevée à cause de problèmes de chargement de données.
Et voici sa formule pour une consommation maximale. Toujours utiliser Claude Opus en mode ultrathink — c’est le mode de pensée profonde du modèle. Activer tous les MCP — protocoles de contrôle du modèle. Lancer plusieurs copies parallèles de Claude Code sur différents projets simultanément. Ainsi la mise en cache des tokens devient minimale et les coûts explosent.
Mais l’astuce la plus maligne — la fonction Background Commands. Elle permet à Claude Code de travailler 24 heures sur 24 sans arrêt. L’intelligence artificielle ne dort littéralement jamais, générant du code en permanence.
L’entreprise a réalisé — certains clients utilisent Claude Code pratiquement sans pause, extrayant des dizaines de milliers de dollars de valeur d’un abonnement à 200. Et maintenant Anthropic introduit des limites hebdomadaires supplémentaires pour tous. Parce que ce malin pour 200$ par mois a dépensé 50 000$ de ressources.
Le plus intéressant — l’auteur n’éprouve aucun remords. Au contraire, il appelle les autres à suivre son exemple. Je cite — à partir du 28 août des limites sont introduites pour Claude Code, il ne reste qu’une semaine ou 2, saisissez la dernière chance de vous déchaîner complètement, allons-y.
Voilà comment un utilisateur peut perturber l’économie de toute une entreprise valant des dizaines de milliards de dollars !