
Anthropic introduce límites por “hacker” chino
Una historia increíble sobre cómo un usuario hackeó la economía de la inteligencia artificial. Y forzó a Anthropic a cambiar las reglas del juego para todos.
Apareció un post en un foro chino de alguien que tomó el 1er lugar en el sitio Claude Count. Sus gastos — $50,000 convertidos a precios de API. Y esa es una estimación conservadora — la suma real podría ser 2 veces mayor debido a problemas de carga de datos.
Y aquí está su fórmula para consumo máximo. Siempre usar Claude Opus en modo ultrathink — este es el modo de pensamiento profundo del modelo. Habilitar todos los MCP — protocolos de control del modelo. Ejecutar múltiples copias paralelas de Claude Code en diferentes proyectos simultáneamente. Así el cacheo de tokens se vuelve mínimo y los costos se disparan.
Pero el truco más astuto — la función Background Commands. Permite a Claude Code trabajar 24 horas al día sin parar. La inteligencia artificial literalmente no duerme, generando código las 24 horas.
La empresa se dio cuenta — algunos clientes usan Claude Code prácticamente sin descansos, extrayendo decenas de miles de dólares de valor de una suscripción de $200. Y ahora Anthropic está introduciendo límites semanales adicionales para todos. Porque este listo por $200 al mes gastó $50,000 en recursos.
Lo más interesante — el autor no siente remordimientos. Al contrario, llama a otros a seguir su ejemplo. Cito — desde el 28 de agosto se introducen límites para Claude Code, solo queda una semana o 2, atrapen la última oportunidad de darlo todo, vamos.
¡Así es como un usuario puede interrumpir la economía de toda una empresa valorada en decenas de miles de millones de dólares!