Anthropic revela nuevos límites de tasa para controlar a los usuarios de Claude Code.
Image Credits:Anthropic
Anthropic dice que está implementando nuevos límites semanales de uso para Claude para reducir el uso entre los suscriptores que están ejecutando su herramienta de codificación AI, Claude Code, “continuamente en segundo plano, 24/7.” Anthropic dice que los límites de uso también tienen como objetivo detener a un puñado de usuarios que están violando la política de uso de Claude compartiendo cuentas y revendiendo acceso a Claude Code.
Los nuevos límites de uso entrarán en vigor el 28 de agosto para los suscriptores del plan Pro de $20 por mes de Anthropic, así como para sus planes Max de $100 y $200 por mes, según dijo la empresa el lunes en un correo electrónico a los suscriptores y en una publicación en X.
Anthropic dice que sus límites de uso existentes, que se restablecen cada cinco horas, seguirán en vigor. La empresa también está introduciendo dos nuevos límites de uso semanales que se restablecen cada siete días; uno es un límite de uso general, mientras que el otro es específico para el modelo de AI más avanzado de Anthropic, Claude Opus 4. Anthropic dice que los suscriptores de Max pueden comprar uso adicional, más allá de lo que proporciona el límite de uso, a las tasas de API estándar.
El anuncio llega solo unas semanas después de que Anthropic introdujera silenciosamente límites de uso para Claude Code. La empresa dijo en ese momento que estaba al tanto de los problemas, pero se negó a proporcionar más detalles. Aunque la herramienta de codificación AI de Anthropic ha sido un éxito entre los desarrolladores, la empresa parece tener dificultades para servirla a gran escala. La página de estado de Anthropic muestra que Claude Code ha experimentado al menos siete caídas parciales o mayores en el último mes, posiblemente debido a que algunos usuarios de gran potencia parecen estar ejecutando Claude Code sin parar.
Anthropic ha dicho antes que está muy limitado en cuanto a recursos computacionales, lo que parece ser el caso para la mayoría de los proveedores de modelos de AI hoy en día. La mayoría de las empresas de AI están corriendo para traer nuevos centros de datos de AI en línea para satisfacer las demandas masivas de servir y entrenar sus modelos de AI.
Varios proveedores de herramientas de codificación AI están revisando la estrategia de precios de sus productos. En junio, la empresa detrás de Cursor, Anysphere, cambió la forma en que facturaba el uso de su plan Pro de $20 por mes para limitar el abuso del plan por parte de los usuarios de gran potencia. Sin embargo, Anysphere luego se disculpó por comunicar mal esos cambios, lo que llevó a algunos usuarios a pagar más de lo esperado. Otro proveedor de herramientas de codificación AI, Replit, también hizo cambios similares en la estrategia de precios en junio.
Anthropic respondió inmediatamente a la pregunta de TechCrunch sobre los detalles de los límites de uso.
La empresa señala que este límite afectará a menos del 5% de los suscriptores, según sus patrones de uso actuales. La mayoría de los usuarios Pro pueden esperar entre 40 y 80 horas de Sonnet 4 dentro de sus límites de uso semanales, según Anthropic. Sin embargo, Anthropic señala que el uso puede variar según el tamaño del código y otros factores.
En un correo electrónico a los suscriptores de Claude, Anthropic dice que está comprometido a “apoyar casos de uso de larga duración a través de otras opciones en el futuro.” Sin embargo, la empresa afirma que estos límites de uso ayudarán a mantener un servicio confiable a gran escala a corto plazo.