Entrada

El modelo de inteligencia artificial Claude de Anthropic ahora puede manejar prompts más largos.

Anthropic Co-Founder & CEO Dario Amodei speaks onstage during TechCrunch Disrupt 2023 at Moscone Center.

Créditos de la imagen: Kimberly White/Getty Images para TechCrunch

Anthropic está aumentando la cantidad de información que los clientes empresariales pueden enviar a Claude en un solo prompt, como parte de un esfuerzo para atraer a más desarrolladores a los modelos de codificación de AI populares de la empresa.

Para los clientes de la API de Anthropic, el modelo de AI Claude Sonnet 4 ahora tiene una ventana de contexto de un millón de tokens — lo que significa que el AI puede manejar solicitudes tan largas como 750,000 palabras, más que la trilogía completa de El Señor de los Anillos, o 75,000 líneas de código. Esto es aproximadamente cinco veces el límite anterior de Claude (200,000 tokens), y más del doble de la ventana de contexto de 400,000 tokens ofrecida por el modelo GPT-5 de OpenAI.

La larga ventana de contexto también estará disponible para Claude Sonnet 4 a través de los socios en la nube de Anthropic, incluyendo en Amazon Bedrock y Google Cloud’s Vertex AI.

Anthropic ha construido uno de los mayores negocios empresariales entre los desarrolladores de modelos de AI, principalmente vendiendo Claude a plataformas de codificación de AI como Microsoft’s GitHub Copilot, Windsurf y Anysphere’s Cursor. Aunque Claude se ha convertido en el modelo preferido entre los desarrolladores, GPT-5 podría amenazar la dominancia de Anthropic con su precio competitivo y fuerte rendimiento de codificación. El CEO de Anysphere, Michael Truell, incluso ayudó a OpenAI a anunciar el lanzamiento de GPT-5, que ahora es el modelo de AI predeterminado para nuevos usuarios en Cursor.

El líder de productos de la plataforma Claude de Anthropic, Brad Abrams, le dijo a TechCrunch en una entrevista que espera que las plataformas de codificación de AI obtengan “mucho beneficio” de esta actualización. Cuando se le preguntó si GPT-5 había afectado el uso de la API de Claude, Abrams minimizó la preocupación, diciendo que está “realmente feliz con el negocio de la API y el crecimiento que ha tenido”.

Mientras que OpenAI genera la mayoría de sus ingresos de suscripciones de consumidores a ChatGPT, el negocio de Anthropic se centra en vender modelos de AI a empresas a través de una API. Esto ha hecho que las plataformas de codificación de AI sean un cliente clave para Anthropic, y podría ser la razón por la que la empresa está ofreciendo algunos nuevos beneficios para atraer usuarios en la cara de GPT-5.

La semana pasada, Anthropic presentó una versión actualizada de su modelo de AI más grande, Claude Opus 4.1, que llevó un poco más lejos las capacidades de codificación de AI de la empresa.

En general, los modelos de AI tienden a realizar mejor en todas las tareas cuando tienen más contexto, pero especialmente en problemas de ingeniería de software. Por ejemplo, si le pides a un modelo de AI que cree una nueva función para tu aplicación, es probable que lo haga mejor si puede ver todo el proyecto, en lugar de solo una pequeña sección.

Abrams también le dijo a TechCrunch que la gran ventana de contexto de Claude también ayuda a que el modelo realice mejor tareas de codificación autónoma de larga duración, en las que el modelo de AI trabaja en un problema durante minutos o horas. Con una gran ventana de contexto, Claude puede recordar todos sus pasos anteriores en tareas de larga duración.

Sin embargo, algunas empresas han llevado las ventanas de contexto a un extremo, afirmando que sus modelos de AI pueden procesar grandes prompts. Google ofrece una ventana de contexto de 2 millones de tokens para Gemini 2.5 Pro, y Meta ofrece una ventana de contexto de 10 millones de tokens para Llama 4 Scout.

Algunos estudios sugieren que hay un límite en cuanto tan grandes pueden ser las ventanas de contexto, y que los modelos de AI no son muy buenos procesando grandes prompts. Abrams dijo que el equipo de investigación de Anthropic se centró en aumentar no solo la ventana de contexto de Claude, sino la “ventana de contexto efectiva”, sugiriendo que su AI puede entender la mayoría de la información que se le da. Sin embargo, no reveló los métodos exactos de Anthropic.

Cuando los prompts a Claude Sonnet 4 superan los 200,000 tokens, Anthropic cobrará más a los usuarios de la API, a $6 por millón de tokens de entrada y $22.50 por millón de tokens de salida (en lugar de $3 por millón de tokens de entrada y $15 por millón de tokens de salida).

Esta entrada está licenciada bajo CC BY 4.0 por el autor.