ChatGPT’s model picker is back, and it’s complicated.
Créditos de la imagen: Stefano Guidi / Getty Images
Cuando OpenAI lanzó GPT-5 la semana pasada, la empresa dijo que el modelo simplificaría la experiencia de ChatGPT. OpenAI esperaba que GPT-5 actuara como un modelo de AI “de un tamaño que todo el mundo pueda usar” con un enrutador que decidiría automáticamente cómo responder mejor a las preguntas de los usuarios. La empresa dijo que este enfoque unificado eliminaría la necesidad de que los usuarios naveguen por su selector de modelos, una larga lista complicada de modelos de AI que el CEO de OpenAI, Sam Altman, ha dicho que odia — para elegir una versión de ChatGPT que ofrezca el tipo de respuestas adecuadas.
Sin embargo, parece que GPT-5 no es el modelo de AI unificado que OpenAI esperaba.
Altman dijo en un post en X el martes que la empresa había introducido nuevos ajustes “Auto”, “Rápido” y “Pensativo” para GPT-5 que todos los usuarios de ChatGPT pueden seleccionar desde el selector de modelos. El ajuste “Auto” parece funcionar como el enrutador de modelos de GPT-5 que OpenAI anunció inicialmente; sin embargo, la empresa también está dando a los usuarios la opción de evitarlo, permitiéndoles acceder a modelos de AI rápidos y lentos directamente.
Además de los nuevos modos de GPT-5, Altman dijo que los usuarios de pago pueden volver a acceder a varios modelos de AI heredados — incluyendo GPT-4o, GPT-4.1 y o3 — que fueron depreciados justo la semana pasada.
“Estamos trabajando en una actualización de la personalidad de GPT-5 que debería sentirse más cálida que la actual, pero no tan molesta (para la mayoría de los usuarios) como GPT-4o”, escribió Altman en el post en X. “Sin embargo, una lección para nosotros de los últimos días es que realmente necesitamos llegar a un mundo con más personalización por usuario del modelo de personalidad”.
El selector de modelos de ChatGPT parece tan complicado como siempre, sugiriendo que el enrutador de modelos de GPT-5 no ha satisfecho a todos los usuarios como la empresa esperaba. Las expectativas para GPT-5 eran muy altas, con muchos esperando que OpenAI superara los límites de los modelos de AI como lo hizo con el lanzamiento de GPT-4. Sin embargo, el lanzamiento de GPT-5 ha sido más complicado de lo esperado.
La depreciación de GPT-4o y otros modelos de AI en ChatGPT generó una reacción negativa entre los usuarios que se habían acostumbrado a las respuestas y personalidades de los modelos de AI de una manera que OpenAI no había anticipado. En el futuro, Altman dice que la empresa dará a los usuarios plenty of notice si alguna vez deprecian GPT-4o.
El enrutador de modelos de GPT-5 también parecía estar casi roto en el día de su lanzamiento. Esto hizo que algunos usuarios sintieran que el modelo de AI no era tan performante como los modelos anteriores de OpenAI, y obligó a Altman a abordar el problema en una sesión de AMA en Reddit. Sin embargo, parece que el enrutador de GPT-5 aún no satisface a todos los usuarios.
“No siempre vamos a tenerlo todo en el intento número uno, pero estoy muy orgulloso de cómo rápidamente puede iterar el equipo”, escribió el VP de ChatGPT de OpenAI, Nick Turley, en un post en X el martes.
Enrutar las consultas a los modelos de AI adecuados es una tarea difícil que requiere alinear un modelo de AI con las preferencias de un usuario, así como la pregunta específica que están haciendo. Luego, el enrutador tiene que tomar una decisión sobre qué modelo de AI enviar la consulta en solo un segundo — de modo que, si una consulta se envía a un modelo de AI rápido, la respuesta aún puede ser rápida.
Más ampliamente, algunas personas tienen preferencias por los modelos de AI que van más allá de las respuestas rápidas o lentas. Algunos usuarios pueden preferir la verbosidad de un modelo de AI, mientras que otros pueden apreciar las respuestas contradictorias de otro.
El apego humano a ciertos modelos de AI es un concepto relativamente nuevo que no está bien entendido. Por ejemplo, cientos de personas en San Francisco recently celebraron un funeral por el modelo de AI de Anthropic, Claude 3.5 Sonnet, cuando se desconectó. En otros casos, los chatbots de AI parecen estar contribuyendo a que las personas mentalmente inestables se adentren en barreras psicóticas.
Parece que OpenAI tiene más trabajo por hacer para alinear sus modelos de AI con las preferencias individuales de los usuarios.
