OpenAI intensifica el impulso de los desarrolladores con modelos más potentes en su API.
Créditos de la imagen: OpenAI
OpenAI presentó actualizaciones en su API en su Dev Day del lunes, introduciendo GPT-5 Pro, su último modelo de lenguaje, su nuevo modelo de generación de video Sora 2 y un modelo de voz más pequeño y económico.
Las actualizaciones formaban parte de una serie de anuncios dirigidos a atraer a desarrolladores al ecosistema de OpenAI, incluyendo el lanzamiento de una herramienta de construcción de agentes y la capacidad de construir aplicaciones en ChatGPT.
La inclusión de GPT-5 Pro podría atraer a desarrolladores que construyen aplicaciones en finanzas, derecho y salud – industrias que necesitan “alta precisión y profundidad de razonamiento,” según el CEO de OpenAI, Sam Altman.
Altman también señaló que las capacidades de voz serán esenciales en el futuro, ya que se convertirán en una de las principales formas en que las personas interactúan con la IA. Para ello, OpenAI está lanzando “gpt-realtime mini,” un modelo de voz más pequeño y económico en API que soporta interacciones de bajo latencia en tiempo real para audio y voz. El nuevo modelo es un 70% más barato que el modelo de voz avanzado anterior de OpenAI, pero promete mantener la “misma calidad de voz y expresividad.”
Finalmente, los creadores involucrados en el ecosistema de desarrolladores de OpenAI ahora pueden acceder a Sora 2 en versión de prueba en la API. OpenAI lanzó Sora 2, su último generador de audio y video, la semana pasada junto con la aplicación Sora, una competencia de TikTok llena de videos cortos generados por IA. La aplicación Sora permite a los usuarios generar videos de sí mismos, amigos o cualquier cosa basada en una sugerencia, y compartirlos a través de un feed algorítmico estilo TikTok.
“[Desarrolladores] ahora tienen acceso al mismo modelo que potencia los impresionantes resultados visuales de Sora 2 directamente en su propia aplicación,” dijo Altman.
Sora 2 se basa en su generación anterior con escenas más realistas, físicamente consistentes con sonido sincronizado y mayor control creativo – desde la dirección de la cámara detallada hasta visuales estilizados.
“Por ejemplo, puedes tomar la vista del iPhone y pedirle a Sora que la expanda en un plano general cinematográfico,” dijo Altman. “Pero una de las cosas más emocionantes en las que hemos estado trabajando es cómo bien se empareja este nuevo modelo con los visuales, no solo con el habla, sino con paisajes sonoros, audio ambiental, efectos sincronizados que están fundamentados en lo que estás viendo.”
Sora 2 se presenta como una herramienta para el desarrollo de conceptos, ya sea como un punto de partida visual para un anuncio basado en la vibra general de un producto, hasta un diseñador de Mattel que convierte un boceto en un concepto de juguete – un ejemplo que Altman proporcionó en Dev Day que ilumina el acuerdo de OpenAI con el fabricante de Barbie para llevar la IA generativa al proceso de fabricación de juguetes.
