Entrada

OpenAI lanza dos modelos de razonamiento de inteligencia artificial 'abiertos'.

OpenAI lanza dos modelos de razonamiento de inteligencia artificial 'abiertos'.

Binary code and OpenAI logo

Créditos de la imagen:Jakub Porzycki/NurPhoto / Getty Images

OpenAI anunció el martes el lanzamiento de dos modelos de razonamiento de AI abiertos con capacidades similares a su serie o. Ambos están disponibles para descargar de forma gratuita desde la plataforma de desarrolladores en línea, Hugging Face, según la empresa, que los describe como “estado del arte” cuando se miden en varios benchmarks para comparar modelos abiertos.

Los modelos están disponibles en dos tamaños: un modelo más grande y capaz gpt-oss-120b que puede ejecutarse en una sola GPU de Nvidia, y un modelo más ligero gpt-oss-20b que puede ejecutarse en una laptop de consumo con 16 GB de memoria.

El lanzamiento marca la primera vez que OpenAI lanza un modelo de lenguaje “abierto” desde que lanzó GPT-2 hace más de cinco años.

En una reunión, OpenAI dijo que sus modelos abiertos serán capaces de enviar consultas complejas a modelos de AI en la nube, según TechCrunch informó anteriormente. Esto significa que si el modelo abierto de OpenAI no es capaz de realizar una tarea específica, como procesar una imagen, los desarrolladores pueden conectar el modelo abierto a uno de los modelos más capaces de la empresa.

Aunque OpenAI open-sourced AI modelos en sus primeros días, la empresa generalmente ha favorecido un enfoque de desarrollo cerrado y propietario. Esta estrategia ha ayudado a OpenAI a construir un gran negocio vendiendo acceso a sus modelos de AI a través de una API a empresas y desarrolladores.

Sin embargo, el CEO Sam Altman dijo en enero que cree que OpenAI ha estado “del lado equivocado de la historia” en cuanto a la open-sourcing de sus tecnologías. La empresa enfrenta hoy en día una creciente presión de laboratorios de AI chinos, como DeepSeek, Qwen de Alibaba y Moonshot AI, que han desarrollado varios de los modelos de AI más capaces y populares abiertos. (Aunque Meta anteriormente dominó el espacio de AI abierto, sus modelos Llama AI han caído detrás en el último año.)

En julio, la Administración Trump también instó a los desarrolladores de AI estadounidenses a open-source más tecnología para promover la adopción global de AI alineada con los valores estadounidenses.

Con el lanzamiento de gpt-oss, OpenAI espera ganar el favor de desarrolladores y la Administración Trump, ambos de los cuales han visto cómo los laboratorios de AI chinos han ganado prominencia en el espacio de código abierto.

“Desde que comenzamos en 2015, la misión de OpenAI es asegurar AGI que beneficie a toda la humanidad,” dijo el CEO de OpenAI, Sam Altman, en un comunicado compartido con TechCrunch. “Para ello, estamos emocionados de que el mundo construya sobre una pila de AI abierta creada en Estados Unidos, basada en valores democráticos, disponible de forma gratuita para todos y de beneficio general.”

Open AI CEO Sam Altman

(Foto de Tomohiro Ohsumi/Getty Images) Créditos de la imagen:Tomohiro Ohsumi / Getty Images

Cómo se desempeñaron los modelos

OpenAI se propuso hacer que su modelo abierto sea líder entre otros modelos de peso abierto de AI, y la empresa afirma haberlo logrado.

En Codeforces (con herramientas), una prueba de programación competitiva, gpt-oss-120b y gpt-oss-20b obtuvieron 2622 y 2516 puntos, respectivamente, superando a DeepSeek’s R1 pero cayendo por debajo de o3 y o4-mini.

Desempeño del modelo abierto de OpenAI en Codeforces (crédito: OpenAI).

En Humanity’s Last Exam, una prueba desafiante de preguntas de crowdsourcing en una variedad de temas (con herramientas), gpt-oss-120b y gpt-oss-20b obtuvieron 19% y 17.3%, respectivamente. De manera similar, esto supera a o3 pero cae por debajo de los modelos líderes abiertos de DeepSeek y Qwen.

Desempeño del modelo abierto de OpenAI en HLE (crédito: OpenAI).

Notablemente, los modelos abiertos de OpenAI tienen una tasa de alucinaciones significativamente mayor que sus últimos modelos de razonamiento de AI, o3 y o4-mini.

Las alucinaciones han estado aumentando en los últimos modelos de razonamiento de AI de OpenAI, y la empresa dijo anteriormente que no entiende por qué. En un white paper, OpenAI dice que esto es “esperado, ya que los modelos más pequeños tienen menos conocimiento del mundo que los modelos más grandes y tienden a alucinar más.”

OpenAI encontró que gpt-oss-120b y gpt-oss-20b alucinaron en respuesta a 49% y 53% de las preguntas en PersonQA, el benchmark interno de la empresa para medir la precisión del conocimiento de una modelo sobre personas. Esto es más del triple de la tasa de alucinaciones del modelo o1 de OpenAI, que obtuvo 16%, y mayor que su modelo o4-mini, que obtuvo 36%.

Entrenamiento de los nuevos modelos

OpenAI dice que sus modelos abiertos fueron entrenados con procesos similares a sus modelos propietarios. La empresa dice que cada modelo abierto utiliza una mezcla de expertos (MoE) para activar menos parámetros para cualquier pregunta dada, lo que lo hace más eficiente. Para gpt-oss-120b, que tiene 117 mil millones de parámetros en total, OpenAI dice que el modelo solo activa 5.1 mil millones de parámetros por token.

La empresa también dice que su modelo abierto fue entrenado utilizando aprendizaje por refuerzo (RL) de alta computación — un proceso post-entrenamiento para enseñar a los modelos de AI lo correcto e incorrecto en entornos simulados utilizando grandes clusters de GPUs de Nvidia. Esto también se utilizó para entrenar la serie o de modelos de OpenAI, y los modelos abiertos tienen un proceso de cadena de pensamiento similar en el que toman más tiempo y recursos computacionales para trabajar a través de sus respuestas.

Como resultado del proceso post-entrenamiento, OpenAI dice que sus modelos de AI abiertos son excelentes para alimentar agentes de AI y son capaces de llamar a herramientas como búsqueda web o ejecución de código Python como parte de su proceso de cadena de pensamiento. Sin embargo, OpenAI dice que sus modelos abiertos son solo de texto, lo que significa que no podrán procesar o generar imágenes y audio como los modelos de la empresa.

OpenAI está lanzando gpt-oss-120b y gpt-oss-20b bajo la licencia Apache 2.0, que generalmente se considera una de las más permisivas. Esta licencia permitirá a las empresas monetizar los modelos abiertos de OpenAI sin tener que pagar ni obtener permiso de la empresa.

Sin embargo, a diferencia de las ofertas completamente abiertas de laboratorios de AI como AI2, OpenAI dice que no liberará los datos de entrenamiento utilizados para crear sus modelos abiertos. Esta decisión no es sorprendente dado que varias demandas activas contra proveedores de modelos de AI, incluidos OpenAI, han alegado que estas empresas entrenaron sus modelos de AI inapropiadamente en obras protegidas por derechos de autor.

OpenAI retrasó el lanzamiento de sus modelos abiertos varias veces en los últimos meses, en parte para abordar preocupaciones de seguridad. Además de las políticas de seguridad habituales de la empresa, OpenAI dice en un white paper que también investigó si los actores malintencionados podrían refinar sus modelos gpt-oss para ser más útiles en ataques cibernéticos o en la creación de armas biológicas o químicas.

Después de pruebas de OpenAI y evaluadores de terceros, la empresa dice que gpt-oss puede aumentar marginalmente las capacidades biológicas. Sin embargo, no encontró evidencia de que estos modelos abiertos puedan alcanzar su umbral de “alta capacidad” para el peligro en estos dominios, incluso después de refinar.

Aunque el modelo de OpenAI parece ser el estado del arte entre los modelos abiertos, los desarrolladores están esperando con ansias el lanzamiento de DeepSeek R2, su próximo modelo de razonamiento de AI, así como un nuevo modelo abierto del nuevo laboratorio de superinteligencia de Meta.

Esta entrada está licenciada bajo CC BY 4.0 por el autor.