OpenAI y Google superan a los matemáticos, pero no entre sí.
Image Credits:
AI models from OpenAI y Google DeepMind lograron puntuaciones de oro en la 2025 International Math Olympiad (IMO), una de las competiciones más antiguas y difíciles a nivel de secundaria, según anunciaron recientemente las empresas.
El resultado subraya lo rápido que avanzan los sistemas de inteligencia artificial y lo parejos que parecen estar Google y OpenAI en la carrera por la inteligencia artificial. Las empresas de inteligencia artificial compiten ferozmente por la percepción pública de estar a la cabeza en la carrera de la inteligencia artificial: una batalla intangible de “vibraciones” que puede tener grandes implicaciones para atraer al mejor talento en inteligencia artificial. Muchos investigadores de inteligencia artificial provienen de backgrounds en matemáticas competitivas, por lo que los benchmarks como el IMO significan más que otros.
El año pasado, Google obtuvo una medalla de plata en el IMO utilizando un “sistema formal”, lo que significa que requería que los humanos tradujeran los problemas a un formato legible por máquinas. Este año, tanto OpenAI como Google ingresaron “sistemas informales” en la competencia, que podían procesar preguntas y generar respuestas basadas en pruebas en lenguaje natural. Ambas empresas afirman que sus modelos de inteligencia artificial obtuvieron puntuaciones más altas que la mayoría de los estudiantes de secundaria y el modelo de inteligencia artificial de Google del año pasado, sin necesidad de traducción humana-máquina.
En entrevistas con TechCrunch, los investigadores detrás de los esfuerzos de OpenAI y Google en el IMO afirmaron que estas puntuaciones de oro representan avances en los modelos de razonamiento de inteligencia artificial en dominios no verificables. Aunque los modelos de razonamiento de inteligencia artificial suelen hacerlo bien en preguntas con respuestas directas, como tareas matemáticas o de programación, estos sistemas luchan con tareas que tienen soluciones más ambiguas, como comprar una buena silla o ayudar con investigaciones complejas.
Sin embargo, Google está planteando preguntas sobre cómo OpenAI llevó a cabo y anunció su puntuación de oro en el IMO. Después de todo, si vas a ingresar modelos de inteligencia artificial en una competencia matemática para estudiantes de secundaria, deberías argumentar como un adolescente.
Justo después de que OpenAI anunció su logro el sábado por la mañana, el CEO de Google DeepMind y los investigadores tomaron las redes sociales para criticar a OpenAI por anunciar su medalla de oro prematuramente - poco después de que el IMO anunciara qué estudiantes de secundaria habían ganado la competencia la noche del viernes - y por no tener su modelo evaluado oficialmente por el IMO.
Por cierto, como una nota al margen, no anunciamos el viernes porque respetamos la solicitud original del Consejo del IMO de que todas las laboratorios de inteligencia artificial compartan sus resultados solo después de que los expertos independientes los hubieran verificado y los estudiantes hubieran recibido el reconocimiento que merecían
— Demis Hassabis (@demishassabis) 21 de julio de 2025
Thang Luong, un investigador sénior de Google DeepMind y líder del proyecto IMO, le dijo a TechCrunch que Google esperó a anunciar sus resultados del IMO para respetar a los estudiantes que participaron en la competencia.
Luong dijo que Google ha estado trabajando con los organizadores del IMO desde el año pasado en preparación para la prueba y quería tener la bendición del presidente del IMO y la calificación oficial antes de anunciar oficialmente sus resultados, que hizo el lunes por la mañana.
“El IMO tiene sus directrices de calificación,” dijo Luong. “Por lo tanto, cualquier evaluación que no se base en esas directrices no puede hacer ninguna afirmación sobre el nivel de oro [de rendimiento].”
Noam Brown, un investigador sénior de OpenAI que trabajó en el modelo del IMO, le dijo a TechCrunch que el IMO se puso en contacto con OpenAI hace unos meses sobre participar en una competencia matemática formal, pero OpenAI rechazó porque estaba trabajando en sistemas de lenguaje natural que consideraba más valiosos. Brown dice que OpenAI no sabía que el IMO estaba realizando una prueba informal con Google.
OpenAI afirma que contrató evaluadores de terceros - tres exmedallistas del IMO que entendían el sistema de calificación - para evaluar el rendimiento de su modelo de inteligencia artificial. Después de que OpenAI conoció su puntuación de oro, Brown dijo que la empresa se puso en contacto con el IMO, que luego le dijo a la empresa que esperara a anunciar hasta después de la ceremonia de entrega de premios del viernes por la noche del IMO.
El IMO no respondió a la solicitud de comentarios de TechCrunch.
Google no está necesariamente equivocado aquí - sí pasó por un proceso más oficial y riguroso para lograr su puntuación de oro - pero la discusión puede pasar por alto el panorama más amplio: los modelos de inteligencia artificial de varias laboratorios líderes están mejorando rápidamente. Este año, países de todo el mundo enviaron a sus mejores estudiantes a competir en el IMO, y solo un pequeño porcentaje de ellos obtuvo puntuaciones tan altas como las de los modelos de inteligencia artificial de OpenAI y Google.
Aunque OpenAI solía tener una ventaja significativa sobre la industria, parece que la carrera está más equilibrada de lo que cualquier empresa querría admitir. OpenAI espera lanzar GPT-5 en los próximos meses y la empresa sin duda espera dar la impresión de que aún lidera la industria de la inteligencia artificial.