Why Cohere’s ex-AI research lead is betting against the scaling race
Techcrunch Sessions: AI Sara Hooker
AI labs están corriendo para construir centros de datos tan grandes como Manhattan, cada uno costando miles de millones de dólares y consumiendo tanta energía como una pequeña ciudad. El esfuerzo está impulsado por una profunda creencia en “scaling” — la idea de que añadir más potencia de cálculo a los métodos de entrenamiento de AI existentes eventualmente dará lugar a sistemas superinteligentes capaces de realizar todo tipo de tareas.
Pero un creciente coro de investigadores de AI dice que el escalado de grandes modelos de lenguaje puede estar alcanzando sus límites, y que se necesitarán otros avances para mejorar el rendimiento de la AI.
Esa es la apuesta que Sara Hooker, ex VP de Investigación de AI de Cohere y alumna de Google Brain, está haciendo con su nueva startup, Adaption Labs. Co-fundó la empresa con su compañero de Cohere y Google, Sudip Roy, y se basa en la idea de que el escalado de LLMs se ha convertido en una forma ineficiente de exprimir más rendimiento de los modelos de AI. Hooker, que dejó Cohere en agosto, anunció silenciosamente la startup este mes para empezar a reclutar más ampliamente.
EstoyStarting un nuevo proyecto.
Trabajando en lo que considero el problema más importante: construir máquinas pensantes que se adapten y aprendan continuamente.
Tenemos un equipo fundador increíblemente talentoso + estamos contratando para ingeniería, ops, diseño.
Únete a nosotros: https://t.co/eKlfWAfuRy
— Sara Hooker (@sarahookr) October 7, 2025
En una entrevista con TechCrunch, Hooker dice que Adaption Labs está construyendo sistemas de AI que pueden adaptarse y aprender de sus experiencias en el mundo real, y hacerlo de manera extremadamente eficiente. No quiso compartir detalles sobre los métodos detrás de este enfoque ni si la empresa utiliza LLMs o otra arquitectura.
“Ha llegado un punto de inflexión donde está muy claro que la fórmula de simplemente escalar estos modelos — enfoques de escalado, que son atractivos pero extremadamente aburridos — no ha producido inteligencia capaz de navegar o interactuar con el mundo,” dijo Hooker.
La adaptación es “el corazón del aprendizaje,” según Hooker. Por ejemplo, si te tropiezas con la mesa del comedor al pasar por ella, aprenderás a caminar con más cuidado a su alrededor la próxima vez. Los laboratorios de AI han intentado capturar esta idea a través del aprendizaje por refuerzo (RL), que permite a los modelos de AI aprender de sus errores en entornos controlados. Sin embargo, los métodos actuales de RL no ayudan a los modelos de AI en producción — es decir, los sistemas ya en uso por los clientes — a aprender de sus errores en tiempo real. Simplemente siguen tropezándose.
Algunos laboratorios de AI ofrecen servicios de consultoría para ayudar a las empresas a ajustar sus modelos de AI a sus necesidades personalizadas, pero esto tiene un precio. OpenAI reportedly requiere que los clientes gasten más de $10 millones con la empresa para ofrecer sus servicios de ajuste.
“Tenemos un puñado de laboratorios fronterizos que determinan este conjunto de modelos de AI que se sirven de la misma manera a todos, y son muy caros de adaptar,” dijo Hooker. “Y, de hecho, creo que ya no tiene por qué ser así, y los sistemas de AI pueden aprender de un entorno de manera muy eficiente. Demostrarlo cambiará por completo las dinámicas de quién controla y moldea la AI, y, en realidad, a quiénes sirven estos modelos al final del día.”
Adaption Labs es el último signo de que la industria está perdiendo la fe en el escalado de LLMs. Un reciente estudio de investigadores de MIT encontró que los modelos de AI más grandes del mundo pueden estar mostrando retornos decrecientes. Las vibraciones en San Francisco también parecen estar cambiando. El podcaster favorito de la industria de AI, Dwarkesh Patel, ha estado acogiendo conversaciones con investigadores de AI bastante escépticos.
Richard Sutton, un galardonado con el premio Turing considerado “el padre del RL,” le dijo a Patel en septiembre que los LLMs no pueden escalar verdaderamente porque no aprenden de la experiencia real. Este mes, el antiguo empleado de OpenAI Andrej Karpathy le dijo a Patel que tenía reservas sobre el potencial a largo plazo del RL para mejorar los modelos de AI.
Estos tipos de miedos no son nuevos. A finales de 2024, algunos investigadores de AI expresaron preocupaciones de que el escalado de modelos de AI a través del pretraining — en el que los modelos de AI aprenden patrones de grandes conjuntos de datos — estaba mostrando retornos decrecientes. Hasta entonces, el pretraining había sido el secreto para mejorar los modelos de OpenAI y Google.
Estas preocupaciones sobre el pretraining están apareciendo en los datos, pero la industria de AI ha encontrado otras formas de mejorar los modelos. En 2025, los avances en modelos de razonamiento de AI, que requieren más tiempo y recursos computacionales para resolver problemas antes de responder, han llevado aún más lejos las capacidades de los modelos de AI.
Los laboratorios de AI parecen convencidos de que escalar RL y modelos de razonamiento de AI son el nuevo frente. Los investigadores de OpenAI le dijeron anteriormente a TechCrunch que desarrollaron su primer modelo de razonamiento de AI, o1, porque pensaban que escalaría bien. Los investigadores de Meta y Periodic Labs recientemente publicaron un estudio explorando cómo el RL podría escalar el rendimiento aún más — un estudio que reportedly costó más de $4 millones, subrayando cuán caros siguen siendo los enfoques actuales.
Adaption Labs, por otro lado, busca encontrar el siguiente avance y demostrar que aprender de la experiencia puede ser mucho más barato. La startup estaba en conversaciones para recaudar una ronda de semilla de $20 millones a $40 millones a principios de otoño, según tres inversores que revisaron sus presentaciones. Dicen que la ronda se ha cerrado, aunque la cantidad final no está clara. Hooker no quiso comentar.
“Estamos configurados para ser muy ambiciosos,” dijo Hooker cuando se le preguntó sobre sus inversores.
Hooker anteriormente dirigió Cohere Labs, donde entrenó pequeños modelos de AI para casos de uso empresarial. Los sistemas de AI compactos ahora superan rutinariamente a sus contrapartes más grandes en benchmarks de codificación, matemáticas y razonamiento — una tendencia que Hooker quiere seguir impulsando.
También se ganó una reputación por ampliar el acceso a la investigación de AI a nivel global, contratando talento de investigación de regiones subrepresentadas como África. Aunque Adaption Labs abrirá una oficina en San Francisco pronto, Hooker dice que planea contratar a nivel mundial.
Si Hooker y Adaption Labs tienen razón sobre los límites del escalado, las implicaciones podrían ser enormes. Miles de millones ya se han invertido en el escalado de LLMs, con la suposición de que los modelos más grandes llevarán a la inteligencia general. Pero es posible que el aprendizaje adaptativo demuestre ser no solo más poderoso — sino también mucho más eficiente.
Marina Temkin contribuyó con la información.