Entrada

El personal de OpenAI se enfrenta al esfuerzo de la empresa en las redes sociales.

Página web de ChatGPT de OpenAI mostrada en una pantalla de laptop en esta ilustración fotográfica.

Créditos de la imagen: Jakub Porzycki/NurPhoto / Getty Images

Varios investigadores actuales y antiguos de OpenAI están expresando sus preocupaciones sobre la primera incursión de la empresa en las redes sociales: la aplicación Sora, una alimentación de estilo TikTok llena de videos generados por IA y muchos falsos de Sam Altman. Los investigadores, expresando sus quejas en X, parecen estar divididos sobre cómo el lanzamiento encaja en la misión sin fines de lucro de OpenAI para desarrollar IA avanzada que beneficie a la humanidad.

“Las alimentaciones basadas en IA son aterradoras,” dijo el investigador de pretraining de OpenAI John Hallman en un post en X. “No negaré que sentí alguna preocupación cuando me enteré de que íbamos a lanzar Sora 2. Dicho esto, creo que el equipo hizo lo mejor posible para diseñar una experiencia positiva […] Vamos a hacer todo lo posible para asegurarnos de que la IA nos ayude y no nos haga daño.”

Las alimentaciones basadas en IA son aterradoras. No negaré que sentí alguna preocupación cuando me enteré de que íbamos a lanzar Sora 2.
Dicho esto, creo que el equipo hizo lo mejor posible para diseñar una experiencia positiva. Comparado con otras plataformas, me encuentro a mí mismo haciendo scroll […] https://t.co/uLeeVMKncl

— John Hallman (@johnohallman) September 30, 2025

Boaz Barak, otro investigador de OpenAI y profesor de Harvard, respondió: “Comparto una mezcla similar de preocupación y entusiasmo. Sora 2 es técnicamente impresionante, pero es prematuro congratularnos por evitar los tropiezos de otras aplicaciones de redes sociales y falsos de deepfakes.”

El investigador antiguo de OpenAI Rohan Pandey aprovechó el momento para promocionar una nueva startup, Periodic Labs, que está compuesta por investigadores antiguos de laboratorios de IA que intentan construir sistemas de IA para el descubrimiento científico: “Si no quieres construir la máquina de TikTok infinita de IA pero quieres desarrollar IA que acelere la ciencia fundamental […] únete a nosotros en Periodic Labs.”

Hubo muchos otros posts en la misma línea.

El lanzamiento de Sora destaca una tensión central para OpenAI que se enciende una y otra vez. Es la empresa de tecnología de consumo más grande del mundo, pero también un laboratorio fronterizo de IA con un alto mandato sin fines de lucro. Algunos antiguos empleados de OpenAI con los que he hablado argumentan que el negocio de consumo puede, en teoría, servir a la misión: ChatGPT ayuda a financiar la investigación de IA y a distribuir la tecnología ampliamente.

El CEO de OpenAI, Sam Altman, dijo lo mismo en un post en X el miércoles, explicando por qué la empresa está asignando tanto capital y potencia de cálculo a una aplicación de redes sociales de IA:

“Necesitamos el capital para construir IA que pueda hacer ciencia, y sin duda estamos enfocados en la AGI con casi todo nuestro esfuerzo de investigación,” dijo Altman. “También es agradable mostrar a la gente nuevas tecnologías/productos, hacerles sonreír y, con suerte, ganar algo de dinero dado todo ese consumo de potencia.”

“Cuando lanzamos chatgpt, hubo mucha gente que dijo ‘¿quién necesita esto y dónde está la AGI’,” continuó Altman. “[R]ealmente es más matizado cuando se trata de trayectorias óptimas para una empresa.”

Pero, ¿cuándo dice OpenAI no a una oportunidad de crecimiento y ganancia de dinero porque está en conflicto con la misión? En otras palabras, ¿cuándo dice OpenAI no a una oportunidad de crecimiento y ganancia de dinero porque está en conflicto con la misión?

La pregunta se cierne mientras los reguladores examinan la transición sin fines de lucro de OpenAI, que OpenAI necesita completar para recaudar más capital y eventualmente salir a bolsa. El Fiscal General de California, Rob Bonta, dijo el mes pasado que está “particularmente preocupado con asegurar que la misión de seguridad de OpenAI como una organización sin fines de lucro permanezca en primer plano” en la reestructuración.

Los escépticos han descartado la misión de OpenAI como una herramienta de branding para atraer talento de Big Tech. Pero muchos empleados internos de OpenAI insisten en que es central a por qué se unieron a la empresa en primer lugar.

Por ahora, el pie de imprenta de Sora es pequeño; la aplicación tiene un día de edad. Pero su debut marca una expansión significativa del negocio de consumo de OpenAI y expone a la empresa a incentivos que han plagado a las aplicaciones de redes sociales durante décadas.

Al igual que ChatGPT, que está optimizado para la utilidad, OpenAI dice que Sora está construido para el entretenimiento — un lugar para generar y compartir clips de IA. La alimentación se siente más cerca de TikTok o Instagram Reels, plataformas que son famosas por sus bucles adictivos.

OpenAI insiste en que quiere evitar esos tropiezos, afirmando en el blog anunciando el lanzamiento de Sora que “las preocupaciones sobre el doomscrolling, la adicción, la aislamiento y las alimentaciones optimizadas para RL están en la mente.” La empresa dice explícitamente que no está optimizando para el tiempo pasado en la alimentación y quiere maximizar la creación. OpenAI dice que enviará recordatorios a los usuarios cuando hayan estado haciendo scroll durante demasiado tiempo y mostrará principalmente a las personas que conocen.

Eso es un punto de partida más fuerte que el de Meta’s Vibes — otra alimentación de video corta de IA lanzada la semana pasada — que parece haber sido lanzada sin tantas protecciones. Como un antiguo líder de política de OpenAI, Miles Brundage, puntos que es posible que haya buenas y malas aplicaciones de alimentaciones de video de IA, al igual que hemos visto en la era de los chatbots.

Sin embargo, como Altman ha reconocido durante mucho tiempo, nadie sale a construir una aplicación adictiva. Los incentivos de gestionar una alimentación los guían a ello. OpenAI incluso se ha encontrado con problemas relacionados con la adulación en ChatGPT, que la empresa dice que fue involuntaria debido a algunas de sus técnicas de entrenamiento.

En un podcast de junio, Altman discutió lo que llama “el gran desalineamiento de las redes sociales.”

“Uno de los grandes errores de la era de las redes sociales fue [que] los algoritmos de la alimentación tenían un montón de consecuencias negativas no intencionadas en la sociedad en general, y tal vez incluso en los usuarios individuales. Aunque estaban haciendo lo que el usuario quería — o alguien pensó que los usuarios querían — en el momento, que era [para] mantenerlos gastando tiempo en el sitio.”

Es demasiado pronto para decir cómo está alineada la aplicación Sora con sus usuarios o la misión de OpenAI. Los usuarios ya están notando algunas técnicas de optimización de compromiso en la aplicación, como los emojis dinámicos que aparecen cada vez que le gusta un video. Esto parece diseñado para disparar un poco de dopamina a los usuarios por interactuar con un video.

La prueba real será cómo OpenAI evoluciona Sora. Dado lo mucho que la IA ha tomado el control de las alimentaciones regulares de redes sociales, parece plausible que las alimentaciones nativas de IA pronto tengan su momento. Si OpenAI puede hacer crecer Sora sin replicar los errores de sus predecesores, eso remains to be seen.

Esta entrada está licenciada bajo CC BY 4.0 por el autor.