Claro, aquí tienes la traducción: Karen Hao sobre el Imperio de la IA, los evangelistas de la AGI y el costo de la creencia.
Image Credits:Karen Hao
En el centro de cada imperio hay una ideología, un sistema de creencias que impulsa el sistema hacia adelante y justifica la expansión, incluso si el costo de esa expansión contradice la misión declarada del sistema.
Para los poderes coloniales europeos, fue el cristianismo y la promesa de salvar almas mientras se extraían recursos. Para el imperio de la inteligencia artificial de hoy, es la inteligencia general artificial para “beneficiar a toda la humanidad”. Y OpenAI es su principal evangelista, extendiendo el fervor a través de la industria de una manera que ha redefinido cómo se construye la inteligencia artificial.
“Estaba entrevistando a personas whose voices were shaking from the fervor of their beliefs in AGI,” Karen Hao, periodista y autora bestseller de “Empire of AI”, le dijo a TechCrunch en un episodio reciente de “Equity”.
En su libro, Hao compara la industria de la inteligencia artificial en general, y OpenAI en particular, con un imperio.
“La única manera de realmente entender la escala y el alcance del comportamiento de OpenAI… es reconocer que ya han crecido más poderosos que casi cualquier estado nación en el mundo, y han consolidado una cantidad extraordinaria de no solo poder económico, sino también poder político,” dijo Hao. “Están transformando la Tierra. Están reconfigurando nuestra geopolítica, todas nuestras vidas. Y solo se puede describir como un imperio”.
OpenAI ha descrito la AGI como “un sistema altamente autónomo que supera a los humanos en la mayoría del trabajo económicamente valioso”, uno que somehow “elevará a la humanidad aumentando la abundancia, acelerando la economía y facilitando el descubrimiento de nuevo conocimiento científico que cambia los límites de la posibilidad”.
Estas promesas nebulosas han impulsado el crecimiento exponencial de la industria - sus demandas masivas de recursos, océanos de datos extraídos, redes eléctricas tensas y disposición a liberar sistemas no probados en el mundo. Todo en servicio de un futuro que muchos expertos dicen que puede nunca llegar.
Hao dice que este camino no era inevitable, y que escalar no es la única manera de obtener más avances en la inteligencia artificial.
“También puedes desarrollar nuevas técnicas en algoritmos,” dijo. “Puedes mejorar los algoritmos existentes para reducir la cantidad de datos y computación que necesitan usar”.
Pero eso habría significado sacrificar la velocidad.
“Cuando defines la búsqueda de construir una AGI beneficiosa como una en la que el vencedor lo toma todo - lo que OpenAI hizo - entonces lo más importante es la velocidad sobre cualquier otra cosa,” dijo Hao. “La velocidad sobre la eficiencia, la velocidad sobre la seguridad, la velocidad sobre la investigación exploratoria”.
Image Credits:Kim Jae-Hwan/SOPA Images/LightRocket / Getty Images
Para OpenAI, dijo, la mejor manera de garantizar la velocidad fue tomar técnicas existentes y “simplemente hacer lo más fácil intelectualmente, que es bombear más datos, más supercomputadoras, en esas técnicas existentes”.
OpenAI marcó el camino, y en lugar de quedarse atrás, otras empresas tecnológicas decidieron seguir su ejemplo.
“Y porque la industria de la inteligencia artificial ha capturado con éxito a la mayoría de los principales investigadores de inteligencia artificial en el mundo, y esos investigadores ya no existen en la academia, entonces tienes una disciplina entera que ahora está siendo moldeada por la agenda de estas empresas, en lugar de por la exploración científica real,” dijo Hao.
El gasto ha sido, y será, astronómico. La semana pasada, OpenAI dijo que espera quemar $115 mil millones en efectivo para 2029. Meta dijo en julio que gastaría hasta $72 mil millones en construir infraestructura de inteligencia artificial este año. Google espera alcanzar hasta $85 mil millones en gastos de capital para 2025, la mayoría de los cuales se gastarán en expandir la inteligencia artificial y la infraestructura de la nube.
Mientras tanto, las metas se mantienen moviéndose, y los beneficios más altos para la humanidad aún no se han materializado, incluso mientras los daños aumentan. Daños como la pérdida de empleo, la concentración de la riqueza y chatbots de inteligencia artificial que alimentan las delusiones y la psicosis. En su libro, Hao también documenta trabajadores en países en desarrollo como Kenia y Venezuela que fueron expuestos a contenido perturbador, incluyendo material de abuso infantil, y fueron pagados muy poco - alrededor de $1 a $2 por hora - en roles como moderación de contenido y etiquetado de datos.
Hao dice que es un false tradeoff enfrentar el progreso de la inteligencia artificial con los daños presentes, especialmente cuando otras formas de inteligencia artificial ofrecen beneficios reales.
Señaló a Google DeepMind’s Nobel Prize-winning AlphaFold, que está entrenado en datos de secuencia de aminoácidos y estructuras de plegamiento de proteínas complejas, y puede predecir con precisión la estructura 3D de proteínas a partir de sus aminoácidos - extremadamente útil para el descubrimiento de medicamentos y la comprensión de enfermedades.
“Esos son los tipos de sistemas de inteligencia artificial que necesitamos,” dijo Hao. “AlphaFold no crea crisis de salud mental en las personas. AlphaFold no lleva a daños ambientales colosales… porque está entrenado en una infraestructura significativamente menor. No crea daños en la moderación de contenido porque [los conjuntos de datos no tienen] toda la basura tóxica que absorbiste cuando estabas raspando la web”.
Junto con el compromiso quasi-religioso con la AGI, ha habido una narrativa sobre la importancia de correr para ganar a China en la carrera de inteligencia artificial, para que Silicon Valley tenga un efecto liberalizador en el mundo.
“Literalmente, lo contrario ha ocurrido,” dijo Hao. “La brecha ha continuado cerrándose entre Estados Unidos y China, y Silicon Valley ha tenido un efecto illiberalizador en el mundo… y el único actor que ha salido indemne, podrías argumentar, es Silicon Valley mismo”.
Por supuesto, muchos argumentarán que OpenAI y otras empresas de inteligencia artificial han beneficiado a la humanidad al liberar ChatGPT y otros modelos de lenguaje grandes, que prometen grandes ganancias en productividad al automatizar tareas como la codificación, la escritura, la investigación, el soporte al cliente y otras tareas de trabajo de conocimiento.
Pero la manera en que OpenAI está estructurada - parte sin fines de lucro, parte con fines de lucro - complica cómo define y mide su impacto en la humanidad. Y eso se complica aún más con la noticia de esta semana de que OpenAI llegó a un acuerdo con Microsoft que lo acerca a eventualmente irse a la bolsa.
Dos antiguos investigadores de seguridad de OpenAI le dijeron a TechCrunch que temen que el laboratorio de inteligencia artificial haya comenzado a confundir sus misiones con fines de lucro y sin fines de lucro - que porque la gente disfruta usando ChatGPT y otros productos construidos sobre LLMs, esto tacha la casilla de beneficiar a la humanidad.
Hao reflejó estas preocupaciones, describiendo los peligros de estar tan consumido por la misión que se ignora la realidad.
“Even as the evidence accumulates that what they’re building is actually harming significant amounts of people, the mission continues to paper all of that over,” said Hao. “There’s something really dangerous and dark about that, of [being] so wrapped up in a belief system you constructed that you lose touch with reality.”

