The fixer’s dilemma: Chris Lehane and OpenAI’s impossible mission
Chris Lehane es uno de los mejores en el negocio de hacer desaparecer las noticias malas. Secretario de prensa de Al Gore durante los años Clinton, jefe de gestión de crisis de Airbnb a través de cada pesadilla reguladora desde aquí hasta Bruselas — Lehane sabe cómo dar la vuelta. Ahora está en su segundo año en lo que podría ser su trabajo más imposible hasta ahora: como VP de política global de OpenAI, su trabajo es convencer al mundo de que OpenAI realmente se preocupa por democratizar la inteligencia artificial mientras la empresa se comporta cada vez más como cualquier otro gigante tecnológico que haya afirmado ser diferente.
Tuve 20 minutos con él en el escenario en la conferencia Elevate en Toronto hace unos días — 20 minutos para pasar los puntos de conversación y llegar a las verdaderas contradicciones que están erosionando la imagen cuidadosamente construida de OpenAI. No fue fácil ni completamente exitoso. Lehane es realmente bueno en su trabajo. Es agradable. Suena razonable. Admite incertidumbre. Habla de despertarse a las 3 a.m. preocupado por si alguna de estas cosas realmente beneficiará a la humanidad.
Pero las buenas intenciones no significan mucho cuando tu compañía está subpoenando a críticos, drenando de agua y electricidad a pueblos económicamente deprimidos y trayendo de vuelta a la vida a celebridades muertas para afirmar tu dominio del mercado.
El problema de Sora está realmente en la raíz de todo lo demás. La herramienta de generación de video lanzada la semana pasada parece tener material con derechos de autor directamente incorporado. Fue un movimiento audaz para una empresa que ya está siendo demandada por el New York Times, el Toronto Star y la mitad de la industria editorial. Desde una perspectiva empresarial y de marketing, también fue brillante. La aplicación de invitación exclusiva se disparó hasta la cima de la App Store mientras la gente creaba versiones digitales de sí mismos, de personajes como Pikachu, Mario y Cartman de “South Park”; y de celebridades muertas como Tupac Shakur.
Cuando le pregunté qué llevó a OpenAI a lanzar esta nueva versión de Sora con estos personajes, Lehane me dio el pitch estándar: Sora es una “tecnología de propósito general” como la electricidad o la imprenta, democratizando la creatividad para personas sin talento o recursos. Incluso él — un creativo cero autodesignado — puede hacer videos ahora, dijo en el escenario.
Lo que evitó fue que OpenAI inicialmente “dejó” que los titulares de derechos optaran por no tener su trabajo utilizado para entrenar Sora, lo cual no es cómo generalmente funciona el uso de derechos de autor. Luego, después de que OpenAI notara que la gente realmente disfrutaba utilizando imágenes con derechos de autor (por supuesto que lo hicieron), “evolucionó” hacia un modelo de opt-in. No es realmente iteración. Es probar cuánto puedes permitirte.
Naturalmente, la situación trae a la mente la frustración de los editores que acusan a OpenAI de entrenar en su trabajo sin compartir los beneficios económicos. Cuando le pregunté a Lehane sobre los editores que se quedan fuera de la economía, invocó el uso justo, ese principio legal estadounidense que supuestamente equilibra los derechos de los creadores con el acceso público al conocimiento. Lo llamó el arma secreta de la supremacía tecnológica de EE.UU.
Quizás. Pero recently entrevisté a Al Gore — el antiguo jefe de Lehane — y me di cuenta de que cualquiera podría simplemente preguntarle a ChatGPT sobre ello en lugar de leer mi artículo en TechCrunch. “Es ‘iterativo’,” dije, “pero también es un reemplazo”.
Por primera vez, Lehane dejó de lado su discurso. “Todos vamos a tener que resolver esto,” dijo. “Es realmente glib y fácil estar aquí en el escenario y decir que necesitamos resolver nuevos modelos de ingresos económicos. Pero creo que lo haremos”. (Estamos improvisando, en resumen).
Luego está la pregunta de la infraestructura que nadie quiere responder honestamente. OpenAI ya está operando un campus de centros de datos en Abilene, Texas, y recently rompió el suelo para un centro de datos masivo en Lordstown, Ohio, en colaboración con Oracle y SoftBank. Lehane ha comparado la accesibilidad a la inteligencia artificial con la llegada de la electricidad — diciendo que aquellos que accedieron a ella más tarde aún están jugando al “catch-up” — pero el proyecto Stargate de OpenAI parece estar apuntando a algunas de esas mismas comunidades económicamente desafiadas como lugares para establecer instalaciones con sus grandes appetitos por agua y electricidad.
Cuando le pregunté durante nuestra reunión si estas comunidades se beneficiarán o simplemente pagarán la factura, Lehane fue a gigavatios y geopolítica. OpenAI necesita aproximadamente un gigavatio de energía por semana, notó. China trajo 450 gigavatios el año pasado más 33 plantas nucleares. Si las democracias quieren una inteligencia artificial democrática, tienen que competir. “El optimista en mí dice que esto modernizará nuestros sistemas de energía,” dijo, pintando una imagen de América reindustrializada con redes eléctricas transformadas.
Fue inspirador. Pero no fue una respuesta sobre si las personas en Lordstown y Abilene verán sus facturas de servicios públicos aumentar mientras OpenAI genera videos de John F. Kennedy y The Notorious B.I.G. (La generación de video es la más energéticamente intensiva de la inteligencia artificial).
Lo que me llevó a mi ejemplo más incómodo. Zelda Williams pasó el día antes de nuestra entrevista pidiendo a extraños en Instagram que dejen de enviarle videos generados por inteligencia artificial de su padre fallecido, Robin Williams. “No estás haciendo arte,” escribió. “Estás haciendo algo asqueroso y procesado de las vidas de las personas”.
Cuando le pregunté cómo la empresa concilia este tipo de daño íntimo con su misión, Lehane respondió hablando de procesos, incluyendo el diseño responsable, marcos de prueba y asociaciones gubernamentales. “No hay un libro de reglas para esto, ¿verdad?”.
Lehane mostró vulnerabilidad en algunos momentos, diciendo que se despierta a las 3 a.m. cada noche, preocupado por la democratización, la geopolítica e infraestructura. “Hay una enorme responsabilidad que viene con esto”.
Ya sea que esos momentos fueran diseñados para el público, lo creo. De hecho, me fui de Toronto pensando que había visto una clase magistral de mensajería política — Lehane manejando una aguja imposible mientras esquivaba preguntas sobre decisiones de la compañía que, para todo lo que sé, ni siquiera podría estar de acuerdo.
Luego llegó el viernes.
Nathan Calvin, un abogado que trabaja en política de inteligencia artificial en una organización de defensa no gubernamental, Encode AI, reveló que mientras yo hablaba con Lehane en Toronto, OpenAI había enviado a un sheriff a su casa en Washington, D.C., durante la cena para servirle un subpoena. Querían sus mensajes privados con legisladores de California, estudiantes universitarios y ex empleados de OpenAI.
Calvin acusa a OpenAI de tácticas de intimidación en torno a una nueva pieza de regulación de inteligencia artificial, la SB 53 de California. Dice que la compañía utilizó su batalla legal con Elon Musk como pretexto para atacar a críticos, sugiriendo que Encode estaba secretamente financiada por Musk. En realidad, Calvin dice que luchó contra la oposición de OpenAI a la SB 53, una ley de seguridad de inteligencia artificial, y que cuando vio a la compañía decir que “trabajó para mejorar el proyecto”, “literalmente se rió en voz alta”. En una cadena de mensajes en redes sociales, fue más allá y llamó a Lehane específicamente el “maestro de las artes políticas oscuras”.
En Washington, eso podría ser un cumplido. En una empresa como OpenAI cuya misión es “construir inteligencia artificial que beneficie a toda la humanidad”, suena como una acusación.
Lo que importa mucho más es que incluso los propios empleados de OpenAI están conflictuados sobre lo que están convirtiéndose.
Como mi colega Max informó la semana pasada, varios empleados actuales y antiguos tomaron a las redes sociales después de que se lanzara Sora 2, expresando sus dudas, incluyendo Boaz Barak, un investigador de OpenAI y profesor de Harvard, quien escribió sobre Sora 2 que es “técnicamente asombroso pero es prematuro congratularse a nosotros mismos por evitar los tropiezos de otras aplicaciones de redes sociales y deepfakes”.
El viernes, Josh Achiam — el jefe de alineación de misión de OpenAI — tuiteó algo aún más notable sobre la acusación de Calvin. Precediendo sus comentarios con “posiblemente un riesgo para mi carrera”, Achiam escribió sobre OpenAI: “No podemos hacer cosas que nos conviertan en un poder temible en lugar de uno virtuoso. Tenemos una obligación y una misión para toda la humanidad. La barra para perseguir esa obligación es increíblemente alta”.
Esa… algo. Un ejecutivo de OpenAI cuestionando públicamente si su empresa se está convirtiendo en “un poder temible en lugar de uno virtuoso” no está al nivel de un competidor tomando tiros o un periodista haciendo preguntas. Es alguien que eligió trabajar en OpenAI, que cree en su misión, y que ahora está reconociendo una crisis de conciencia a pesar del riesgo profesional.
Es un momento cristalizador. Puedes ser el mejor operador político en tecnología, un maestro en la navegación de situaciones imposibles, y aún así terminar trabajando para una empresa cuya conducta cada vez más se opone a sus valores declarados — contradicciones que podrían intensificarse a medida que OpenAI se acelera hacia la inteligencia artificial general.
Me hace pensar que la verdadera pregunta no es si Chris Lehane puede vender la misión de OpenAI. Es si otros — incluyendo, críticamente, los demás que trabajan allí — aún creen en ella.