Image Credits:Getty Images
Cuando DeepSeek, Alibaba y otras empresas chinas lanzaron sus modelos de IA, los investigadores occidentales notaron rápidamente que evitaban preguntas críticas sobre el Partido Comunista Chino. Los funcionarios estadounidenses confirmaron posteriormente que estas herramientas están diseñadas para reflejar los puntos de vista de Beijing, lo que suscita preocupaciones sobre la censura y el sesgo.
Líderes estadounidenses de la IA como OpenAI han señalado esto como justificación para avanzar rápidamente en su tecnología sin demasiada regulación o supervisión. Como escribió Chris Lehane, jefe de asuntos globales de OpenAI, en un post en LinkedIn el mes pasado, hay una competencia entre la IA liderada por EE.UU. y la IA autocrática de China.
Una orden ejecutiva firmada el miércoles por el presidente Donald Trump que prohíbe la “IA woke” y los modelos de IA que no son “ideológicamente neutrales” de contratos gubernamentales podría desequilibrar esta competencia.
La orden critica la diversidad, equidad e inclusión (DEI) calificándola como una “ideología pervasiva y destructiva” que puede “distorsionar la calidad y la precisión de los resultados”. Específicamente, la orden se refiere a información sobre raza o sexo, manipulación de la representación racial o sexual, teoría crítica de la raza, transgenerismo, sesgo inconsciente, interseccionalidad y racismo sistémico.
Los expertos advierten que podría crear un efecto disuasorio en los desarrolladores que podrían sentirse presionados a alinear los resultados de los modelos y los conjuntos de datos con la retórica de la Casa Blanca para obtener dólares federales para sus empresas que queman efectivo.
La orden llega el mismo día en que la Casa Blanca publicó el “Plan de Acción de AI” de Trump, que cambia las prioridades nacionales hacia la infraestructura de IA, la reducción de la burocracia para las empresas tecnológicas, la fortificación de la seguridad nacional y la competencia con China.
La orden dirige al Director de la Oficina de Presupuesto y Gestión, el Administrador de Política de Adquisiciones Federales, el Administrador de Servicios Generales y el Director de la Oficina de Política Científica y Tecnológica para emitir directrices a otras agencias sobre cómo cumplir.
“De una vez por todas, nos deshacemos del woke”, dijo Trump el miércoles durante un evento de IA organizado por el podcast All-In y el Foro de Colina y Valle. “Firmaré una orden prohibiendo al gobierno federal la adquisición de tecnología de IA que haya sido infundida con sesgo partidista o agendas ideológicas, como la teoría crítica de la raza, que es ridícula. Y desde ahora, el gobierno de EE.UU. solo tratará con IA que persiga la verdad, la equidad y la imparcialidad estricta”.
Determinar qué es imparcial o objetivo es uno de los muchos desafíos de la orden.
Philip Seargeant, profesor titular de lingüística aplicada en The Open University, le dijo a TechCrunch que nada puede ser verdaderamente objetivo.
“Una de las premisas fundamentales de la sociolingüística es que el lenguaje nunca es neutral”, dijo Sergeant. “Entonces, la idea de que alguna vez se puede lograr la objetividad pura es una fantasía”.
Además, la ideología de la administración Trump no refleja las creencias y valores de todos los estadounidenses. Trump ha buscado repetidamente eliminar el financiamiento para iniciativas climáticas, educación, radiodifusión pública, investigación, subvenciones sociales, programas de apoyo comunitario y agrícola, y atención de género afirmativa, a menudo enmarcándolas como ejemplos de “gobierno woke” o gasto sesgado.
Como dijo Rumman Chowdhury, una científica de datos, CEO de la organización sin fines de lucro Humane Intelligence y ex enviado científico de EE.UU. para la IA, “cualquier cosa que la administración Trump no le guste se convierte inmediatamente en una pila peyorativa de woke”.
Las definiciones de “búsqueda de la verdad” y “neutralidad ideológica” en la orden publicada el miércoles son vagas en algunos aspectos y específicas en otros. Mientras que “búsqueda de la verdad” se define como LLMs que “priorizan la precisión histórica, la investigación científica y la objetividad”, “neutralidad ideológica” se define como LLMs que son “herramientas neutrales, no partidistas que no manipulan las respuestas en favor de dogmas ideológicos como la DEI”.
Estas definiciones dejan margen para una interpretación amplia, así como para la presión. Las empresas de IA han presionado por menos restricciones en su funcionamiento. Y aunque una orden ejecutiva no tiene la fuerza de una legislación, las empresas de vanguardia de la IA podrían verse aún sujetas a las prioridades cambiantes de la agenda política de la administración.
El pasado lunes, OpenAI, Anthropic, Google y xAI firmaron contratos con el Departamento de Defensa para recibir hasta 200 millones de dólares cada uno para desarrollar flujos de trabajo de IA agente que aborden desafíos críticos de seguridad nacional.
No está claro cuál de estas empresas está mejor posicionada para beneficiarse del veto a la IA woke, o si cumplirán.
TechCrunch ha contactado a cada una de ellas y actualizará este artículo si recibimos una respuesta.
Aunque muestra sesgos propios, xAI podría estar más alineada con la orden, al menos en esta etapa temprana. Elon Musk ha posicionado a Grok, el chatbot de xAI, como el ultimate anti-woke, “menos sesgado”, buscador de la verdad. Los prompts del sistema de Grok lo han dirigido a evitar deferir a autoridades y medios mainstream, a buscar información contraria incluso si es políticamente incorrecta, y a incluso consultar las propias opiniones de Musk sobre temas controvertidos. En los últimos meses, Grok incluso ha emitido comentarios antisemitas y ha elogiado a Hitler en X, entre otros posts odiosos, racistas y misóginos.
Mark Lemley, profesor de derecho en la Universidad de Stanford, le dijo a TechCrunch que la orden ejecutiva está “claramente diseñada como discriminación de puntos de vista, ya que el gobierno acaba de firmar un contrato con Grok, es decir, ‘MechaHitler’”.
Además del contrato con el DOD, la empresa anunció que “Grok para el Gobierno” se había añadido al catálogo de la Administración de Servicios Generales, lo que significa que los productos de xAI ahora están disponibles para compra en todas las oficinas y agencias gubernamentales.
“La pregunta correcta es esta: ¿la prohibirían Grok, la IA con la que acababan de firmar un gran contrato, porque ha sido deliberadamente diseñada para dar respuestas politicamente cargadas?”. Dijo Lemley en una entrevista por correo electrónico. “Si no, está claramente diseñada para discriminar contra un punto de vista particular”.
Como los propios prompts del sistema de Grok han demostrado, los resultados de los modelos pueden ser una reflexión de las personas que construyen la tecnología y los datos con los que se entrena la IA. En algunos casos, una excesiva cautela entre los desarrolladores y la IA entrenada en contenido de internet que promueve valores como la inclusión ha llevado a resultados distorsionados de los modelos. Por ejemplo, Google, el año pasado se enfrentó a críticas después de que su chatbot Gemini mostrase un George Washington negro y nazis racialmente diversos, lo que la orden llama ejemplos de modelos de IA infectados con DEI.
Chowdhury dice que su mayor temor con esta orden ejecutiva es que las empresas de IA rehagan activamente los datos de entrenamiento para seguir la línea del partido. Señaló declaraciones de Musk unos días antes de lanzar Grok 4, diciendo que xAI utilizaría el nuevo modelo y sus capacidades de razonamiento avanzado para “rewrite la totalidad del corpus de conocimiento humano, añadiendo información ausente y eliminando errores. Luego, entrenar sobre eso”.
Esto pondría a Musk en la posición de juzgar qué es verdad, lo que podría tener grandes implicaciones a largo plazo sobre cómo se accede a la información.
Por supuesto, las empresas han estado haciendo juicios sobre qué información se ve y no se ve desde el amanecer de internet.
Conservadores como David Sacks, el empresario e inversor al que Trump nombró como Czar de la IA, ha sido muy crítico con la “IA woke” en el podcast All-In, que co-organizó el día de anuncios de Trump sobre IA. Sacks ha acusado a los creadores de productos de IA prominentes de infundir en ellos valores de izquierda, enmarcando sus argumentos como una defensa de la libertad de expresión y una advertencia sobre una tendencia hacia el control ideológico centralizado en las plataformas digitales.
El problema, según los expertos, es que no hay una verdad única. Lograr resultados no sesgados o neutrales es imposible, especialmente en el mundo actual donde incluso los hechos están politizados.
“Si los resultados que produce una IA dicen que la ciencia del clima es correcta, ¿eso es sesgo de izquierda?”. Dijo Sergeant. “Algunas personas dicen que necesitas dar ambas partes del argumento para ser objetivo, incluso si una parte del argumento no tiene estatus”.