Entrada

Silicon Valley espanta a los defensores de la seguridad de la inteligencia artificial.

Créditos de la imagen:piranka (abre en una nueva ventana) / Getty Images

Líderes de Silicon Valley, incluyendo David Sacks, Czar de AI y Criptomonedas de la Casa Blanca, y Jason Kwon, jefe de estrategia de OpenAI, causaron revuelo en línea esta semana por sus comentarios sobre grupos que promueven la seguridad de la inteligencia artificial. En instancias separadas, ambos afirmaron que ciertos defensores de la seguridad de la IA no son tan virtuosos como parecen, y están actuando en su propio interés o en el de los millonarios que los controlan desde atrás.

Los grupos de seguridad de la IA que hablaron con TechCrunch dicen que las acusaciones de Sacks y OpenAI son el último intento de Silicon Valley de intimidar a sus críticos, pero ciertamente no el primero. En 2024, algunas firmas de capital de riesgo esparcieron rumores de que una ley de seguridad de la IA de California, SB 1047, enviaría a los fundadores de startups a la cárcel. El Instituto Brookings etiquetó el rumor como uno de muchos desinformaciones sobre la ley, pero el gobernador Gavin Newsom la vetó de todos modos.

Ya sea que Sacks y OpenAI tuvieran la intención de intimidar a los críticos, sus acciones han asustado a varios defensores de la seguridad de la IA. Muchos líderes de organizaciones sin fines de lucro que TechCrunch contactó la semana pasada pidieron hablar bajo condición de anonimato para evitar represalias contra sus organizaciones.

La controversia subraya la creciente tensión entre Silicon Valley y la construcción de la IA de manera responsable y su construcción como un producto masivo para el consumidor — un tema que mis colegas Kirsten Korosec, Anthony Ha y yo desglosamos en este episodio de nuestro podcast Equity. También nos adentramos en una nueva ley de seguridad de la IA aprobada en California para regular los chatbots, y el enfoque de OpenAI sobre la erótica en ChatGPT.

El martes, Sacks escribió un post en X acusando a Anthropic — que ha expresado preocupaciones sobre la capacidad de la IA para contribuir al desempleo, ciberataques y daños catastróficos a la sociedad — de estar simplemente sembrando el pánico para obtener leyes que beneficien a sí mismos y ahoguen a los pequeños startups en la burocracia. Anthropic fue el único gran laboratorio de IA que apoyó la Ley de Seguridad de la IA de California, SB 53, que establece requisitos de informe de seguridad para grandes empresas de IA, que fue firmada en ley el mes pasado.

Sacks estaba respondiendo a un ensayo viral de Jack Clark, cofundador de Anthropic, sobre sus temores relacionados con la IA. Clark presentó el ensayo como un discurso en la conferencia de seguridad de la IA Curve en Berkeley semanas antes. Sentado en el público, sin duda se sintió como una cuenta genuina de las reservas de un tecnólogo sobre sus productos, pero Sacks no lo vio así.

Sacks dijo que Anthropic está ejecutando una estrategia de captura regulatoria sofisticada, aunque es probable que una estrategia verdaderamente sofisticada no involucrara hacerse enemigo del gobierno federal. En un post de seguimiento en X, Sacks notó que Anthropic se ha posicionado consistentemente como un adversario de la administración Trump.

También esta semana, el jefe de estrategia de OpenAI, Jason Kwon, escribió un post en X explicando por qué la empresa estaba enviando citaciones a organizaciones sin fines de lucro de seguridad de la IA, como Encode, una organización sin fines de lucro que aboga por políticas de IA responsables. (Una citación es una orden legal que exige documentos o testimonios.) Kwon dijo que después de que Elon Musk demandara a OpenAI — por preocupaciones de que el creador de ChatGPT se ha desviado de su misión sin fines de lucro — OpenAI encontró sospechoso que varias organizaciones también se opusieran a su reestructuración. Encode presentó un escrito de amicus curiae en apoyo del litigio de Musk y otras organizaciones no gubernamentales hablaron públicamente en contra de la reestructuración de OpenAI.

“Esto levantó preguntas de transparencia sobre quién los financiaba y si había alguna coordinación,” dijo Kwon.

NBC News informó esta semana que OpenAI envió citaciones amplias a Encode y seis otras organizaciones sin fines de lucro que criticaron a la empresa, solicitando sus comunicaciones relacionadas con dos de sus mayores opositores, Musk y el CEO de Meta, Mark Zuckerberg. OpenAI también solicitó a Encode comunicaciones relacionadas con su apoyo a SB 53.

Un líder destacado de la seguridad de la IA le dijo a TechCrunch que hay una creciente división entre el equipo de asuntos gubernamentales de OpenAI y su organización de investigación. Mientras que los investigadores de seguridad de OpenAI publican frecuentemente informes que revelan los riesgos de los sistemas de IA, la unidad de políticas de OpenAI abogó en contra de SB 53, argumentando que preferiría reglas uniformes a nivel federal.

El jefe de alineación de misión de OpenAI, Joshua Achiam, habló sobre el envío de citaciones a organizaciones sin fines de lucro en un post en X esta semana.

“En riesgo de mi carrera, diré: esto no parece muy bien,” dijo Achiam.

Brendan Steinhauser, CEO de la organización sin fines de lucro de seguridad de la IA Alianza para la Seguridad de la IA (que no ha sido citada por OpenAI), le dijo a TechCrunch que OpenAI parece convencido de que sus críticos forman parte de una conspiración liderada por Musk. Sin embargo, argumenta que esto no es así, y que gran parte de la comunidad de la seguridad de la IA es bastante crítica de las prácticas de seguridad de xAI, o su falta.

“En el caso de OpenAI, esto se trata de silenciar a los críticos, de intimidarlos y de disuadir a otras organizaciones sin fines de lucro de hacer lo mismo,” dijo Steinhauser. “Para Sacks, creo que está preocupado porque [el movimiento de seguridad de la IA] está creciendo y la gente quiere responsabilizar a estas empresas.”

Sriram Krishnan, el asesor principal de políticas de AI de la Casa Blanca y un antiguo socio general de a16z, se unió a la conversación esta semana con un post en las redes sociales propio, llamando a los defensores de la seguridad de la IA a estar desactualizados. Instó a las organizaciones de seguridad de la IA a hablar con “personas en el mundo real que están utilizando, vendiendo, adoptando AI en sus hogares y organizaciones.”

Un estudio reciente de Pew encontró que aproximadamente la mitad de los estadounidenses están más preocupados que emocionados por la IA, pero no está claro exactamente qué les preocupa. Otro estudio reciente se adentró en más detalles y encontró que los votantes estadounidenses se preocupan más por las pérdidas de empleo y los deepfakes que por los riesgos catastróficos causados por la IA, en los que se centra principalmente el movimiento de seguridad de la IA.

Abordar estas preocupaciones de seguridad podría venir a expensas del crecimiento rápido de la industria de la IA — un compromiso que preocupa a muchos en Silicon Valley. Con la inversión en IA impulsando gran parte de la economía de Estados Unidos, el temor a una regulación excesiva es comprensible.

Sin embargo, después de años de progreso no regulado en la IA, el movimiento de seguridad de la IA parece estar ganando verdadero impulso hacia 2026. Los intentos de Silicon Valley de luchar contra los grupos centrados en la seguridad pueden ser una señal de que están funcionando.

Esta entrada está licenciada bajo CC BY 4.0 por el autor.