Anthropic apoya la ley de seguridad de IA de California, SB 53.
Image Credits:David Paul Morris/Bloomberg via Getty Images
El lunes, Anthropic anunció un respaldo oficial a SB 53, una ley de California presentada por el senador estatal Scott Wiener que impondría, por primera vez en la nación, requisitos de transparencia a los desarrolladores de los modelos de inteligencia artificial más grandes del mundo. El respaldo de Anthropic marca una victoria significativa y poco común para SB 53, en un momento en que grandes grupos tecnológicos como CTA y Chamber for Progress están haciendo lobby contra la ley.
“Aunque creemos que la seguridad de la inteligencia artificial de vanguardia debe abordarse a nivel federal en lugar de una red de regulaciones estatales, los avances poderosos de la inteligencia artificial no esperarán un consenso en Washington.” dijo Anthropic en un post de blog. “La pregunta no es si necesitamos un gobierno de la inteligencia artificial —es si lo desarrollaremos de manera pensada hoy o reactivamente mañana. SB 53 ofrece un buen camino hacia lo primero.”
Si se aprueba, SB 53 exigiría a los desarrolladores de modelos de inteligencia artificial de vanguardia como OpenAI, Anthropic, Google y xAI que desarrollen marcos de seguridad, publiquen informes públicos de seguridad y seguridad antes de desplegar modelos de inteligencia artificial potentes. La ley también establecería protecciones para los denunciantes que presenten preocupaciones de seguridad.
El proyecto de ley se centra específicamente en limitar que los modelos de inteligencia artificial contribuyan a “riesgos catastróficos,” que el proyecto de ley define como la muerte de al menos 50 personas o más de un billón de dólares en daños. SB 53 se enfoca en el lado extremo del riesgo de la inteligencia artificial —limitando que los modelos de inteligencia artificial se utilicen para proporcionar asistencia de nivel experto en la creación de armas biológicas, o para ser utilizados en ciberataques — en lugar de preocupaciones más cercanas en el tiempo como los deepfakes de inteligencia artificial o la adulación.
California’s Senate aprobó una versión anterior de SB 53, pero aún necesita una votación final en el proyecto de ley antes de que pueda avanzar al escritorio del gobernador. El gobernador Gavin Newsom ha mantenido silencio sobre el proyecto de ley hasta ahora, aunque vetó el último proyecto de ley de inteligencia artificial de Senator Wiener, SB 1047, que incluía muchas de las mismas medidas.
Los proyectos de ley que regulan a los desarrolladores de modelos de inteligencia artificial de vanguardia han enfrentado una fuerte oposición tanto de Silicon Valley como de la administración Trump, que argumentan que tales esfuerzos podrían limitar la innovación de Estados Unidos en la carrera contra China. Inversores como Andreessen Horowitz y Y Combinator lideraron parte de la oposición a SB 1047, y en los últimos meses, la administración Trump ha repetidamente amenazado con bloquear a los estados de aprobar regulaciones de inteligencia artificial en su totalidad.
Uno de los argumentos más comunes contra las leyes de seguridad de inteligencia artificial es que los estados deberían dejar el asunto a los gobiernos federales. Andreessen Horowitz’s Head of AI Policy, Matt Perault, y Chief Legal Officer, Jai Ramaswamy, publicaron un post de blog la semana pasada argumentando que muchas de las leyes de inteligencia artificial de hoy en día corren el riesgo de violar la Cláusula del Comercio de la Constitución — que limita a los gobiernos estatales de aprobar leyes que vayan más allá de sus fronteras e impidan el comercio interestatal.
Sin embargo, el cofundador de Anthropic, Jack Clark, argumenta en un post en X que la industria tecnológica construirá sistemas de inteligencia artificial poderosos en los próximos años y no puede esperar a que el gobierno federal actúe.
“Hemos dicho durante mucho tiempo que preferiríamos un estándar federal,” dijo Clark. “Pero en ausencia de eso, esto crea un buen plan para la gobernanza de la inteligencia artificial que no puede ser ignorado.”
El Chief Global Affairs Officer de OpenAI, Chris Lehane, envió una carta al gobernador Newsom en agosto argumentando que no debería aprobar ninguna regulación de inteligencia artificial que empuje a las startups fuera de California — aunque la carta no mencionó SB 53 por nombre.
El antiguo Head of Policy Research de OpenAI, Miles Brundage, dijo en un post en X que la carta de Lehane estaba “llena de basura engañosa sobre SB 53 y la política de inteligencia artificial en general.” Notablemente, SB 53 tiene como objetivo regular únicamente a las mayores empresas de inteligencia artificial —especialmente aquellas que generaron un ingreso bruto de más de 500 millones de dólares.
A pesar de la crítica, los expertos en políticas dicen que SB 53 es un enfoque más modesto que los proyectos de ley anteriores de seguridad de inteligencia artificial. Dean Ball, un Senior Fellow en la Foundation for American Innovation y antiguo asesor de políticas de inteligencia artificial de la Casa Blanca, dijo en un post de blog en agosto que cree que SB 53 tiene buenas posibilidades de convertirse en ley. Ball, quien criticó SB 1047, dijo que los redactores de SB 53 han mostrado “respeto por la realidad técnica,” así como una “medida de restricción legislativa.”
El senador Wiener dijo anteriormente que SB 53 fue fuertemente influenciado por un panel de política experta que el gobernador Newsom convocó —co-dirigido por el investigador líder de Stanford y cofundador de World Labs, Fei-Fei Li — para asesorar a California sobre cómo regular la inteligencia artificial.
La mayoría de los laboratorios de inteligencia artificial ya tienen alguna versión de la política de seguridad interna que SB 53 requiere. OpenAI, Google DeepMind y Anthropic publican regularmente informes de seguridad para sus modelos. Sin embargo, estas empresas no están obligadas por ninguna ley a hacerlo, y a veces se retrasan en sus compromisos de seguridad autoimpuestos. SB 53 tiene como objetivo establecer estos requisitos como ley.
Antes de septiembre, los legisladores de California amendaron SB 53 para eliminar una sección del proyecto de ley que exigiría a los desarrolladores de modelos de inteligencia artificial ser auditados por terceros. Las empresas tecnológicas han luchado contra estos tipos de auditorías en otras batallas de políticas de inteligencia artificial, argumentando que son excesivamente onerosas.
