Entrada

California legislador detrás de SB 1047 reaviva el impulso por informes obligatorios de seguridad de IA.

dome of California State Capitol Building, Sacramento

Image Credits:Melinda Podor / Getty Images

California State Senator Scott Wiener el miércoles introdujo nuevas enmiendas a su último proyecto de ley, SB 53, que requeriría a las mayores empresas de AI del mundo publicar protocolos de seguridad y seguridad y emitir informes cuando ocurran incidentes de seguridad.

Si se convierte en ley, California sería el primer estado en imponer requisitos significativos de transparencia a los principales desarrolladores de AI, probablemente incluyendo OpenAI, Google, Anthropic y xAI.

El proyecto de ley anterior de Senator Wiener, SB 1047, incluía requisitos similares para que los desarrolladores de modelos de AI publicaran informes de seguridad. Sin embargo, Silicon Valley luchó ferozmente contra ese proyecto de ley y finalmente fue vetado por el Gobernador Gavin Newsom. El Gobernador de California luego convocó a un grupo de líderes de AI, incluidos el principal investigador de Stanford y cofundador de World Labs Fei Fei Li, para formar un grupo de política y establecer objetivos para los esfuerzos de seguridad de AI del estado.

El grupo de política de AI de California récemment publicó sus recomendaciones finales, citando la necesidad de “requisitos para que la industria publique información sobre sus sistemas” para establecer un “entorno de evidencia robusto y transparente”. El despacho de Senator Wiener dijo en un comunicado de prensa que las enmiendas de SB 53 fueron fuertemente influenciadas por este informe.

“El proyecto de ley sigue siendo un trabajo en progreso, y me gustaría trabajar con todos los interesados en las próximas semanas para refinar esta propuesta en la ley más científica y justa posible”, dijo Senator Wiener en el comunicado.

SB 53 tiene como objetivo encontrar un equilibrio que el Gobernador Newsom afirmó que SB 1047 no logró alcanzar, idealmente creando requisitos significativos de transparencia para los principales desarrolladores de AI sin obstaculizar el rápido crecimiento de la industria de AI de California.

“Estos son problemas que mi organización y otras han estado discutiendo durante un tiempo”, dijo Nathan Calvin, VP de Asuntos del Estado para el grupo sin fines de lucro de seguridad de AI, Encode, en una entrevista con TechCrunch. “Que las empresas expliquen al público y al gobierno las medidas que están tomando para abordar estos riesgos parece un paso mínimo y razonable que tomar”.

El proyecto de ley también crea protecciones para denunciantes para empleados de laboratorios de AI que creen que la tecnología de su empresa representa un “riesgo crítico” para la sociedad, definido en el proyecto de ley como contribuir a la muerte o lesiones de más de 100 personas, o más de $1 mil millones en daños.

Además, el proyecto de ley tiene como objetivo crear CalCompute, un clúster de computación en la nube pública para apoyar a startups y investigadores que desarrollan grandes modelos de AI.

Con las nuevas enmiendas, SB 53 ahora se dirige al Comité de la Asamblea de California sobre Privacidad y Protección del Consumidor para su aprobación. Si pasa por allí, el proyecto de ley también necesitará pasar por varios otros cuerpos legislativos antes de llegar al escritorio del Gobernador Newsom.

En el otro lado de los Estados Unidos, la Gobernadora Kathy Hochul de Nueva York ahora está considerando un proyecto de ley similar de seguridad de AI, la RAISE Act, que también requeriría a los principales desarrolladores de AI publicar informes de seguridad y seguridad.

El destino de las leyes estatales de AI como la RAISE Act y SB 53 estuvo brevemente en peligro cuando los legisladores federales consideraron una moratoria de 10 años sobre la regulación de AI del estado - un intento de limitar un “patchwork” de leyes de AI que las empresas tendrían que navegar. Sin embargo, esa propuesta falló en una votación de 99-1 en el Senado a principios de julio.

“Asegurarse de que el AI se desarrolle de manera segura no debería ser controvertido - debería ser fundamental”, dijo Geoff Ralston, el ex presidente de Y Combinator, en un comunicado a TechCrunch. “El Congreso debería liderar, exigiendo transparencia y rendición de cuentas a las empresas que construyen modelos fronterizos. Pero sin una acción federal seria a la vista, los estados deben dar un paso al frente. El SB 53 de California es un ejemplo bien estructurado de liderazgo estatal”.

Hasta ahora, los legisladores han fracasado en obtener el apoyo de las empresas de AI para los requisitos de transparencia obligatorios por el estado. Anthropic ha apoyado ampliamente la necesidad de mayor transparencia en las empresas de AI, y incluso ha expresado un optimismo moderado sobre las recomendaciones del grupo de política de AI de California. Sin embargo, empresas como OpenAI, Google y Meta han sido más resistentes a estos esfuerzos.

Los principales desarrolladores de modelos de AI suelen publicar informes de seguridad para sus modelos de AI, pero han sido menos consistentes en los últimos meses. Por ejemplo, Google decidió no publicar un informe de seguridad para su modelo de AI más avanzado, Gemini 2.5 Pro, hasta meses después de que se hiciera disponible. OpenAI también decidió no publicar un informe de seguridad para su modelo GPT-4.1. Más tarde, un estudio de terceros sugirió que podría estar menos alineado que los modelos de AI anteriores.

SB 53 representa una versión atenuada de los proyectos de ley anteriores de seguridad de AI, pero aún podría obligar a las empresas de AI a publicar más información de la que publican hoy en día. Por ahora, estarán observando de cerca mientras Senator Wiener vuelve a probar esos límites.

Esta entrada está licenciada bajo CC BY 4.0 por el autor.