Entrada

California legisladores aprueban la ley de seguridad de AI SB 53 — pero Newsom podría vetarla.

Image Credits: Jerod Harris/Getty Images for Vox Media / Getty Images

California’s state senate dio su aprobación final temprano en la mañana del sábado a una importante ley de seguridad de AI que establece nuevos requisitos de transparencia para grandes empresas.

Como describió su autor, el senador estatal Scott Wiener, SB 53 “requiere a grandes laboratorios de AI que sean transparentes sobre sus protocolos de seguridad, crea protecciones para denunciantes en laboratorios de AI y crea una nube pública para expandir el acceso a la computación (CalCompute).”

La ley ahora va al gobernador de California, Gavin Newsom, para que la firme o la vetee. No ha comentado públicamente sobre SB 53, pero el año pasado, vetó una ley de seguridad más amplia también autorizada por Wiener, mientras firmaba legislación más estrecha que abordaba problemas como los deepfakes.

En ese momento, Newsom reconoció la importancia de “proteger al público de las amenazas reales que representa esta tecnología,” pero criticó la ley anterior de Wiener por aplicar “estándares estrictos” a grandes modelos, independientemente de si se desplegaban en entornos de alto riesgo, involucraban decisiones críticas o el uso de datos sensibles.

Wiener dijo que la nueva ley fue influenciada por recomendaciones de un panel de expertos en políticas de AI que Newsom convocó después de su veto.

Politico también informa que SB 53 fue recientemente amendada para que las empresas que desarrollan “AI de vanguardia” mientras ingresan menos de $500 millones en ingresos anuales solo necesiten revelar detalles de seguridad de alto nivel, mientras que las empresas que ingresan más necesitarán proporcionar informes más detallados.

La ley ha sido oposicionada por varias empresas de Silicon Valley, firms de capital de riesgo y grupos de lobby. En una reciente carta a Newsom, OpenAI no mencionó específicamente SB 53, pero argumentó que para evitar “duplicación e inconsistencias,” las empresas deberían considerarse cumplidoras de las reglas de seguridad estatal siempre que cumplan con los estándares federales o europeos.

Y Andreessen Horowitz’s jefe de política de AI y jefe legal afirmó recientemente que “muchas de las leyes de AI de hoy en día — como las propuestas en California y Nueva York — corren el riesgo de” cruzar una línea al violar los límites constitucionales sobre cómo los estados pueden regular el comercio interestatal.

Los cofundadores de a16z habían señalado anteriormente que la regulación tecnológica era uno de los factores que los llevó a apoyar la candidatura de Donald Trump para un segundo mandato. La administración Trump y sus aliados posteriormente llamaron a un bloqueo de 10 años a la regulación estatal de AI.

Anthropic, por su parte, ha salido en favor de SB 53.

“Hemos dicho durante mucho tiempo que preferiríamos un estándar federal,” dijo Jack Clark, cofundador de Anthropic en una publicación. “Pero en ausencia de eso, esto crea un sólido esquema de gobernanza de AI que no puede ser ignorado.”

Esta entrada está licenciada bajo CC BY 4.0 por el autor.