Entrada

Why California’s SB 53 might provide a meaningful check on big AI companies.

dome of California State Capitol Building, Sacramento

Créditos de la imagen: Melinda Podor / Getty Images

La Cámara de Senadores de California ha dado su aprobación final a un nuevo proyecto de ley sobre seguridad de AI, SB 53, enviándolo al gobernador Gavin Newsom para que lo firme o lo vete.

Si todo esto te suena familiar, es porque Newsom vetó otro proyecto de ley sobre seguridad de AI, también escrito por el senador estatal Scott Wiener, el año pasado. Pero SB 53 es más estrecho que el anterior SB 1047 de Wiener, con un enfoque en las grandes empresas de AI que generan más de $500 millones en ingresos anuales.

Tuve la oportunidad de discutir SB 53 con mis colegas Max Zeff y Kirsten Korosec en el último episodio de el podcast insignia de TechCrunch, Equity. Max cree que el nuevo proyecto de ley de Wiener tiene más posibilidades de convertirse en ley, en parte debido a su enfoque en las grandes empresas y también porque ha sido apoyado por la empresa de AI Anthropic.

Lee un adelanto de nuestra conversación sobre la seguridad de AI y la legislación a nivel estatal a continuación. (He editado el guion para su longitud, claridad y para que sonemos un poco más inteligentes.)

Max: ¿Por qué deberías preocuparte por la legislación sobre seguridad de AI que está pasando por una cámara en California? Estamos entrando en una era en la que las empresas de AI se están volviendo las más poderosas del mundo, y esto podría ser uno de los pocos controles sobre su poder.

Esto es mucho más estrecho que SB 1047, que recibió mucha oposición el año pasado. Pero creo que SB 53 sigue poniendo algunas regulaciones significativas sobre los laboratorios de AI. Los obliga a publicar informes de seguridad sobre sus modelos. Si tienen un incidente, básicamente los obliga a informar al gobierno. Y también, para los empleados de estos laboratorios, si tienen preocupaciones, les da un canal para informar al gobierno sin temor a represalias por parte de las empresas, aunque muchos de ellos hayan firmado acuerdos de confidencialidad.

Para mí, esto parece un control potencialmente significativo sobre el poder de las empresas tecnológicas, algo que no hemos tenido realmente durante las últimas dos décadas.

Kirsten: En cuanto a tu punto sobre por qué importa a nivel estatal, es importante pensar en el hecho de que es California. Casi todas las grandes empresas de AI están basadas aquí o tienen una gran presencia en este estado. No quiero decir que otros estados no importen, pero sí que importa específicamente que sea California porque es realmente un centro de actividad de AI.

Mi pregunta para ti, Max, es que parece que hay muchas excepciones y carve outs. Es más estrecho, pero ¿es más complicado que el anterior [proyecto de ley]?

Max: En cierto modo, sí. Diría que el principal carve out de este proyecto de ley es que realmente intenta no aplicar a pequeñas startups. Y básicamente, una de las principales controversias alrededor del último esfuerzo legislativo del senador Scott Wiener, que representa San Francisco y autor del proyecto de ley, fue que podría dañar el ecosistema de startups, algo con lo que mucha gente tiene problemas porque es una parte muy dinámica de la economía de California en este momento.

Este proyecto de ley se aplica específicamente a desarrolladores de AI que generan más de $500 millones de sus modelos de AI. Really tries to target OpenAI, Google DeepMind, these big companies and not your run-of-the-mill startup.

Anthony: Como entiendo, si eres una pequeña startup, sí tienes que compartir alguna información de seguridad, pero no tanto.

Es importante también hablar sobre el panorama más amplio de la regulación de AI y el hecho de que uno de los grandes cambios entre el año pasado y este año es que ahora tenemos un nuevo presidente. La administración federal ha adoptado una postura mucho más favorable a la no regulación y las empresas deben poder hacer lo que quieran, hasta el punto de que han incluido lenguaje en las leyes de financiación que dice que los estados no pueden tener su propia regulación de AI.

No creo que nada de eso haya pasado aún, pero podrían intentarlo en el futuro. Así que esto podría ser otro frente en el que la administración Trump y los estados azules están luchando.

Equity es el podcast insignia de TechCrunch, producido por Theresa Loconsolo, y se publica todos los miércoles y viernes.

Suscríbete a nosotros en Apple Podcasts, Overcast, Spotify y todas las plataformas. También puedes seguir Equity en X y Threads, en @EquityPod.

Esta entrada está licenciada bajo CC BY 4.0 por el autor.