Google dice que firmará el código de prácticas de la UE sobre IA.
Créditos de la imagen: NurPhoto / Getty Images
Google ha confirmado que firmará el código de práctica de inteligencia artificial general de la Unión Europea, un marco voluntario que tiene como objetivo ayudar a los desarrolladores de IA a implementar procesos y sistemas para cumplir con la legislación de AI del bloque.
Notablemente, Meta anunció anteriormente este mes que no firmaría el código, calificando la implementación de la legislación de AI de la UE como “exceso” y afirmando que Europa estaba “tomando el camino equivocado en AI”.
El compromiso de Google llega días antes de que entren en vigor las reglas para los proveedores de “modelos de IA general con riesgo sistémico” el 2 de agosto. Las empresas que podrían verse afectadas por estas reglas incluyen nombres importantes como Anthropic, Google, Meta y OpenAI, así como varios otros grandes modelos generativos, y tendrán dos años para cumplir completamente con la Ley de AI.
En un artículo de blog el miércoles, Kent Walker, presidente de asuntos globales de Google, reconoció que la versión final del código de práctica era mejor que la propuesta inicial de la UE, pero aún expresó reservas sobre la Ley de AI y el código.
“Nos preocupa que la Ley de AI y el Código puedan ralentizar el desarrollo y despliegue de AI en Europa. En particular, las desviaciones de la legislación de derechos de autor de la UE, los pasos que ralentizan las aprobaciones o los requisitos que exponen secretos comerciales podrían disuadir el desarrollo y despliegue de modelos europeos, perjudicando la competitividad de Europa”, escribió Walker.
Al firmar el código de práctica de la UE, las empresas de IA estarían de acuerdo en seguir una serie de directrices, que incluyen proporcionar documentación actualizada sobre sus herramientas y servicios de IA; no entrenar IA en contenido pirateado; y cumplir con las solicitudes de los titulares de derechos para no utilizar sus obras en sus conjuntos de datos.
Una regulación basada en riesgos para aplicaciones de IA, la Ley de AI de la UE prohíbe algunos casos de uso “inaceptable”, como la manipulación conductual cognitiva o el puntuación social. Las reglas también definen un conjunto de casos de uso “de alto riesgo”, como la biometría y el reconocimiento facial, y el uso de IA en sectores como la educación y el empleo. La ley también requiere que los desarrolladores registren sistemas de IA y cumplan con las obligaciones de gestión de riesgos y calidad.