Entrada

Meta se niega a firmar el código de práctica de inteligencia artificial de la UE.

La aplicación de Meta AI se muestra en un teléfono móvil con el logotipo de Meta AI visible en una tableta en esta ilustración fotográfica

Créditos de la imagen: Jonathan Raa/NurPhoto / Getty Images

Meta se ha negado a firmar el código de práctica de la Unión Europea para su AI Act, semanas antes de que entren en vigor las reglas de la UE para los proveedores de modelos de IA general.

“Europa está yendo por el camino equivocado en el ámbito de la IA”, escribió Joel Kaplan, jefe de asuntos globales de Meta, en un post en LinkedIn. “Hemos revisado cuidadosamente el Código de Práctica de la Comisión Europea para los modelos de IA general (GPAI) y Meta no lo firmará. Este Código introduce un número de incertidumbres legales para los desarrolladores de modelos, así como medidas que van mucho más allá del alcance del AI Act”.

El código de práctica de la UE — un marco voluntario publicado hace poco — tiene como objetivo ayudar a las empresas a implementar procesos y sistemas para cumplir con la legislación de la UE sobre la regulación de la IA. Entre otras cosas, el código exige a las empresas que proporcionen y actualicen regularmente la documentación sobre sus herramientas y servicios de IA; prohíbe a los desarrolladores entrenar AI en contenido pirata; y exige a las empresas cumplir con las solicitudes de los titulares de derechos para no utilizar sus obras en sus conjuntos de datos.

Kaplan calificó la implementación de la legislación de la UE como “exceso de regulación” y afirmó que la ley “supondrá un freno al desarrollo y despliegue de modelos de IA de vanguardia en Europa, y limitará a las empresas europeas que buscan construir negocios sobre ellos”.

Un reglamento basado en riesgos para las aplicaciones de inteligencia artificial, el AI Act prohíbe directamente algunos casos de uso “inaceptables”, como la manipulación conductual cognitiva o la puntuación social. Las normas también definen un conjunto de casos de uso “de alto riesgo”, como la biometría y el reconocimiento facial, y en dominios como la educación y el empleo. La ley también exige a los desarrolladores registrar los sistemas de IA y cumplir con las obligaciones de gestión de riesgos y calidad.

Las empresas tecnológicas de todo el mundo, incluyendo las que están a la vanguardia de la carrera por la IA como Alphabet, Meta, Microsoft y Mistral AI han estado luchando contra las reglas, incluso instando a la Comisión Europea a retrasar su implementación. Pero la Comisión se mantuvo firme, afirmando que no cambiará su cronograma.

El viernes, la UE también publicó directrices para los proveedores de modelos de IA antes de que entren en vigor las reglas el 2 de agosto. Estas reglas afectarán a los proveedores de “modelos de IA general con riesgo sistémico”, como OpenAI, Anthropic, Google y Meta. Las empresas que tengan tales modelos en el mercado antes del 2 de agosto deberán cumplir con la legislación para esa fecha.

Esta entrada está licenciada bajo CC BY 4.0 por el autor.