La Ley de la UE sobre IA tiene como objetivo crear un campo de juego equitativo para la innovación en IA. Aquí está lo que es.
Créditos de la imagen:
El Acto de Inteligencia Artificial de la Unión Europea, conocido como el Acto de AI de la UE, ha sido descrito por la Comisión Europea como “la primera ley de AI integral del mundo”. Después de años de preparación, se está volviendo una realidad para los 450 millones de personas que viven en los 27 países que componen la UE.
Sin embargo, el Acto de AI de la UE no es solo un asunto europeo. Se aplica a empresas tanto locales como extranjeras y puede afectar tanto a los proveedores como a los desplegadores de sistemas de IA; la Comisión Europea cita ejemplos de cómo se aplicaría a un desarrollador de una herramienta de cribado de CV y a un banco que compra esa herramienta. Ahora, todas estas partes tienen un marco legal que establece las bases para su uso de la IA.
¿Por qué existe el Acto de AI de la UE?
Como suele ser con la legislación de la UE, el Acto de AI de la UE existe para asegurar que haya un marco legal uniforme aplicable a un tema específico en los países de la UE — en este caso, la IA. Ahora que la regulación está en vigor, debería “asegurar el movimiento libre, transfronterizo, de bienes y servicios basados en AI” sin restricciones locales divergentes.
Con una regulación oportuna, la UE busca crear un campo de juego nivelado en la región y fomentar la confianza, lo que también podría crear oportunidades para empresas emergentes. Sin embargo, el marco común que ha adoptado no es exactamente permisivo: A pesar del relativamente temprano estado de adopción generalizada de la IA en la mayoría de los sectores, el Acto de AI de la UE establece un alto listón sobre lo que la IA debería y no debería hacer para la sociedad en general.
¿Cuál es el propósito del Acto de AI de la UE?
Según los legisladores europeos, el objetivo principal del marco es “promover la adopción de IA centrada en el ser humano y confiable mientras se asegura un alto nivel de protección de la salud, la seguridad, los derechos fundamentales como los establecidos en la Carta de Derechos Fundamentales de la Unión Europea, incluyendo la democracia, el estado de derecho y la protección ambiental, para protegerse contra los efectos perjudiciales de los sistemas de IA en la Unión, y para apoyar la innovación”.
Sí, eso es bastante, pero vale la pena desglosarlo cuidadosamente. Primero, porque mucho dependerá de cómo se defina “IA centrada en el ser humano” y “confiable”. Y segundo, porque da una buena idea del delicado equilibrio que mantener entre objetivos divergentes: innovación frente a la prevención de daños, así como la adopción de la IA frente a la protección ambiental. Como suele ser con la legislación de la UE, una vez más, el diablo estará en los detalles.
¿Cómo equilibra el Acto de AI de la UE sus diferentes objetivos?
Para equilibrar la prevención de daños contra los posibles beneficios de la IA, el Acto de AI de la UE adoptó un enfoque basado en riesgos: prohibiendo un puñado de casos de uso “inaceptables”;; marcando un conjunto de usos “de alto riesgo” que requieren una regulación estricta; y aplicando obligaciones más ligeras a escenarios “de riesgo limitado”.
¿Ha entrado en vigor el Acto de AI de la UE?
Sí y no. El despliegue del Acto de AI de la UE comenzó el 1 de agosto de 2024, pero solo entrará en vigor a través de una serie de plazos de cumplimiento escalonados. En la mayoría de los casos, también se aplicará antes a nuevos entrantes que a empresas que ya ofrecen productos y servicios de IA en la UE.
La primera fecha límite entró en vigor el 2 de febrero de 2025 y se centró en hacer cumplir prohibiciones sobre un pequeño número de usos prohibidos de la IA, como el rastreo no dirigido de internet o CCTV para imágenes faciales para construir o expandir bases de datos. Muchos otros seguirán, pero a menos que cambie el calendario, la mayoría de las disposiciones se aplicarán para mediados de 2026.
¿Qué cambió el 2 de agosto de 2025?
Desde el 2 de agosto de 2025, el Acto de AI de la UE se aplica a “modelos de IA de propósito general con riesgo sistémico”.
Los modelos de IA de propósito general (GPAI) son modelos de IA entrenados con una gran cantidad de datos y que pueden utilizarse para una amplia gama de tareas. Ahí es donde entra el elemento de riesgo. Según el Acto de AI de la UE, los modelos de GPAI pueden conllevar riesgos sistémicos; “por ejemplo, a través de la reducción de barreras para el desarrollo de armas químicas o biológicas, o problemas imprevistos de control sobre modelos autónomos [GPAI]”.
Antes de la fecha límite, la UE publicó directrices para los proveedores de modelos de GPAI, que incluyen tanto a empresas europeas como a jugadores no europeos como Anthropic, Google, Meta y OpenAI. Pero dado que estas empresas ya tienen modelos en el mercado, tendrán hasta el 2 de agosto de 2027 para cumplir, a diferencia de los nuevos entrantes.
¿Tiene dientes el Acto de AI de la UE?
El Acto de AI de la UE incluye sanciones que los legisladores querían que fueran simultáneamente “efectivas, proporcionales y disuasorias” — incluso para grandes jugadores globales.
Los detalles serán establecidos por los países de la UE, pero la regulación establece el espíritu general — que las sanciones variarán según el nivel de riesgo considerado — así como umbrales para cada nivel. La infracción de aplicaciones prohibidas de la IA lleva a la sanción más alta de “hasta €35 millones o el 7% de la facturación anual mundial del año fiscal anterior (cualquiera de las dos sea mayor)”.
La Comisión Europea también puede imponer multas de hasta €15 millones o el 3% de la facturación anual a los proveedores de modelos de GPAI.
¿A qué velocidad piensan cumplir los jugadores existentes?
El código de práctica voluntario de GPAI, que incluye compromisos como no entrenar modelos en contenido pirata, es un buen indicador de cómo pueden involucrarse las empresas con el marco legal hasta que se les obligue a hacerlo.
En julio de 2025, Meta anunció que no firmaría el código de práctica voluntario de GPAI destinado a ayudar a tales proveedores a cumplir con el Acto de AI de la UE. Sin embargo, Google pronto confirmó que firmaría, a pesar de tener reservas.
Los signatarios hasta ahora incluyen Aleph Alpha, Amazon, Anthropic, Cohere, Google, IBM, Microsoft, Mistral AI y OpenAI, entre otros. Pero, como se ha visto con el ejemplo de Google, firmar no significa una endorsement completa.
¿Por qué han estado luchando (algunas) empresas tecnológicas contra estas reglas?
Aunque en un post del blog Google anunció que firmaría el código de práctica voluntario de GPAI, su presidente de asuntos globales, Kent Walker, aún tenía reservas. “Nos preocupa que el Acto de AI y el Código pongan en riesgo el desarrollo y la implementación de la IA en Europa”, escribió.
Meta fue más radical, con su jefe de asuntos globales, Joel Kaplan, declarando en un post en LinkedIn que “Europa está yendo por el camino equivocado con la IA”. Llamando a la implementación de la UE del Acto de AI “exceso”, dijo que el código de práctica “introduce una serie de incertidumbres legales para los desarrolladores de modelos, así como medidas que van mucho más allá del alcance del Acto de AI”.
Las empresas europeas también han expresado preocupaciones. Arthur Mensch, el CEO de la empresa líder en IA de Francia, Mistral AI, fue parte de un grupo de CEOs europeos que firmaron una carta abierta en julio de 2025 instando a Bruselas a “detener el reloj” durante dos años antes de que entraran en vigor las obligaciones clave del Acto de AI de la UE.
¿Cambiará el calendario?
En la primera semana de julio de 2025, la Unión Europea respondió negativamente a los esfuerzos de lobby que pedían una pausa, diciendo que seguiría con su calendario para implementar el Acto de AI de la UE. Siguió con la fecha límite del 2 de agosto de 2025 como estaba planeado, y actualizaremos esta historia si algo cambia.
