Comienza la cuenta atrás para la aplicación de la Ley de IA en la UE: estos son los plazos
El próximo 1 de agosto, la nueva ley de Inteligencia Artificial de la Unión Europea entrará en vigor y dentro de 24 meses (a mediados de 2026), sus disposiciones serán plenamente aplicables en general a los desarrolladores de IA. Tras publicarse el pasado viernes 12 de julio de manera oficial, ya se ha puesto en marcha la maquinaria para su aplicación. No obstante, la ley adopta un enfoque gradual, lo que significa que hay varios plazos importantes de aquí a entonces (y algunos incluso más tarde), ya que empezarán a aplicarse distintas disposiciones legales.
Estas son las fechas clave a tener en cuenta:
1 de agosto de 2024: La Ley de IA entrará en vigor
Febrero de 2025: Se aplicarán los capítulos I (disposiciones generales) & II (sistemas de IA prohibidos)
Agosto de 2025: Se aplicarán el capítulo III, sección 4 (notificación a las autoridades), el capítulo V (modelos de IA de propósito general), el capítulo VII (gobernanza), el capítulo XII (confidencialidad y sanciones) y el artículo 78 (confidencialidad), excepto el artículo 101 (multas para proveedores de IA de propósito general)
Agosto de 2026: Se aplica toda la Ley de IA, excepto el artículo 6 (1) y las obligaciones correspondientes (una de las categorías de sistemas de IA de alto riesgo)
Agosto de 2027: Se aplican el artículo 6, apartado 1, y las obligaciones correspondientes.
Casos de uso y riesgos
En diciembre del año pasado, la Unión Europea alcanzó un un acuerdo político sobre la primera normativa general de la UE sobre IA. El marco impone distintas obligaciones a los desarrolladores de IA, en función de los casos de uso y el riesgo percibido. La mayor parte de los usos de la IA no estarán regulados, ya que se consideran de bajo riesgo, pero la ley prohíbe un cierto número de posibles casos de uso.
Los llamados casos de "alto riesgo", como los usos biométricos de la IA o aplicada al derecho, el empleo, la educación y las infraestructuras críticas, están permitidos por la ley, pero los desarrolladores de estas aplicaciones se enfrentan a obligaciones en áreas como la calidad de los datos y la lucha contra los prejuicios. Un tercer nivel de riesgo también aplica unos requisitos de transparencia menos estrictos a los creadores de herramientas como los chatbots de IA, como explica TechCrunch.
Para los creadores de modelos de IA de propósito general (GPAI), como GPT de OpenAI, la tecnología subyacente a ChatGPT, también existen algunos requisitos de transparencia. A los GPAI más potentes, generalmente basados en umbrales de cálculo, también se les puede exigir que lleven a cabo una evaluación del riesgo sistémico.
Implementación por fases
En primer lugar, la lista de usos prohibidos de la IA se aplicará seis meses después de la entrada en vigor de la ley, es decir, a principios de 2025. Entre los casos de uso prohibidos (o de "riesgo inaceptable") de la IA que pronto serán ilegales se incluyen la puntuación social de crédito “al estilo chino”; la compilación de bases de datos de reconocimiento facial mediante el rastreo no selectivo de Internet; y el uso de biometría remota en tiempo real por parte de las fuerzas de seguridad en lugares públicos, a menos que se aplique una de varias excepciones, como durante la búsqueda de personas desaparecidas o secuestradas.
Nueve meses después de la entrada en vigor, es decir, hacia abril de 2025, se aplicarán códigos de buenas prácticas a los desarrolladores de aplicaciones de IA incluidas en el ámbito de aplicación. La Oficina de Inteligencia Artificial de la UE, un organismo de supervisión y creación de ecosistemas establecido por la ley, es responsable de proporcionar estos códigos. Pero quién redactará realmente las directrices sigue suscitando dudas.
Otro plazo clave es 12 meses después de la entrada en vigor (el 1 de agosto de 2025), cuando empezarán a aplicarse las normas de la ley sobre los GPAI que deben cumplir requisitos de transparencia.