Una iniciativa FEDER
Este jueves 1 de agosto, la Unión Europea (UE) ha puesto en marcha la primera ley de inteligencia artificial (IA) a nivel mundial, con el objetivo de fomentar la excelencia y la innovación tecnológica al tiempo que se protegen los derechos humanos. En este artículo, te desglosamos las fases de implementación, las multas asociadas, los destinatarios de la normativa y otros aspectos clave.
🎯 Objetivos de la Ley de IA de la UE
La nueva regulación busca equilibrar los riesgos de la inteligencia artificial con sus beneficios sociales y económicos, sin obstaculizar la innovación. Su meta es establecer un marco jurídico armonizado en la UE para el desarrollo, comercialización, implementación y uso de sistemas de IA, promoviendo así un entorno seguro y beneficioso para todos.
✍ Aplicación y Alcance
La normativa se aplica a los proveedores de sistemas de IA que operen o comercialicen en la UE, independientemente de su origen, así como a los usuarios de estos sistemas. Quedan excluidas las autoridades públicas de terceros países, organizaciones internacionales en cooperación policial o judicial con la UE, sistemas militares y aquellos utilizados exclusivamente para investigación y desarrollo científico.
🌐 Tipos de Sistemas de IA y Regulaciones
La ley clasifica los sistemas de IA en cuatro categorías: prohibidos, de alto riesgo, con requisitos de transparencia y de propósito general.
-
Prohibidos: Incluye sistemas que vulneran derechos fundamentales, como los que emplean técnicas subliminales para manipular el comportamiento, categorización biométrica basada en creencias o características personales, y la captura indiscriminada de imágenes faciales para bases de datos de reconocimiento facial.
-
Alto riesgo: Abarca sistemas utilizados en infraestructuras críticas, educación, empleo y evaluación crediticia. Estos deben cumplir con estrictos requisitos de evaluación y reducción de riesgos, mantener registros de uso, ser transparentes y estar bajo supervisión humana.
-
Con requisitos de transparencia: Los responsables deben informar claramente a los usuarios para evitar engaños, como en el caso de chatbots y deepfakes.
-
De propósito general: Estos sistemas, aunque no tienen un propósito inicial definido, pueden ser adaptados para usos que podrían clasificarlos como de alto riesgo, por lo que deben cumplir con requisitos específicos.
🚨 Multas y Sanciones
Las multas por incumplimiento de la normativa varían según el tamaño del proveedor, con sanciones que van desde los 35 millones de euros o el 7% del volumen global de negocio de la empresa, hasta 7,5 millones de euros o el 1,5% del volumen global de negocio.
📝 Fases de Aplicación
- Febrero de 2025: Entrada en vigor de las prohibiciones de prácticas.
- Agosto de 2025: Normas aplicables a modelos de uso generalista, como ChatGPT.
- Agosto de 2026: Implementación general de la ley.
- Agosto de 2027: Obligaciones para sistemas de alto riesgo.
Con esta ley pionera, la UE busca liderar el camino hacia una IA segura y ética, asegurando que el desarrollo tecnológico respete los derechos humanos y promueva beneficios sociales y económicos sostenibles.
ℹ Accede aquí a la normativa: Regulation – EU – 2024/1689 – EN – EUR-Lex (europa.eu)