Tras su publicación  en el Diario Oficial de la UE, el Reglamento de IA entrará en vigor el 1 de agosto de 2024 y será aplicable de manera progresiva. La regla general es que el Reglamento de IA será aplicable a los 24 meses desde la entrada en vigor, esto es, a partir del 2 de agosto de 2026.

Según el Parlamento Europeo, esta ley «garantiza la seguridad y el respeto de los derechos fundamentales al tiempo que impulsa la innovación» de esta tecnología. La legislación establece que los sistemas de IA de uso general y los modelos en los que se basan «deben cumplir ciertos requisitos de transparencia, respetar la legislación de la UE sobre derechos de autor y publicar resúmenes detallados del contenido usado para entrenar sus modelos». Además, la ley indica que los modelos más potentes «que podrían plantear riesgos sistémicos» deberán cumplir requisitos adicionales, como realizar evaluaciones de los modelos, analizar y mitigar los riesgos sistémicos e informar sobre los incidentes. Las imágenes, contenidos de audio o de vídeo artificiales o manipulados por esta tecnología («ultrafalsificaciones») deberán etiquetarse claramente como tales.

La nueva normativa también prohíbe ciertas aplicaciones que atentan contra los derechos fundamentales de los ciudadanos, como los sistemas de categorización biométrica basados en características sensibles y la captura indiscriminada de imágenes faciales de internet o grabaciones de cámaras de vigilancia para crear bases de datos de reconocimiento facial. También se prohibirán el reconocimiento de emociones en el lugar de trabajo y en las escuelas, los sistemas de puntuación ciudadana, la actuación policial predictiva (cuando se base únicamente en el perfil de una persona o en la evaluación de sus características) y la IA que manipule el comportamiento humano o explote las vulnerabilidades de las personas.

Sistemas de identificación biométrica y de alto riesgo

La ley apunta que las fuerzas de seguridad solo podrán utilizar sistemas de identificación biométrica en situaciones «muy concretas y bien definidas», mientras que los sistemas de identificación biométrica «en tiempo real» únicamente se podrán emplear «si se cumplen una serie de salvaguardias estrictas»; por ejemplo, su uso se limita a un período y lugar específicos y cuenta con una autorización judicial o administrativa previa.

Entre estos casos pueden figurar la búsqueda selectiva de una persona desaparecida o la prevención de un atentado terrorista. Recurrir a estos sistemas a posteriori se considera un uso de alto riesgo, que requiere autorización judicial al estar vinculado a un delito penal.

En relación con los otros sistemas de IA de alto riesgo, se prevén «obligaciones claras, por su perjuicio potencial para la salud, la seguridad, los derechos fundamentales, el medio ambiente, la democracia y el Estado de derecho. Algunos ejemplos de usos de alto riesgo de la IA son las infraestructuras críticas, la educación y la formación profesional, el empleo, los servicios públicos y privados esenciales (por ejemplo, la sanidad o la banca), determinados sistemas de las fuerzas de seguridad, la migración y la gestión aduanera, la justicia y los procesos democráticos (como influir en las elecciones).

Estos sistemas deben evaluar y reducir los riesgos, mantener registros de uso, ser transparentes y precisos y contar con supervisión humana. En este sentido, la ciudadanía tendrá derecho a presentar reclamaciones sobre los sistemas de IA y a recibir explicaciones sobre las decisiones basadas en ellos que afecten a sus derechos.

Asimismo, la normativa europea señala que se deberá poner a disposición de las pymes y de las empresas emergentes espacios controlados de pruebas y ensayos en condiciones reales a nivel nacional para que puedan desarrollar y entrenar la IA innovadora antes de su comercialización.