¿Qué implicaciones tiene la Ley de Inteligencia Artificial?

  • Actualidad

Parlamento IA reconocimiento

Además de establecer salvaguardias sobre la inteligencia artificial de uso general y límites al uso de sistemas de identificación biométrica, la ley obliga a disposición de las pymes y startups espacios controlados de pruebas y ensayos a nivel nacional para que puedan desarrollar y entrenar la IA innovadora antes de su comercialización.

La Eurocámara ha aprobado la Ley de Inteligencia Artificial, que garantiza la seguridad y el respeto de los derechos fundamentales al tiempo que impulsa la innovación. El Reglamento, acordado en las negociaciones con los Estados miembros en diciembre de 2023, ha sido respaldado por la Eurocámara con 523 votos a favor, 46 en contra y 49 abstenciones.

El Reglamento, cuyo objetivo es proteger los derechos fundamentales, la democracia, el Estado de derecho y la sostenibilidad medioambiental frente a la IA que entraña un alto riesgo, impulsando al mismo tiempo la innovación, fija una serie de obligaciones para la IA en función de sus riesgos potenciales y su nivel de impacto.

Aplicaciones prohibidas y exenciones

Las nuevas normas prohíben ciertas aplicaciones de inteligencia artificial que atentan contra los derechos de la ciudadanía, como los sistemas de categorización biométrica basados en características sensibles y la captura indiscriminada de imágenes faciales de internet o grabaciones de cámaras de vigilancia para crear bases de datos de reconocimiento facial. También se prohibirán el reconocimiento de emociones en el lugar de trabajo y en las escuelas, los sistemas de puntuación ciudadana, la actuación policial predictiva y la IA que manipule el comportamiento humano o explote las vulnerabilidades de las personas.

El uso de sistemas de identificación biométrica por parte de las fuerzas de seguridad queda prohibido a priori, salvo en situaciones muy concretas y bien definidas. Por ejemplo, su uso se limita a un período y lugar específicos y cuenta con una autorización judicial o administrativa previa. Recurrir a estos sistemas a posteriori se considera un uso de alto riesgo, que requiere autorización judicial al estar vinculado a un delito penal.

También se prevén obligaciones claras para otros sistemas de IA de alto riesgo (debido a que pueden ser muy perjudiciales para la salud, la seguridad, los derechos fundamentales, el medio ambiente, la democracia y el Estado de derecho). Algunos ejemplos de usos de alto riesgo de la IA son las infraestructuras críticas, la educación y la formación profesional, el empleo, los servicios públicos y privados esenciales, determinados sistemas de las fuerzas de seguridad, la migración y la gestión aduanera, la justicia y los procesos democráticos (como influir en las elecciones). Los ciudadanos y ciudadanas tendrán derecho a presentar reclamaciones sobre los sistemas de IA y a recibir explicaciones sobre las decisiones basadas en ellos que afecten a sus derechos.

Los sistemas de IA de uso general y los modelos en los que se basan deben cumplir ciertos requisitos de transparencia, respetar la legislación de la UE sobre derechos de autor y publicar resúmenes detallados del contenido usado para entrenar sus modelos. Además, las imágenes, contenidos de audio o de vídeo artificiales o manipulados (ultrafalsificaciones) deberán etiquetarse claramente como tales.

Por otra parte, para apoyar la innovación, habrá que poner a disposición de las pymes y de las empresas emergentes espacios controlados de pruebas y ensayos en condiciones reales a nivel nacional para que puedan desarrollar y entrenar la IA antes de su comercialización.

El Reglamento aún está sujeto a una última comprobación jurídica-lingüística. Su aprobación definitiva está prevista para antes del final de la legislatura. La ley también debe ser adoptada formalmente por el Consejo.