La Eurocámara avanza en las nuevas reglas de transparencia y gestión de riesgos para los sistemas de IA

  • Actualidad

inteligencia artificial 4

El Parlamento Europeo ha introducido enmiendas a la propuesta de la Comisión de regular la inteligencia artificial y apuesta por reglas más restrictivas. Es un nuevo paso en la aprobación de las que serán las primeras reglas del mundo sobre esta tecnología.

  Recomendados....

» Modernización del Sector Público: estado de las iniciativas digitales Foro IT User- AAPP
» Cómo elegir una arquitectura cloud que ayude a crecer y proteger mi negocio Ver
» Estrategias de ciberseguridad inteligentes: hoja de ruta y mejores prácticas Acceder

La Comisión de Mercado Interior y la Comisión de Libertades Civiles adoptaron un proyecto de mandato de negociación sobre las que serán las primeras normas a nivel mundial sobre la inteligencia artificial con 84 votos a favor, 7 en contra y 12 abstenciones. Ahora debe ser aprobado por todo el Parlamento durante la sesión del 12 al 15 de junio y, después, se negociará en el Consejo Europeo.

En sus enmiendas a la propuesta de la Comisión de establecer reglas armonizadas sobre la IA en el territorio, establece normas más restrictivas para garantizar nuevas normas de transparencia y gestión de riesgos para los sistemas de IA.

Las reglas de la futura IA Act o Ley de la Inteligencia Artificial siguen un enfoque basado en riesgos y establecen obligaciones para proveedores y usuarios dependiendo del nivel de riesgo que la IA pueda generar. Los sistemas de IA con un nivel inaceptable de riesgo para la seguridad de las personas estarían estrictamente prohibidos, incluidos los sistemas que implementan técnicas subliminales o deliberadamente manipuladoras, explotan las vulnerabilidades de las personas o se utilizan para calificar socialmente (clasificar a las personas en función de su comportamiento social, estatus socioeconómico, personal).

Esta propuesta aprobada por las dos Comisiones es más amplia en prohibiciones de usos intrusivos y discriminatorios de los sistemas de IA, en áreas que tienen que ver los sistemas de identificación biométrica remota en tiempo real en espacios de acceso público; sistemas biométricos a distancia, con la única excepción de las fuerzas del orden para la persecución de delitos graves y sólo previa autorización judicial; sistemas de categorización biométrica que utilizan características sensibles, como género, raza, religión, orientación política, etc., sistemas policiales predictivos basados ??en perfiles, ubicación o conducta delictiva pasada; sistemas de reconocimiento de emociones en las fuerzas del orden, la gestión de fronteras, el lugar de trabajo y las instituciones educativas; y la extracción indiscriminada de datos biométricos de las redes sociales o de grabaciones de videovigilancia para crear bases de datos de reconocimiento facial (violando de los derechos humanos y del derecho a la intimidad).

Además, amplía la clasificación de áreas de alto riesgo para incluir los daños a la salud, la seguridad, los derechos fundamentales o el medioambiente y suma a la lista de alto riesgo los sistemas de IA que puedan utilizarse para influir en los votantes en las campañas políticas y en los sistemas de recomendación utilizados por las plataformas de redes sociales.

En lo que respecta a la IA de uso general, se incluyen obligaciones para los proveedores de modelos de desarrollo, que tendrían que garantizar una sólida protección de los derechos fundamentales, la salud y la seguridad y el medioambiente, la democracia y el Estado de Derecho. Tendrían que evaluar y mitigar los riesgos, cumplir los requisitos de diseño, información y medio ambiente y registrarse en la base de datos de la UE.

Asimismo, los modelos de base generativa, como GPT, tendrían que cumplir requisitos adicionales de transparencia, como revelar que los contenidos han sido generados por IA, diseñar el modelo para evitar que genere contenidos ilegales y publicar resúmenes de los datos protegidos por derechos de autor utilizados para el entrenamiento.