Mañana entra en vigor la Ley de Inteligencia Artificial de la Unión Europea
- Actualidad

La Ley establece sanciones económicas muy elevadas a quien infrinja el reglamento, incluidos los proveedores de fuera de la UE si sus sistemas de IA se usan en el territorio europeo. Por lo tanto, la nueva regulación afecta a GPT4, Gemini y LlaMA, entre otros.
El 1 de agosto entra en vigor la Ley de Inteligencia Artificial de la Unión Europea, un ambicioso reglamento centrado en los sistemas que utilizan esta tecnología y pueden ocasionar grandes riesgos. Se trata de una iniciativa pionera con la que la UE asume cierto rol de liderazgo en esta materia, de manera similar a como ya hizo con el Reglamento General de Protección de Datos (RGPD) que se ha convertido en un modelo de regulación a nivel internacional.
"La UE quiere marcar la pauta internacional en la regulación de la IA centrándose exclusivamente en aquellos sistemas que pueden ocasionar riesgos relevantes y dejando fuera el resto de las soluciones de IA para evitar una regulación excesiva", explica Miquel Peguera, catedrático de los Estudios de Derecho y Ciencia Política de la Universitat Oberta de Catalunya (UOC).
La nueva ley establece sanciones económicas muy elevadas a quien infrinja el reglamento, que se aplica también a los proveedores de fuera de la UE si sus sistemas de IA se usan en el territorio europeo. Por lo tanto, la nueva regulación afectará a GPT4 (Open AI), Gemini (Google), LlaMA (Meta), entre otros.
Claves de la Ley
Para el experto, este nuevo reglamento tiene como claves principales las siguientes:
- Regula la comercialización y el uso de sistemas de IA en la Unión Europea.
- Busca promover la adopción y el desarrollo de la IA y, al mismo tiempo, mitigar los riesgos que un mal uso de esta tecnología puede suponer para la salud, la seguridad y los derechos fundamentales.
- Prohíbe determinadas prácticas que se consideran de riesgo inaceptable para los ciudadanos y para el conjunto de la sociedad. Por ejemplo, crear bases de datos de reconocimiento facial a partir de la extracción indiscriminada de imágenes de internet, evaluar o clasificar a las personas a lo largo del tiempo por su comportamiento social o sus características personales, o bien explotar las vulnerabilidades de una persona o grupo con la intención de causar daño.
- Centra la regulación en los sistemas de IA que considera de alto riesgo. Por ejemplo, en relación con el acceso a servicios esenciales (públicos o privados) o con la categorización biométrica de las personas, entre otros supuestos.
- Exige transparencia con respecto a los contenidos creados o manipulados con herramientas de IA o a los sistemas de reconocimiento de emociones.
"Este Reglamento afecta principalmente a las empresas que desarrollan sistemas de IA y los lanzan al mercado, pero también a quienes utilizan herramientas de IA para actividades que no sean puramente personales", explica Peguera. Por lo tanto, cualquier empresa o profesional que implemente soluciones de IA que tengan cierto nivel de riesgo debe velar por el cumplimiento de este reglamento. "Por supuesto, la regulación también afecta a los estados en términos del uso que hagan de la IA en la prestación de servicios públicos, el control de fronteras, la persecución de delitos y otros campos", concluye el experto.