Así es cómo Europa propone regular el uso de la inteligencia artificial

  • Actualidad

La Comisión Europea ha presentado esta semana su propuesta de normas y medidas para regular el uso de la inteligencia artificial en la región, antes de que se use de forma masiva la tecnología. Su intención es proteger los derechos de las personas, por encima de otros intereses, para generar confianza y liderazgo en este tipo de soluciones. La propuesta incluye multas de hasta el 6% de los ingresos totales para las empresas que incumplan la regulación.

Recomendados: 

Foro Administración Digital 2021 Webinar

Aplicaciones, ¿cómo desarrollo, entrego y gestiono mi software? Webinar

La Comisión ha propuesto esta semana nuevas normas y medidas para regular el uso de la tecnología de inteligencia artificial (IA) y controlar sus ámbitos de uso, antes de que se implante de forma masiva, algo que sucederá en los próximos años. El documento reconoce el potencial de esta tecnología para cambiar los negocios, la administración pública y la vida de las personas, pero también sostiene que suscita una gran preocupación sobre la necesidad de que esta innovación se utilice siguiendo un código ético proteja a las personas.

Como ha explicado Margrethe Vestager, vicepresidenta ejecutiva de la Comisión Europea que supervisa la política digital, es vital poder confiar en la inteligencia artificial, dado que tiene el potencial de afectar a la vida de las personas, y las autoridades deben asegurarse de que es confiable y se utiliza de forma ética. Aunque la nueva regulación tardará años en salir adelante, es vital establecer el criterio básico que regirá las leyes sobre el uso de la IA en la región. Y también sanciones que dejen claro que estas leyes deberán respetarse, por lo que se ha propuesto que quienes incumplan las regulaciones reciban multas de hasta el 6% de sus ingresos globales.

La futura regulación obligará a las empresas que proporcionan servicios de inteligencia artificial en áreas de alto riesgo que prueben a las autoridades que lo hacen de forma segura y dentro d la ley. Por ejemplo, mediante evaluaciones de riesgo y documentación que explique con claridad la forma en que su IA toma sus decisiones. Y también se debe garantizar que hay humanos supervisando la creación y el uso de los sistemas de IA.

La propuesta sigue un planteamiento basado en los niveles de riesgo:

-- Riesgo inadmisible: se prohibirán los sistemas de IA que se consideren una clara amenaza para la seguridad, los medios de subsistencia y los derechos de las personas. Esto abarca los sistemas o las aplicaciones de IA que manipulan el comportamiento humano para eludir la voluntad de los usuarios (por ejemplo, juguetes que utilicen asistencia vocal para incitar a comportamientos peligrosos a los menores) y sistemas que permitan la «puntuación social» por parte de los Gobiernos.

-- Alto riesgo: los sistemas considerados de alto riesgo abarcan las tecnologías de IA empleadas en infraestructuras críticas, formación educativa o profesional, empleo, gestión de trabajadores y acceso al trabajo por cuenta propia, servicios públicos y privados esenciales, aplicación de las leyes que pueden interferir con los derechos fundamentales de las personas, gestión de la migración, el asilo y el control de las fronteras y administración de justicia y procesos democráticos. Su uso en estos campos estará sujeto a obligaciones estrictas antes de que puedan comercializarse.

En especial, se consideran de alto riesgo y estarán sujetos a requisitos estrictos todos los sistemas de identificación biométrica remota. Su uso en directo en espacios de acceso público con fines policiales está prohibido en principio. Se definen y regulan estrictamente excepciones estrictas (por ejemplo, cuando sea estrictamente necesario para la búsqueda de un menor desaparecido, para prevenir una amenaza terrorista concreta e inminente, o para detectar, localizar, identificar o enjuiciar a un autor o sospechoso de un delito grave). Su utilización estará sujeta a la autorización de un órgano judicial u otro organismo independiente y a los límites adecuados desde el punto de vista de la duración, el alcance geográfico y las bases de datos exploradas.

-- Riesgo limitado, es decir, sistemas de IA con obligaciones específicas de transparencia: al utilizar sistemas de IA como robots conversacionales, los usuarios deberán ser conscientes de que están interactuando con una máquina para poder tomar una decisión informada de continuar o no.

-- Riesgo mínimo o nulo: la propuesta permite el uso gratuito de aplicaciones tales como videojuegos basados en la IA o filtros de correo basura. La inmensa mayoría de los sistemas de IA entra en esta categoría. El proyecto de Reglamento no interviene aquí, ya que estos sistemas de IA solo representan un riesgo mínimo o nulo para los derechos o la seguridad de los ciudadanos.

En términos de gobernanza, la Comisión propone que las autoridades nacionales de vigilancia del mercado controlen las nuevas normas, mientras que la creación de un Comité Europeo de Inteligencia Artificial facilitará su aplicación e impulsará la creación de normas en materia de IA. Además, se proponen códigos de conducta voluntarios para la IA que no entrañe un alto riesgo, así como espacios controlados de pruebas para facilitar la innovación responsable.

Esta nueva propuesta es un ejemplo más de la estrategia comunitaria para regular el uso de la tecnología y proteger a los ciudadanos, una tendencia que se aceleró con la promulgación del reglamento GDPR y ha continuado con otros proyectos de regulación sobre las finanzas digitales, los criptoactivos y otras tecnologías que se están expandiendo con la transformación digital. Y esto está propagándose a otras regiones, donde los gobiernos quieren apuntalar la soberanía digital para proteger a sus ciudadanos de tecnologías y prácticas comerciales potencialmente dañinas.

La presentación de esta propuesta ha suscitado opiniones encontradas entre los países miembros y el sector empresarial, aunque en general esperaban medidas más duras en esta primera etapa del desarrollo de la normativa. Aunque, según los expertos, todavía queda mucho trabajo por hacer para establecer el marco regulatorio sobre una tecnología con tanto potencial disruptivo para la sociedad y los negocios.