Europa avanza hacia la regulación de la inteligencia artificial

  • Actualidad

inteligencia artificial

La Unión Europea ha presentado un borrador de lo que podría ser la futura regulación europea sobre la inteligencia artificial, que establece normas estrictas sobre su uso por parte de las empresas y los gobiernos.

Recomendados: 

IT Trends 2021. La TI salva el negocio Webinar

COVID-19, ¿cuánto y cómo ha influido en las estrategias de TI? Leer

Cómo abordar la complejidad de un programa de Gestión de Identidades y Gobernanza Leer 

 En este documento reconocen el potencial de esta tecnología para cambiar los negocios, la administración pública y la vida de las personas, pero también suscita una gran preocupación sobre la necesidad de que esta innovación se utilice siguiendo un código ético proteja a las personas.

Según comentan en un artículo publicado en el diario The New York Times, esta nueva regulación establecería una serie de límites sobre la utilización de la inteligencia artificial en una amplia variedad de entornos, tanto en el ámbito privado como en el público. Esto abarca su uso en la conducción autónoma, la banca, la selección de personal, la concesión de subvenciones y becas, la calificación de exámenes y otros ámbitos donde se los derechos de las personas están en riesgo, como la seguridad pública o el sistema judicial.

El objetivo de la Unión Europea es poner límites claros al uso de la inteligencia artificial antes de que se expanda su uso de forma masiva, algo que sucederá en los próximos años. Esto tendrá serias implicaciones para las grandes tecnológicas como Amazon, Google, Facebook, Apple o Microsoft, entre otras muchas, que quieren utilizar la IA para muchas de sus operaciones. Pero no solo a estas empresas, ya que se están desarrollando nuevas tecnologías de inteligencia artificial en el ámbito de la investigación científica, el desarrollo de medicamentos, las empresas de seguros, la banca o los servicios públicos.

Como ha explicado Margrethe Vestager, vicepresidenta ejecutiva de la Comisión Europea que supervisa la política digital para el bloque de 27 naciones, es vital poder confiar en la inteligencia artificial, dado que tiene el potencial de afectar a la vida de las personas, y las autoridades deben asegurarse de que es confiable y se utiliza de forma ética. Aunque la nueva regulación tardará años en salir adelante, es vital establecer el criterio básico que regirá las leyes sobre el uso de la IA en la región. Y también sanciones que dejen claro que estas leyes deberán respetarse, por lo que se ha propuesto que quienes incumplan las regulaciones reciban multas de hasta el 6% de sus ingresos globales.

Para ello se obligará a las empresas que proporcionan servicios de inteligencia artificial en áreas de alto riesgo que prueben a las autoridades que lo hacen de forma segura y dentro d la ley. Por ejemplo, mediante evaluaciones de riesgo y documentación que explique con claridad la forma en que su IA toma sus decisiones. Y también se debe garantizar que hay humanos supervisando la creación y el uso de los sistemas de IA.

Esta nueva propuesta es un ejemplo más de la estrategia comunitaria para regular el uso de la tecnología y proteger a los ciudadanos, una tendencia que se aceleró con la promulgación del reglamento GDPR y ha continuado con otros proyectos de regulación sobre las finanzas digitales, los criptoactivos y otras tecnologías que se están expandiendo con la transformación digital. Y esto está propagándose a otras regiones, donde los gobiernos quieren apuntalar la soberanía digital para proteger a sus ciudadanos de tecnologías y prácticas comerciales potencialmente dañinas.

La presentación de esta propuesta ha suscitado opiniones encontradas entre los países miembros y el sector empresarial, aunque en general esperaban medidas más duras en esta primera etapa del desarrollo de la normativa. Aunque, según los expertos, todavía queda mucho trabajo por hacer para establecer el margo regulatorio sobre una tecnología con tanto potencial disruptivo para la sociedad y los negocios.

En el artículo publicado en el New York Times se hacen eco de las declaraciones de Carly Kind, directora del Instituto Ada Lovelace, en Londres, dedicado a la investigación sobre el uso ético de la inteligencia artificial, “ha habido mucha discusión en los últimos años sobre lo que significaría regular la IA, y la opción alternativa hasta la fecha ha sido no hacer nada y esperar y ver qué sucede. Esta es la primera vez que un país o bloque regional lo ha intentado”.

Desde su organización están preocupados porque creen necesario establecer límites y pautas estrictas para el desarrollo y el uso de la inteligencia artificial. Opinan que no se debe dejar demasiado margen a la interpretación a las empresas y desarrolladores de esta tecnología, sobre todo en las aplicaciones que puedan tener más impacto en la sociedad y las personas.

Esta misma corriente de opinión se está estableciendo en otros núcleos tecnológicos importantes, como Silicon Valley, donde están surgiendo opiniones muy críticas contra el uso incontrolado de la inteligencia artificial en las grandes tecnológicas. Aunque Europa es un mejor entorno para el desarrollo de regulaciones tecnológicas más restrictivas, y los expertos esperan que así sea en lo que se refiere a la IA, que en las próximas décadas va a transformar profundamente la propia sociedad digital.