Bruselas trabaja en una norma de responsabilidad civil en materia de IA

  • Actualidad

Inteligencia Artificial

La Comisión Europea ha aprobado dos propuestas que deberán aprobar el Parlamento Europeo y al Consejo con las que pretende adaptar las normas de responsabilidad a la era digital. Una de ellas moderniza las regulaciones actuales sobre productos defectuosos, y la otra trata de proteger a las víctimas de los daños provocados por la inteligencia artificial

Recomendados: 

El "Headless" CMS en la empresa Leer

La optimización de los
los costes IT Informe

La digitalización en las Pymes. Entrevista al director general de Red.es Ver

La Comisión ha propuesto esta semana una nueva norma, con la que quiere modernizar las normas sobre la responsabilidad objetiva de los fabricantes por los productos defectuosos (desde la tecnología inteligente hasta los productos farmacéuticos) que provoquen daños o perjuicios a los consumidores.

Además, por primera vez, propone una armonización específica de las normas nacionales sobre responsabilidad civil en materia de inteligencia artificial (IA), para facilitar que que las víctimas de daños relacionados con esta tecnología obtengan una indemnización. Se trata, según ha explicado en un comunicado, de garantizar que los damnificados puedan acogerse a las mismas reglas de protección cuando se vean perjudicadas por productos o servicios de IA que cuando se producen daños en cualquier otra circunstancia.

La futura Directiva de responsabilidad civil en materia de IA persigue establecer normas uniformes sobre el acceso a la información y la reducción de la carga de la prueba en relación con los daños provocados por los sistemas de IA, para generar una protección más amplia para las víctimas (ya sean particulares o empresas) y fomentar la tecnología mediante mayores garantías.

"La Directiva armonizará determinadas normas aplicables a las reclamaciones que no entran en el ámbito de aplicación de la Directiva sobre responsabilidad por los daños causados por productos defectuosos, en los casos en que los daños se deban a un comportamiento ilícito", ha señalado la Comisión. Esto incluye, por ejemplo, las violaciones de la privacidad o los daños causados por problemas de seguridad. Las nuevas normas facilitarán, por ejemplo, la obtención de una indemnización si alguien ha sido discriminado en un proceso de contratación que implique tecnología de IA.

La norma simplifica el proceso jurídico para las víctimas a la hora de demostrar que la culpa de una persona ha provocado los daños, al introducir dos características principales: en primer lugar, en circunstancias en las que se haya probado una culpa pertinente y parezca razonablemente probable que exista un nexo causal con el rendimiento de la IA, la denominada "presunción de causalidad" abordará las dificultades experimentadas por las víctimas para tener que explicar detalladamente la manera en que se ha provocado el daño por una culpa u omisión concretas, lo que puede ser especialmente difícil al intentar comprender y lidiar con sistemas de IA complejos. En segundo lugar, las víctimas dispondrán de más herramientas para solicitar reparación legal gracias a la introducción de un derecho de acceso a las pruebas presentadas por empresas y proveedores, en los casos en que esté implicada IA de alto riesgo.

Las nuevas normas establecen un equilibrio entre la protección de los consumidores y el fomento de la innovación, eliminando los obstáculos adicionales para que las víctimas accedan a la indemnización, al tiempo que establecen garantías para el sector de la IA mediante la introducción, por ejemplo, del derecho a impugnar una reclamación de responsabilidad basada en una presunción de causalidad.