¿Cuáles son los riesgos de no regular correctamente la inteligencia artificial?

Inteligencia artificial Pervasive

Carmen Troncoso, DPO de Paradigma Digital, ha identificado los ocho riesgos específicos relacionados con la protección de datos que deben abordarse a través de una regulación adecuada. Entre ellas, la recopilación excesiva de datos, la discriminación algorítmica o la falta de consentimiento informado.

  Recomendados....

» Guía 360 de la Inteligencia Artificial Informe
» Mejorar resultados empresariales con la integración de comunicaciones unificadas y contact center Leer
» Ventajas y retos de la nueva era del Dato Acceder

Según esta experta, hay riesgos específicos relacionados con la protección de datos que deben abordarse a través de una regulación adecuada:

- Recopilación excesiva de datos: la IA requiere grandes cantidades de datos para su entrenamiento, lo que puede resultar en la recopilación excesiva de información personal.

- Uso no autorizado de datos: existe el riesgo de que los datos recopilados para la IA se utilicen para fines no autorizados o más allá del propósito original, lo que plantea preocupaciones de privacidad.

- Sesgos y discriminación algorítmica: los algoritmos de IA pueden reflejar sesgos y discriminación inherentes en los datos de entrenamiento, lo que puede resultar en decisiones injustas o perjudiciales para ciertos grupos.

- Falta de transparencia: la opacidad de los algoritmos de IA dificulta la comprensión de cómo se toman las decisiones y qué datos se utilizan, lo que socava la confianza y el control del usuario sobre sus datos personales.

- Riesgo de violaciones de seguridad: los sistemas de IA pueden ser vulnerables a ataques y violaciones de seguridad, lo que podría resultar en la exposición o el acceso no autorizado a datos personales.

- Rastreo y vigilancia masiva: el uso de la IA para el rastreo y la vigilancia puede plantear preocupaciones sobre la invasión de la privacidad y el monitoreo constante de las actividades de las personas.

- Inexactitud y toma de decisiones erróneas: la IA puede cometer errores y tomar decisiones incorrectas, lo que puede tener consecuencias negativas para los individuos, especialmente cuando se utiliza en áreas críticas como la salud o el sistema judicial. Si la IA proporciona asesoría jurídica directamente a los clientes por ejemplo en caso de negligencia, ¿quién sería considerado responsable?

- Falta de consentimiento informado: el uso de IA a menudo implica el procesamiento de datos personales sin un consentimiento informado adecuado.

La clave para Troncoso es "regular la IA no tanto de modo general, sino regulando sus usos a casos concretos donde la decisión de un programa de IA afecta directamente a las personas como la educación, sanidad, trabajo o judicial por ejemplo, donde actualmente la ausencia de esa regulación es un riesgo mucho mayor que no contar con un marco jurídico y seguir avanzando en el uso de la IA en estos ámbitos”.