¿Cuáles son los riesgos de no regular correctamente la inteligencia artificial?

  • Seguridad

Inteligencia artificial Pervasive

Carmen Troncoso, DPO de Paradigma Digital, ha identificado los ocho riesgos específicos relacionados con la protección de datos que deben abordarse a través de una regulación adecuada. Entre ellas, la recopilación excesiva de datos, la discriminación algorítmica o la falta de consentimiento informado.

  Recomendados....

» Guía 360 de la Inteligencia Artificial Informe
» Mejorar resultados empresariales con la integración de comunicaciones unificadas y contact center Leer
» Ventajas y retos de la nueva era del Dato Acceder

Según esta experta, hay riesgos específicos relacionados con la protección de datos que deben abordarse a través de una regulación adecuada:

- Recopilación excesiva de datos: la IA requiere grandes cantidades de datos para su entrenamiento, lo que puede resultar en la recopilación excesiva de información personal.

- Uso no autorizado de datos: existe el riesgo de que los datos recopilados para la IA se utilicen para fines no autorizados o más allá del propósito original, lo que plantea preocupaciones de privacidad.

- Sesgos y discriminación algorítmica: los algoritmos de IA pueden reflejar sesgos y discriminación inherentes en los datos de entrenamiento, lo que puede resultar en decisiones injustas o perjudiciales para ciertos grupos.

- Falta de transparencia: la opacidad de los algoritmos de IA dificulta la comprensión de cómo se toman las decisiones y qué datos se utilizan, lo que socava la confianza y el control del usuario sobre sus datos personales.

- Riesgo de violaciones de seguridad: los sistemas de IA pueden ser vulnerables a ataques y violaciones de seguridad, lo que podría resultar en la exposición o el acceso no autorizado a datos personales.

- Rastreo y vigilancia masiva: el uso de la IA para el rastreo y la vigilancia puede plantear preocupaciones sobre la invasión de la privacidad y el monitoreo constante de las actividades de las personas.

- Inexactitud y toma de decisiones erróneas: la IA puede cometer errores y tomar decisiones incorrectas, lo que puede tener consecuencias negativas para los individuos, especialmente cuando se utiliza en áreas críticas como la salud o el sistema judicial. Si la IA proporciona asesoría jurídica directamente a los clientes por ejemplo en caso de negligencia, ¿quién sería considerado responsable?

- Falta de consentimiento informado: el uso de IA a menudo implica el procesamiento de datos personales sin un consentimiento informado adecuado.

La clave para Troncoso es "regular la IA no tanto de modo general, sino regulando sus usos a casos concretos donde la decisión de un programa de IA afecta directamente a las personas como la educación, sanidad, trabajo o judicial por ejemplo, donde actualmente la ausencia de esa regulación es un riesgo mucho mayor que no contar con un marco jurídico y seguir avanzando en el uso de la IA en estos ámbitos”.