Cuatro áreas críticas para que la función de Legal aborde la regulación de la IA

  • Actualidad

normativa-derecho

Varias regiones del mundo, como la UE, están trabajando en regular la inteligencia artificial. Previsiblemente las normas no estarán listas hasta 2025, pero los responsables del área jurídica y de cumplimiento ya pueden ir preparando a sus organizaciones mientras se desarrollan. De hecho, las estrategias corporativas de IA ya se están diseñando.

Los expertos de Gartner han identificado cuatro acciones para que los líderes legales creen una supervisión de IA que permita a sus organizaciones avanzar mientras esperan a las normativas que están desarrollando diferentes reguladores. Son las siguientes:

Transparencia en el uso de la IA
Según Gartner, la transparencia está emergiendo como un principio fundamental de la legislación propuesta en todo el mundo . Por tanto, las empresas tendrán que dejar muy claro cuando se trata de una interactuación con esta tecnología.

Por ejemplo, con el uso de IA en el contenido de marketing y el proceso de contratación, los líderes legales pueden ayudar actualizando los avisos de privacidad y los términos y condiciones en los sitios web de su empresa para reflejar el uso de IA. En este punto, Gartner señala que, si la empresa dispone de un "Centro de Confianza" online, puede desarrollar una sección aparte dónde se explique la utilización de la tecnología. También se podría publicar un aviso puntual al recopilar datos que describa específicamente de las formas en que la organización utiliza la IA.

Los responsables jurídicos también tendrían que considerar la posibilidad de actualizar su código de conducta para proveedores con un mandato de notificación si un proveedor tiene previsto utilizar inteligencia artificial.

Gestión de riesgos continua
El departamento también debe participar en un esfuerzo de todas las áreas (seguridad de la información, gestión de datos, ciencia de datos, privacidad, el cumplimiento y las unidades comerciales relevantes) para implementar controles de gestión de riesgos que abarquen el ciclo de vida de cualquier herramienta de IA de alto riesgo. Un enfoque para esto puede ser una evaluación de impacto algorítmico (AIA) que documente la toma de decisiones, demuestre la diligencia debida y reduzca el riesgo regulatorio presente y futuro y otras responsabilidades.

Gobernanza que incluya la supervisión humana y la rendición de cuentas
Según Gartner, un riesgo que es muy claro en el uso de herramientas LLM es que pueden equivocarse mucho mientras suenan superficialmente plausibles. Es por eso que los reguladores exigen supervisión humana que debería proporcionar controles internos sobre el resultado de las herramientas de IA.

Las empresas pueden querer designar una persona de contacto de IA para ayudar a los equipos técnicos a diseñar e implementar controles humanos. En función del departamento que aloje la iniciativa de IA, esta persona podría ser un miembro del equipo con un profundo conocimiento funcional, un miembro del personal del equipo de seguridad o privacidad o, si hay integraciones con la búsqueda empresarial, el líder del lugar de trabajo digital.

Otra propuesta de la consultora es crear un consejo asesor de ética digital formado por expertos legales, de operaciones, de TI, de marketing y externos para ayudar a los equipos a gestionar los problemas éticos y, luego, asegurarse de que la junta directiva esté al tanto de cualquier hallazgo.

Protección frente a los riesgos de privacidad de datos
Está claro que los reguladores quieren proteger la privacidad de los datos de las personas cuando se trata del uso de IA, así que Gartner considera que "será clave que los responsables jurídicos estén al día de cualquier práctica recientemente prohibida, como la monitorización biométrica en espacios públicos”.

Como explica la consultora, deben gestionar el riesgo de privacidad aplicando principios de privacidad por diseño a las iniciativas de IA. Por ejemplo, solicitar evaluaciones de impacto de la privacidad al principio de un proyecto o asignar miembros del equipo de privacidad al comienzo para evaluar los riesgos de privacidad.

La plantilla debe estar informada de que, con las versiones públicas de las herramientas LLM, cualquier información que ingresen puede convertirse en parte del conjunto de datos de entrenamiento. Eso significa que la información confidencial o de propiedad exclusiva que se utiliza en las indicaciones podría llegar a las respuestas de los usuarios fuera de la empresa. Por tanto, es fundamental establecer pautas, informar al personal sobre los riesgos que implica y proporcionar instrucciones sobre cómo implementar dichas herramientas de manera segura.