Claves para implementar una inteligencia artificial ética en la empresa

  • Actualidad

La presencia cada vez más generalizada de Inteligencia Artificial (IA) en todos los ámbitos ha propiciado un debate sobre la relación entre los humanos y las máquinas capacitadas para identificar patrones de comportamiento a través de los datos y realizar predicciones. Repasamos algunos consejos sobre cómo implementar una estrategia corporativa de inteligencia artificial ética.

Recomendados: 

Aplicaciones, ¿cómo desarrollo, entrego y gestiono mi software? Webinar

Nutanix Enterprise Cloud Index - Situación en España Leer 

Cloudera, especialista en gestión de datos en entornos cloud, ha reunido una serie de recomendaciones que ayudarán a desplegar estrategias y soluciones de inteligencia artificial, acorde con los principios éticos.

1. Apostar por la transparencia. Actualmente, no existe una legislación de aplicación universal al respecto. Dicho esto, es importante que las organizaciones tengan claro cómo implementar su ML por una cuestión fundamental: generar confianza. Los sistemas opacos que no son fáciles de entender o no tienen claros los datos de los que informan las aplicaciones de aprendizaje automático pueden generar desconfianza.

Esto fue lo que ocurrió, cuando varios clientes de las tarjetas de Apple sospecharon que el algoritmo utilizado para otorgar cuánto crédito correspondía a cada cliente estaba tomando decisiones con sesgo de género. Si bien la tarjeta Apple (y, por extensión Goldman Sachs) fue aprobada más tarde por un regulador (el Departamento de Servicios Financieros del Estado de Nueva York) de la discriminación sistemática contra las mujeres, el daño a la reputación ya estaba hecho. Además, el regulador criticó “las deficiencias en el servicio al cliente y la transparencia” de la organización”. Por lo tanto, ser abierto y transparente sobre el funcionamiento del aprendizaje automático es crucial para su adopción y aceptación generalizadas.

2. Aumentar la inversión en formación. A medida que la IA y el aprendizaje automático se vuelven cada vez más frecuentes, es fundamental que los empleados se capaciten y reciban la formación adecuada para trabajar con modelos y algoritmos. Esto es esencial para garantizar que las personas que toman decisiones basadas en predicciones de ML puedan hacerlo de manera informada, teniendo en cuenta las limitaciones de la aplicación y el contexto situacional más amplio. Incluso una aplicación de aprendizaje automático bien diseñada puede contribuir a resultados injustos si sus usuarios humanos desconocen sus limitaciones y la utilizan de forma incorrecta.

3. Responder a la regulación entrante y a las decisiones ejecutivas. Las organizaciones necesitarán desarrollar e implementar la IA de una manera que les permita responder a la regulación entrante. Por ejemplo, un regulador podría requerir que se eliminen todos los modelos de aprendizaje automático basados en datos "contaminados" (porque no se obtuvo el consentimiento adecuado). El caso Everalbum y el fallo de la FTC son un excelente ejemplo del impacto significativo de la regulación.

Por lo tanto, las empresas deben asegurarse de que su infraestructura admita el seguimiento del linaje de datos y el control de las versiones del modelo. Estas características permitirían a las empresas aislar conjuntos de datos particulares y la versión del modelo que se entrenó en ellos. Estas y otras características de MLOps también son útiles para fines de auditoría, algo en lo que insistirán muchos reguladores.

4. Hacia el 'Human in the loop'. La toma de decisiones automatizada conlleva riesgos. Reconocer y gestionar ese peligro es fundamental para generar confianza en las aplicaciones más amplias del aprendizaje automático y la inteligencia artificial. Es por eso que, aunque la IA puede automatizar las tareas que realizan los individuos, los humanos siempre deben ser los que tomen las decisiones.

Esto se debe a que el ser humano posee una comprensión más amplia y matizada del contexto en el que se aplican las decisiones de ML. El artículo 22 del Reglamento General de Protección de Datos de la UE consagra esta dinámica al permitir a los usuarios exigir una explicación de las decisiones tomadas únicamente en base a una predicción fundamentada en la probabilidad y derivada algorítmicamente.

5. Gobierno adecuado. Establecer una supervisión y un buen gobierno es fundamental ya que los datos tienen un papel crucial en el desarrollo de una Inteligencia Artificial ética. Es necesario generar jerarquías de responsabilidad en la construcción de algoritmos complejos. El buen gobierno implica tener una mejor comprensión del contexto del dato y ayuda a quienes crean los modelos a tomar decisiones informadas sobre qué datos es apropiado utilizar para el desarrollo del modelo.