Poco más de la mitad de las empresas tienen un líder responsable de la ética en los sistemas de inteligencia artificial

  • Actualidad

Inteligencia artificial IA 2

La puesta en marcha de la inteligencia artificial ética no es uniforme, pero las empresas están más sensibilizadas con esta cuestión, según ha confirmado un estudio de Capgemini. Para los autores, es todo un desafío que tienen que abordar para poder aprovechar todo el potencial de esta tecnología. De momento, solo el 53% de las organizaciones tiene un líder responsable de la ética en los sistemas de IA.

Recomendados: 

Inteligencia Artificial, ¿cómo lo aplico en mi empresa? Webinar

Creación de aplicaciones seguras: recomendaciones para los servicios financieros Leer 

La inteligencia artificial es una tecnología con un enorme recorrido pero, si se quiere aprovechar todo su potencial, las organizaciones tienen que abordar los desafíos éticos, según se desprende del estudio del Instituto de Investigación de Capgemini.

El documento, titulado  “AI and the ethical conundrum: How organizations can build ethically robust AI systems and gain trust” señala que un 62% de los consumidores cree que las empresas son completamente transparentes en el uso de sus datos personales en comparación con el 76% de 2019. Pese a que desciende la confianza, los autores creen que empresas están más sensibilizadas a nivel ético, pero que la puesta en marcha de la IA ética no es uniforme. En este sentido, un 64% de los directivos señala que su empresa avanza en su capacidad de explicar el razonamiento de la IA (frente al 32% en 2019), mientras que no ha avanzado el número de los que que ha tomado medidas para establecer dimensiones de “justicia” (65% en 2020 vs. 66% en 2019) y “auditabilidad” (45% en 2020 vs. 46% en 2019) en sus sistemas de inteligencia artificial.

Al mismo tiempo, la transparencia ha caído del 73% al 59%, a pesar del hecho de que el 58% de los negocios dice haber fomentado la concienciación entre su personal sobre problemas que pueden surgir del uso de la tecnología. Además, el 70% de los consumidores busca una explicación más clara de los resultados y espera de las empresas interacciones de IA transparentes y justas.

La recomendación es que las empresas deben comprometerse con las cuestiones éticas, ya que cualquier experiencia negativa del consumidor podría salir cara. El estudio de Capgemini llega a la conclusión de que el 65% de los directivos dice ser consciente del problema de las inclinaciones discriminatorias de los sistemas de IA. Es más, casi un 60% de las empresas ha sido estudiada jurídicamente y un 22% se ha enfrentado a reacciones negativas de sus clientes en los últimos dos o tres años, a raíz de decisiones tomadas por estos sistemas.

En este punto, destaca que el 45% de los consumidores asegura que compartirá sus experiencias negativas con su familia y amistades y desaconsejará cualquier relación con esas empresas; un 39% planteará sus preocupaciones a la empresa y exigirá una explicación, y otro 39% cambiará el canal de IA por una interacción humana de mayor coste. Más de una cuarta parte de los consumidores (27%) declara que dejaría de tratar con la compañía en general.