Claves para implantar una estrategia ética de inteligencia artificial

  • Actualidad

Garantizar que los principios éticos están integrados en las soluciones de inteligencia artificial es una necesidad urgente para las empresas. Según un estudio, el 64% de los directivos europeos cree que las responsabilidad de implementar esto es de ejecutivos no técnicos, como los CEOs. El 79% de ellos se siente preparado, pero solo menos de una cuarta parte se ha puesto manos a la obra.

El último informe del IBM for Business Value, realizado en colaboración con Oxford Economics, sobre la ética de la inteligencia artificial muestra que los progresos para avanzar en esta cuestión son lentos, pese a ser una necesidad corporativa urgente. De hecho, tras encuestar a 1.200 ejecutivos en 22 países de 22 sectores, la conclusión es que es importante eliminar los posibles sesgos. Por ejemplo, el 68% de las organizaciones a nivel global reconoce que la diversidad es importante para mitigar el sesgo en la IA, pero los encuestados indicaron que sus equipos de IA son 5,5 veces menos inclusivos para las mujeres, cuatro veces menos inclusivos para las personas LGBT+ y 1,7 veces menos inclusivos en términos raciales.

El documento también revela un cambio radical en los roles de los responsables de liderar y llevar a cabo la ética de la Inteligencia Artificial (IA) en las organizaciones. Cuando se les preguntó qué rol es el principal responsable de la ética de la IA, el 64% de los encuestados en Europa señaló a un ejecutivo no técnico, por ejemplo, un CEO, como el principal responsable de la ética de la IA.

Además, el 79% de los CEO encuestados se considera preparado para implementar prácticas éticas de IA, pero menos de una cuarta parte de las organizaciones ha actuado al respecto. Por tanto, a pesar de que existe un fuerte interés por  avanzar hacia una IA confiable, incluyendo un mejor desempeño en comparación con la competencia en materia de sostenibilidad, responsabilidad social y diversidad e inclusión, sigue existiendo una brecha entre la intención de los ejecutivos y las acciones llevadas a cabo. 

A nivel europeo, los CEO (30%), así como los miembros de la Junta Directiva (10%), los consejeros generales (5%), los responsables de privacidad (6%) y los responsables de riesgo y compliance (6%) son considerados como los máximos responsables de la ética en la IA.

El estudio considera que es el momento de que las empresas actúen, ya que aquellas organizaciones que implementen una amplia estrategia de ética de IA entrelazada en todas las unidades de negocio pueden tener una ventaja competitiva de cara al futuro.

Entre sus recomendaciones se incluyen las siguientes:

- Adoptar un enfoque multifuncional y colaborativo: la IA ética requiere de un enfoque integral y un conjunto holístico de habilidades entre todas las partes interesadas que participan en el proceso de ética de la IA. Los altos ejecutivos, los diseñadores, los científicos dedicados al comportamiento, los científicos de datos y los ingenieros de IA tienen cada uno un papel distinto que desempeñar en el camino hacia la IA confiable. 

- Establecer una gobernanza tanto organizativa como del ciclo de vida de esta tecnología para hacer operativa la disciplina de la ética de la IA: adoptar un enfoque holístico para incentivar, gestionar y gobernar soluciones de IA en todo el ciclo de vida de esta tecnología, desde establecer la cultura adecuada para alimentar la IA de forma responsable, hasta las prácticas y políticas de los productos.

- Ampliar la colaboración más allá de la propia organización: identificar e implicar a socios tecnológicos clave centrados en la IA, académicos, startups y otros partners del ecosistema para establecer una "interoperabilidad ética".