Acepto

COOKIES

Esta web utiliza cookies técnicas, de personalización y de análisis, propias y de terceros, para anónimamente facilitarle la navegación y analizar estadísticas del uso de la web. Obtener más información

Claves para utilizar la inteligencia artificial de forma ética y responsable

  • Estrategias digitales

iartificial

Pocas tecnologías son tan disruptivas como la inteligencia artificial, pero las empresas solo tendrán éxito si la aplican de manera responsable. KPMG ha reunido las claves para conseguirlo.

Recomendados: 

Informe IT Trends: 2020, el año de la consolidación digital Leer

Ciberseguridad en 2020, ¿qué podemos esperar? Registro

Tendencias TI 2020, visionando el futuro. Webinar ondemand.

El verdadero éxito a largo plazo de los modelos de automatización inteligente reside en su implantación y control de manera responsable, según un estudio de KPMG del que ya avanzamos algunas conclusiones

Para poder lograr un despliegue ético de la inteligencia artificial, KPMG ha identificado cinco pilares básicos sobre las políticas y acciones que pueden llevar a cabo las organizaciones para que la Inteligencia Artificial sea productiva y les permita implantar modelos con integridad y transparencia. Son éstos:

1. Transformar el lugar de trabajo
Aunque se ha prestado mucha atención al potencial impacto negativo de las tecnologías de automatización inteligente en los puestos de trabajo, la consultora cree que si la organización integra correctamente la tecnología con las personas, no sólo favorecerá sus resultados financieros sino que también reforzará su cultura. La formación en el puesto de trabajo con el desarrollo de nuevas habilidades es un paso crucial que las empresas más punteras ya han empezado a adoptar.

2. Establecer supervisión y buen gobierno
Existen iniciativas emergentes enfocadas a regular y supervisar la IA como el Reglamento General de Protección de Datos (GDPR) de 2018 o la American AI Initiative de febrero de 2019. Sin embargo, KPMG considera que, además, es la empresa la que debe establecer políticas claras de supervisión y gobierno de la IA, como el correcto uso de los datos y las reglas de privacidad. Crear algoritmos basados en un marco ético es un imperativo para los responsables de implantar la IA de manera responsable. Estas políticas a nivel empresarial pueden sin duda ayudar a influir en la dirección de la legislación.

3. Alinear la ciberseguridad y la ética
Los algoritmos no solo deben tener una base ética sino también aportar una fuerte seguridad. Las empresas son conscientes de que hay que gestionar los riesgos de seguridad que plantean los algoritmos para no poner en peligro su reputación y otros activos clave de la misma. La ciberseguridad por tanto es crucial para inspirar confianza a los líderes empresariales y generar modelos de algoritmos sólidos y con integridad.

4. Reducir sesgos
Los líderes empresariales deben asumir el imperativo moral de mitigar el sesgo en todo el ciclo de gobierno de la IA. Los algoritmos van evolucionando, desde su concepción hasta su construcción y uso, por tanto el sesgo puede aparecer en cualquier momento y puede ponerse en peligro la información que incorpora. KPMG propone verificar que el diseño esté en consonancia con las principios y normas, valores y ética empresariales para evitar los sesgos en la medida de lo posible.

5. Aumentar la transparencia
En un contexto de análisis masivo de datos sensibles, las empresas deben proporcionar a los clientes la claridad y transparencia en la información que buscan y necesitan. Es necesario hacer llegar al mercado que la empresa está actuando con transparencia y el alcance de las decisiones tomadas en base a datos personales.