Cinco principios de gestión ética de los datos y la inteligencia artificial en RRHH

  • Actualidad

Inteligencia artificial IA 2

El uso de la inteligencia artificial en la gestión de los Recursos Humanos ayuda a agilizar procesos y a aumentar el rendimiento, pero es importante no llegar a conclusiones incorrectas a partir de los datos, no amplificar los sesgos o confiar en las opiniones o predicciones sin conocer a fondo en qué se basan. Elementos como la transparencia, veracidad, exactitud, privacidad y responsabilidad son claves para definir una gestión ética de los datos.

Recomendados: 

Libera el poder de tus datos con la infraestructura invisible de Nutanix Webinar

Dell EMC PowerStore: el futuro del almacenamiento está aquí Webinar 

Los expertos de ADP, especialista en el uso de la tecnología para la gestión del Capital Humano, han identificado cinco principios a tener en cuenta para definir una estrategia sólida de gestión ética de los datos y la inteligencia artificial en los procesos de estos departamentos. Son los siguientes:

- Transparencia. Incluye revelar qué datos se recogen, qué decisiones se toman con la ayuda de la IA y si el usuario está tratando con bots o con humanos. También significa poder explicar cómo funcionan los algoritmos y en qué se basan sus resultados. De este modo, se puede evaluar la información proporcionada en función de los problemas que se deben resolver. La transparencia también incluye la metodología que una compañía establece para informar a sus trabajadores en cuanto a qué datos tienen sobre ellos y cómo se utilizan. En este proceso es necesario dar a los usuarios la oportunidad de corregir o eliminar la información necesaria.

- La IA no sólo ofrece información. A veces ofrece opiniones. Las empresas tienen que pensar cómo utilizan estas herramientas y la información que proporcionan. Dado que los datos proceden de los humanos y les conciernen, es esencial buscar sesgos en los datos que se recogen, en las reglas que se aplican y en las preguntas que se hacen. Por ejemplo, si se quiere aumentar la diversidad en la contratación, no habrá que basarse únicamente en herramientas que ofrezcan datos de aquellos trabajadores que ha tenido éxito en la organización en el pasado. Esta información por sí sola probablemente dará la misma información en lugar de más diversidad. Si bien no hay manera de eliminar por completo el sesgo en las herramientas creadas por y sobre las personas, hay que entender cómo las herramientas están sesgadas para que podamos reducir y gestionar el sesgo, y corregirlo para la toma de decisiones.
- Exactitud. Los datos utilizados en la IA deben estar actualizados y ser precisos. Es imprescindible encontrar metodologías adecuadas para poder corregirlos. Los datos también deben manejarse, limpiarse, clasificarse, conectarse y compartirse con cuidado para mantener su precisión. A veces, al sacar los datos de un contexto concreto puede suponer que parezcan engañosos o falsos. La precisión depende, por un lado, de si los datos son verdaderos, y, por otro, de si tienen sentido y son útiles para el objetivo perseguido.

- Privacidad. Con el paso de los años se han ido estableciendo nuevas legislaciones que reconocen el derecho a la privacidad del ser humano (nombre, imagen, registros financieros y médicos, relaciones personales, hogares y propiedades), aunque todavía queda por resolver cómo equilibrar la privacidad y la necesidad de utilizar tanta información personal.  Los legisladores se han sentido más cómodos permitiendo un uso más amplio de los datos anónimos que de los datos en los que se sabe o se puede descubrir fácilmente de quien se trata, pero a medida que se recogen y conectan más datos surgen nuevas preguntas sobre cómo mantener ese anonimato. Otra de las cuestiones relacionadas con la privacidad es la seguridad de la información y lo que los usuarios deben saber sobre quién tiene información sobre ellos, y cómo la utilizan.

- Responsabilidad. No se trata sólo de cumplir las leyes y reglamentos mundiales. La responsabilidad tiene que ver con la exactitud e integridad de las fuentes de datos, la comprensión y evaluación de los riesgos y las posibles consecuencias del desarrollo y el uso de los datos y la IA para asegurar que las nuevas herramientas y tecnologías se crean de forma ética.