SAP publica su manual para el uso ético de la IA

  • Actualidad
inteligencia artificial aplicada
©Freepik

SAP ha creado un manual para el uso ético de la inteligencia artificial. En él traza las líneas rojas que no se pueden cruzar y las pautas a seguir por sus empleados a la hora de desarrollar sistemas basados en esta tecnología.

Estamos a las puertas de la adopción masiva de la inteligencia artificial, que abrirá nuevas posibilidades a empresas, gobiernos y sociedad. Tiene el potencial de cambiar la forma en la que se trabaja y los modelos de negocio y, por eso, las empresas tecnológicas están esforzándose por integrarla en los sistemas empresariales y de hacerlo de forma ética y responsable para generar confianza y eliminar los riesgos que puede conllevar esta tecnología, dependiendo de cómo se utilice e implemente.

En esa línea, SAP ha publicado un manual para empleados que reúne su política de inteligencia artificial, que rige el desarrollo, implementación, uso y comercialización de los sistemas de inteligencia artificial, para asegurar que se cumplen unas reglas éticas basadas en los valores de la propia organización como, por ejemplo, un diseño de soluciones basado en las personas, hacer posible negocios sin prejuicios, transparencia e integridad en todo lo que se hace, cumplimiento de los estándares de calidad y seguridad o la priorización de la privacidad y protección de datos.

Esta guía se compone de dos capítulos. El primero, denominado "Líneas rojas", aclara qué casos de uso de la IA están prohibidos en SAP: aquellos que atenten contra la libertad individual de los usuarios (desglosada en la pérdida del anonimato, la discriminación y la vigilancia); los derechos sociales (la IA nunca debe comprometer el debate humano ni ser empleada para la manipulación de los usuarios); y los daños al medioambiente. Además, incluye la definición de casos de alto riesgo, es decir, aquéllos que no están prohibidos, pero necesitan aprobación para poder desarrollarse. En esos casos, es imprescindible consultar al Comité directivo de ética de la IA de SAP.

En el segundo, "AI Factory Process", reúne las directrices generales a seguir en cada paso del proceso de desarrollo, que consta de cinco etapas: la ideación, la validación, la realización, la creación del producto y las operaciones, en cada una de las cuales deben aplicarse los tres pilares para lograr una IA de confianza. Es imprescindible que el uso de la inteligencia artificial sea ético en todas y cada una de las fases del proceso, desde la identificación inicial de necesidades hasta la recepción del producto final por parte de los clientes, pasando por el diseño de las soluciones y su integración en los procesos de negocio existentes.

En un comunicado, SAP explica que su política de IA se basa en tres pilares que persiguen generar confianza en las soluciones de IA: la dirección y la supervisión humanas; el abordaje del sesgo y la discriminación; y la transparencia y la explicación del proceso para comprender las decisiones tomadas por el software.