Acepto

COOKIES

Esta web utiliza cookies técnicas, de personalización y análisis, propias y de terceros, para anónimamente facilitarle la navegación y analizar estadísticas del uso de la web. Consideramos que si continúa navegando, acepta su uso. Obtener más información

Sage publica un código ético para desarrollar una IA responsable en las compañías

  • Estrategias digitales

Inteligencia artificial_4

Según la empresa, este documento ha sido diseñado con el objetivo de proteger al usuario y asegurar que los gigantes de la tecnología están implementando la Inteligencia Artificial de forma segura.

La compañía Sage ha publicado el documento “Código Ético: Desarrollo de la Inteligencia Artificial para empresas basado en cinco principios básicos”, un conjunto de recomendaciones para que la comunidad tecnológica internacional asuma su responsabilidad en el desarrollo ético de la Inteligencia Artificial en el ámbito empresarial. Para su elaboración, la empresa se ha basado en el propio programa de aprendizaje automático de IA de la compañía, diseñado específicamente para reducir los procesos de administración financiera de los empresarios de cualquier envergadura, desde startups hasta grandes empresas.

Quizá te interese...

El entorno de la pyme en 2017

Cómo ser flexible y apto para la transformación digital

Cómo lograr el éxito en la gestión del rendimiento empresarial y la Inteligencia de negocio

Impacto económico del desarrollo de aplicaciones de negocio con ServiceNow

Rendimiento digital: la importancia para el retailer

Informe e-Pyme 2016

 

“Este código ético ha sido diseñado para proteger al usuario y asegurar que los gigantes de la tecnología, entre los que se encuentra Sage, están implementando la IA de forma segura”, confirma Kriti Sharma, vicepresidenta de Bots e Inteligencia Artificial de Sage, quien agrega: “Queremos actuar como líderes y hacer un llamamiento a otras empresas para pedirles que tengan en cuenta estos principios a la hora de desarrollar sus propios sistemas de Inteligencia Artificial”.

En concreto, el documento se basa en cinco principios clave:

1. La IA debe reflejar la diversidad de los usuarios a los que sirve. Tanto la industria como la comunidad tecnológica deben desarrollar mecanismos eficaces para filtrar los sesgos y el sentimiento negativo de los datos recogidos por la IA.

2. La IA debe rendir cuentas, igual que lo hacen los usuarios. Después de adquirir confianza con los usuarios, la IA tiene que responsabilizarse de sus acciones y decisiones. Si no se aceptan este tipo de comportamientos en otros profesionales, ¿por qué debería hacer una excepción con la tecnología?

3. Recompensa a la IA por sus progresos. Las medidas de aprendizaje y refuerzo deben construirse no sólo basándose en lo que la IA o los robots hacen para lograr un resultado, sino en cómo se alinean con los valores humanos para lograrlo.

4. La IA debe garantizar la igualdad de condiciones. Las tecnologías sociales, como los asistentes de voz o los robots, ofrecen soluciones de rápido acceso, especialmente indicadas para personas discapacitadas por problemas de visión, dislexia o movilidad reducida. La comunidad tecnológica empresarial necesita acelerar el desarrollo de nuevas tecnologías para garantizar la igualdad de condiciones y ampliar el número de talentos disponibles.

5. La Inteligencia Artificial sustituirá puestos de trabajo, pero también creará nuevos empleos. Aparecerán en el mercado nuevas oportunidades creadas por la robotización de tareas y es importante que los seres humanos estén preparados para ello. Hay que tener en cuenta que, si la IA y la empresa trabajan juntos, conseguirán que la plantilla se centre en lo verdaderamente importante: construir relaciones y cuidar de los clientes.