Microsoft propone un estándar de IA responsable y anuncia controles de uso de su tecnología

  • Actualidad

La multinacional ha evolucionado su marco de desarrollo responsable para soluciones de inteligencia artificial, que incluye controles de uso de sus tecnologías de reconocimiento facial.

Tomando como base trabajos anteriores de la compañía, un grupo multidisciplinario de investigadores, ingenieros y expertos en regulación ha creado un marco de desarrollo responsable de inteligencia artificial, con el objetivo de que sirva de de guía práctica para los equipos de desarrollo.

El documento incluye objetivos o resultados concretos que los equipos que desarrollan sistemas de IA deben esforzarse por conseguir. Cada uno de ellos requiere un conjunto de pasos que los profesionales deben seguir para garantizar su cumplimiento a lo largo de todo el ciclo de vida del sistema y, por último, se proporcionan herramientas y prácticas que facilitan su implementación. 

La necesidad de este tipo de orientación práctica es cada vez mayor. Microsoft, como empresa tecnológica, reconoce su responsabilidad a la hora de actuar y trabajar para garantizar que los sistemas de IA sean responsables por diseño.

La compañía ha anunciado nuevos controles de uso adaptados para el reconocimiento facial y de voz sintética. En este ámbito, cuenta con Custom Neural Voice de Azure AI, una innovadora tecnología de voz que permite la creación de una voz sintética que suena casi idéntica a la fuente original y que ya ha sido empleada por compañías como AT&T o Progressive. Esta tecnología tiene un enorme potencial en sectores como la educación, la accesibilidad y el entretenimiento, pero también hay que tener en cuenta sus riesgos. Para paliarlos, Microsoft ha adoptado un marco de control en función de las experiencias y lo aprendido en este sentido, y ha anunciado que aplicará controles similares en sus servicios de reconocimiento facial. En este sentido, dejará de dar acceso a las APIs de detección de emociones mediante la tecnología que puede escanear los rostros de las personas y sus estados emocionales, en función de sus expresiones faciales y atributos de identidad como género, edad, sonrisa, vello facial, cabello y maquillaje, o movimientos.

A partir de ahora, la detección de estos atributos ya no estará disponible para nuevos clientes, que deben solicitar acceso para usar las capacidades de reconocimiento facial en Azure Face API, Computer Vision y Video Indexer. Aquellos que ya se encuentren suscritos, tendrán un año, hasta el 30 de junio de 2023, para solicitar y recibir aprobación para acceder a los servicios de reconocimiento facial.

La compañía también proporcionará orientación y herramientas que capacitan a sus clientes para implementar esta tecnología de forma responsable. Los clientes de Azure Cognitive Services ahora pueden utilizar el paquete Fairlearn de código abierto y el Fairness Dashboard de Microsoft para medir la imparcialidad de los algoritmos de verificación facial de Microsoft en sus propios datos. De esta forma, pueden identificar y abordar posibles problemas de imparcialidad y sesgos antes de desplegar su tecnología.

Además, ha actualizado la documentación de transparencia para mejorar la precisión y equidad de sus sistemas, mediante la incorporación de una revisión humana que ayude a detectar y resolver casos de identificación errónea u otros fallos.

Al trabajar con clientes que ya usaban su servicio Face, la compañía también se dio cuenta de que algunos errores que originalmente se atribuían a problemas de imparcialidad se debían a una mala calidad de imagen. Si la imagen que alguien envía es demasiado oscura o borrosa, es posible que el modelo no pueda igualarla correctamente y puede perjudicar, injustamente y de forma especial, a determinados grupos demográficos.

Por ello, Microsoft ofrece a los clientes una nueva API de calidad de reconocimiento que indica problemas de iluminación, desenfoque, oclusiones o ángulo de la cabeza en imágenes enviadas para verificación facial. La compañía también proporciona una aplicación de referencia que aporta sugerencias en tiempo real para ayudar a los usuarios a capturar imágenes de mayor calidad.

Además, la firma ha compartido su experiencia y el patrón que siguió para mejorar su tecnología de voz a texto para mantener los principios de equidad y evitar sesgos y desigualdades sociales.

“Las soluciones de Inteligencia Artificial son el fruto de múltiples decisiones de quienes las desarrollan e implementan. Microsoft opta por guiar de manera proactiva todo este proceso, desde su concepción, hasta el modo en que la gente interactúa con ella. Por tanto, es necesario mantener a las personas en el centro del diseño de esta tecnología y respetar valores como la equidad, la confiabilidad, la seguridad, la privacidad, la inclusión, la transparencia y la responsabilidad”, ha dicho la compañía en un comunicado.