Microsoft apuesta por el desarrollo de una IA ética y responsable

  • Content Marketing

Inteligencia artificial GenAI ©Freepik

Sin lugar a duda, la inteligencia artificial está marcando el presente y futuro de todos los aspectos de la vida. Su potencial para mejorar nuestro día a día o nuestra salud, entre otros, es enorme. Es por este motivo por el que los líderes del sector tienen una responsabilidad en su desarrollo. Consciente de esta responsabilidad, Microsoft ha trazado una hoja de ruta para la gobernanza de la IA y ha establecido un modelo de desarrollo ético y responsable. Te contamos las principales claves.

En 2023, la Inteligencia Artificial (IA), y especialmente la IA generativa, ha sido tema central de las conversaciones de TI. Y es que, sin lugar a duda, esta tecnología está empezando a transformar todos los aspectos de nuestra vida, una auténtica revolución.

Si nos centramos en el aspecto laboral, un estudio de LinkedIn, llamado Futuro del Trabajo: la Inteligencia Artificial en el entorno laboral, muestra cómo la IA generativa está remodelando el mercado del trabajo en muy poco tiempo. Esta tecnología marcará las tendencias laborales en 2024 afectando, de alguna manera, a todo tipo de roles y siendo cada vez más adoptada por las organizaciones que buscan impulsar su innovación, así como aumentar la productividad y creatividad de sus empleados.

La IA no sólo afecta al mercado de trabajo, sino que también resolverá problemas críticos para la humanidad, como el desarrollo de soluciones médicas innovadoras para curar enfermedades o nuevas formas de enfrentar los desarrollos del cambio climático.

 

Responsabilidad de los líderes

A pesar de todas las ventajas, el desarrollo de la inteligencia artificial ha hecho crecer las preocupaciones sobre su uso, lo que ha provocado que gobiernos de todo el mundo se encuentren estudiando regulaciones, siendo la Unión Europea la primera institución en presentar una propuesta específica sobre este tema.

Precisamente Microsoft ha elaborado un plan de acción de cinco puntos para contribuir a la definición de un modelo de inteligencia artificial responsable.

Para la compañía, es imperativo construir una base regulatoria que garantice la seguridad y los derechos fundamentales; que, al mismo tiempo, respalde la competitividad; y que se cimiente sobre el trabajo ya realizado en la OCDE para desarrollar los principios para una IA segura y fiable. Asimismo, debería proporcionar recursos para que los desarrolladores garanticen la seguridad de estos sistemas en línea con los estándares internacionales acordados, y fomente la innovación y el acceso, proporcionando un medio para el reconocimiento mutuo del cumplimiento y la seguridad a través de las fronteras.

 

La estrategia de Microsoft

El compromiso de Microsoft con el desarrollo de una IA responsable queda patente en su estrategia, la cual está basada en tres grandes compromisos que buscan ayudar a sus clientes a avanzar en su viaje responsable con la inteligencia artificial:

Así, Microsoft se compromete a compartir sus aprendizajes sobre el desarrollo y la implementación de IA, y a ayudar a sus clientes a que apliquen esta tecnología de  forma responsable. Para ello, la compañía compartirá experiencias con las organizaciones, proporcionará un plan de formación y capacitación en inteligencia artificial, invertirá en recursos específicos y utilizará la experiencia acumulada en diferentes regiones de todo el mundo para responder a las preguntas de los clientes.

Además, Microsoft está creando un programa de garantía de IA para asegurar a sus clientes que las aplicaciones de inteligencia artificial que implementen en sus plataformas cumplen con los requisitos legales y regulatorios de una IA responsable.

Por último, la firma también ha anunciado el compromiso de ayudar a sus clientes a implantar sus propios sistemas de IA responsable y desarrollará programas para su ecosistema de partners para lograr este objetivo.

 

Hacia la IA responsable

A este plan hay que añadir el hecho de que Microsoft ha definido una hoja de ruta para la gobernanza de la IA y ha establecido un modelo de desarrollo ético y responsable que tiene en cuenta criterios de privacidad, seguridad, inclusión, equidad, transparencia y responsabilidad que impulse el desarrollo de un ecosistema de innovación global. Este modelo se basa en cinco grandes puntos:

-- Implementar y desarrollar nuevos marcos de seguridad de la IA, basados en el trabajo realizado por el Instituto Nacional de Estándares y Tecnología (NIST, en su acrónimo inglés), la ISO 42100 o la futura Ley de IA de la UE, entre otros organismos.
-- Establecer medidas de seguridad específicas para los sistemas de IA que controlan infraestructuras críticas, como parte de un enfoque integral, que incluya una supervisión humana efectiva.

-- Desarrollar un amplio marco legal de la arquitectura tecnológica de la inteligencia artificial, asignando responsabilidades regulatorias concretas a cada uno de los actores, en función de su papel en la gestión de los diferentes aspectos de la tecnología de IA.

-- Fomentar la transparencia y garantizar el acceso académico y público a la IA.

-- Buscar nuevas colaboraciones y alianzas público-privadas para abordar los retos del uso de la IA, como la protección de los derechos fundamentales, el acceso inclusivo a capacitación en esta tecnología, y la aplicación de la IA a la mejora de la sostenibilidad del planeta.

Para esta nueva era, Microsoft ya ha redefinido toda su cartera de productos para llevar el concepto hombre-máquina a sus soluciones, tanto a su navegador Bing, como su suite de productividad, sus aplicaciones de negocio, y su suite de seguridad, a través de la integración de sus Copilots o asistentes. Su infraestructura cloud, Azure, ya se ha convertido en la base del despliegue de la IA y, además, con Azure OpenAI Services, permite a sus clientes crear sus propias soluciones a medida, para que sean empleados sobre sus datos y de una forma controlada y privada.

 

Mayor compromiso en torno a los Copilots

En la actualidad, Microsoft está apostando más fuerte por Copilot, esta herramienta impulsada por IA está cambiando la forma de trabajar, planteando nuevos interrogantes como el riesgo de enfrentarse a reclamaciones por infracción de derechos de propiedad intelectual.

En este sentido, Microsoft ha anunciado Customer Copyright Commitmentun nuevo compromiso que amplía la cobertura de indemnidad por infracción de derechos que Microsoft ya venía asumiendo y la extiende a las reclamaciones de propiedad intelectual que estén relacionadas con el uso de los Copilots, así como el output que generen, específicamente para las versiones de pago de sus servicios Copilot comerciales y Bing Chat Enterprise.

Entre ellos, se incluye Copilot para Microsoft 365, que lleva la IA generativa a Word, Excel, PowerPoint y otros productos; y GitHub Copilot, que ayuda a los desarrolladores a dedicar menos tiempo a la programación mecánica y más a crear resultados completamente nuevos y transformadores. 

En virtud de este compromiso, los clientes podrán utilizar los servicios Copilot, así como el output que generan, sin preocuparse por reclamaciones de propiedad intelectual.

Sin duda, Microsoft viene trabajando desde hace tiempo para disponer hoy de una estrategia completa cuyo objetivo es el desarrollo de una IA responsable, que garantice un futuro prometedor para todos.