La IA generativa es la modalidad de IA que genera más confianza a los líderes de TI

  • Estrategias
SAS inteligencia artificial sector financiero

Casi la mitad declara tener “plena confianza” en la IA generativa, mientras que un tercio afirma lo mismo sobre los agentes de IA. Mientras tanto, la IA cuántica empieza a generar confianza rápidamente, a pesar de que la tecnología necesaria para ejecutar la mayoría de los casos de uso aún no se ha desarrollado.

Las implementaciones de IA que más confianza generan son las tecnologías emergentes, como la IA generativa y los agentes de IA, por encima de las formas más consolidadas de IA. Según el informe IDC Data and AI Impact Report: The Trust Imperative, encargado por SAS, el 48% de los responsables de TI y negocio declaró tener “plena confianza” en la IA generativa, mientras que el 33% afirmó lo mismo sobre los agentes de IA. La forma menos confiable de IA es la tradicional: solo el 18% indicó tener plena confianza.

Este estudio internacional, que analiza el uso y la adopción de la IA, revela que solamente el 40% de las empresas están invirtiendo para lograr que sus sistemas de IA sean confiables gracias a la gobernanza, explicabilidad y medidas de protección éticas. Todo esto, a pesar de que las organizaciones que priorizan la IA confiable tienen una probabilidad del 60% de duplicar el ROI de sus proyectos. Paradójicamente, entre quienes menos invierten en estas prácticas, la IA generativa (por ejemplo, ChatGPT) se percibe como 200% más fiable que la IA tradicional (como el machine learning), a pesar de que esta última es la más consolidada, estable y explicable.

Aunque manifestaron una alta confianza en la IA generativa y agentes de IA, los encuestados expresaron su preocupación por temas como la privacidad de los datos (62%), la transparencia y explicabilidad (57%) y el uso ético (56%).

La IA cuántica empieza a generar confianza rápidamente, a pesar de que la tecnología necesaria para ejecutar la mayoría de los casos de uso aún no se ha desarrollado por completo. Casi un tercio de los decisores a nivel global afirma estar familiarizado con la IA cuántica, y un 26% declara plena confianza en esta tecnología, a pesar de que las aplicaciones reales todavía están en una fase inicial del desarrollo.

 

La ausencia de medidas de protección debilita el impacto de la IA

El estudio muestra un aumento acelerado en el uso de IA, especialmente de la IA generativa, que ha superado rápidamente a la IA tradicional tanto en visibilidad como en aplicación (81% frente a 66%). Esto ha generado nuevos riesgos y preocupaciones éticas.

En todos los países, los analistas de IDC han detectado un desajuste entre la confianza que las organizaciones dicen tener en la IA y lo confiable que es realmente la tecnología. Según el estudio, aunque casi 8 de cada 10 organizaciones (78%) afirma confiar plenamente en la IA, solo el 40% ha invertido en sistemas demostrablemente confiables mediante gobernanza, explicabilidad y medidas de protección ética.

La investigación también muestra que la implementación protección éticas no es una de las prioridades al operacionalizar proyectos de IA. Entre las tres principales prioridades organizativas, solo un 2% seleccionó el desarrollo de un marco de gobernanza de IA, y menos del 10% confesó haber desarrollado una política de IA responsable. Sin embargo, no priorizar estas medidas puede estar impidiendo que estas empresas obtengan todo el valor de sus inversiones en IA a largo plazo.

Los analistas han distinguido a los encuestados entre líderes y seguidores de IA confiable. Los líderes invirtieron más en prácticas, tecnologías y marcos de gobernanza para hacer que sus sistemas de IA fueran confiables, y parecen estar obteniendo beneficios. Estos líderes tenían 1,6 veces más probabilidades de duplicar su retorno de la inversión en sus proyectos de IA.

 

La falta de bases de datos sólidas y gobernanza frena la IA

A medida que los sistemas de IA se vuelven más autónomos y se integran profundamente en procesos críticos, las bases de datos también cobran mayor importancia. La calidad, diversidad y gobernanza de los datos influyen directamente en los resultados de la IA, lo que hace que las estrategias de datos enriquecidos sean esenciales para obtener beneficios (por ejemplo, ROI, mejoras de productividad) y mitigar riesgos.

El estudio identificó tres grandes obstáculos que impiden el éxito en la implementación de IA: infraestructuras de datos débiles, mala gobernanza y falta de competencias en IA. El 49% de las organizaciones cita como principal barrera unas bases de datos sin centralizar o entornos de datos en la nube no optimizados. A esta preocupación le sigue la falta de procesos suficientes de gobernanza de datos (44%) y la escasez de talento cualificado en la organización (41%).

Los encuestados señalaron que el principal problema en la gestión de los datos utilizados en implementaciones de IA es la dificultad para acceder a fuentes de datos relevantes (58%). Otras preocupaciones destacadas incluyen la privacidad y el cumplimiento regulatorio (49%) y la calidad de los datos (46%).