Las empresas adoptan GenAI sin contar con bases sólidas de seguridad
- Seguridad
Según datos de OpenText, aunque más de la mitad de las empresas ya ha desplegado estas tecnologías, la mayoría carece de políticas, controles y marcos de supervisión adecuados. Ocho de cada 10 organizaciones no han alcanzado la madurez completa en IA aplicada a ciberseguridad.
OpenText ha presentado el informe global Managing Risks and Optimizing the Value of AI, GenAI & Agentic AI, elaborado junto al Ponemon Institute, que muestra que el 52% de las organizaciones ya ha desplegado total o parcialmente GenAI, pero que la seguridad avanza a un ritmo mucho más lento.
Solo una de cada cinco empresas afirma haber alcanzado un nivel de madurez en el que la IA está plenamente integrada en las operaciones de ciberseguridad y los riesgos se evalúan de forma sistemática. Además, menos de la mitad (43%) ha adoptado un enfoque de gobernanza basado en riesgos, y únicamente el 41% dispone de políticas específicas de privacidad para IA.
Una brecha creciente entre adopción y control
El informe subraya que el 79% de las organizaciones aún no ha alcanzado la madurez completa en IA aplicada a ciberseguridad, lo que refleja una brecha significativa entre despliegue y control.
La investigación también destaca que el 62% de los encuestados considera muy difícil minimizar los riesgos de sesgo y modelo, mientras que el 58% afirma que los riesgos asociados a prompts o entradas —como respuestas engañosas o dañinas— son extremadamente difíciles de gestionar. A ello se suma que el 59% cree que la IA complica el cumplimiento normativo en privacidad y seguridad, un desafío que se agrava a medida que los modelos se vuelven más autónomos.
En el ámbito operativo, la falta de confianza y explicabilidad limita el impacto real de la IA. Solo el 51% considera que estas tecnologías reducen eficazmente el tiempo de detección de anomalías, y menos de la mitad (48%) las ve efectivas en tareas de threat hunting o reducción de carga manual. El estudio señala que el 45% de las organizaciones identifica errores en las reglas de decisión de la IA como una barrera clave, y un 40% apunta a fallos en los datos que alimentan los modelos.
Muhi Majzoub, EVP de Producto e Ingeniería en OpenText, explica que “la seguridad y la gobernanza son fundamentales para obtener valor real de la IA. Cuando se integran desde el principio, las organizaciones pueden operar con mayor transparencia, monitorizar de forma continua y confiar en los resultados que ofrece la IA”.