Las entidades financieras gestionan hasta 96 identidades de máquina por cada empleado humano
- Estrategias
Los agentes de IA no figuran en las plantillas, pero toman decisiones críticas, gestionan riesgos y coordinan operaciones. La pregunta, según CyberArk, no es si deben integrarse en los esquemas de control, sino cómo hacerlo de manera que refuercen y no debiliten la confianza en el sistema financiero.
La inteligencia artificial ha dejado de ser un mero apoyo tecnológico para convertirse en un actor central dentro del sector financiero. Aunque no aparecen en los organigramas oficiales, los llamados agentes de IA ya operan como auténticos “directivos invisibles”, con privilegios y responsabilidades que rivalizan con los de los empleados humanos.
Según el informe 2025 Identity Security Landscape, elaborado por CyberArk, las entidades financieras gestionan hasta 96 identidades de máquina por cada empleado humano, y casi la mitad de esas credenciales tienen acceso directo a datos sensibles. Sin embargo, solo un 31% de las empresas dispone de controles específicos para sistemas de IA, incluidos los grandes modelos de lenguaje.
Tres formas en que los agentes de IA están reconfigurando el organigrama
La transformación no es solo tecnológica, sino organizativa. Los agentes de IA están modificando la estructura interna de bancos y aseguradoras en tres áreas clave:
- Agentes de cumplimiento mejorados. Los oficiales de cumplimiento pueden desplegar múltiples agentes para escanear transacciones en tiempo real. Esto multiplica la eficiencia, pero también concentra privilegios en una sola persona y en agentes no siempre autorizados. El riesgo es que el propio equipo de cumplimiento se convierta en un problema regulatorio.
- Agentes de trading autónomos. En algunos casos, estos bots sustituyen por completo las funciones humanas. Ejecutan estrategias a velocidad de máquina y sin supervisión directa. Si sus credenciales están mal configuradas, podrían desestabilizar mercados o amplificar riesgos sistémicos en cuestión de segundos.
- Orquestadores multiagente. A medida que crece la adopción, algunos agentes pasan a coordinar procesos enteros, supervisando tanto a otros agentes como a empleados. Un solo agente puede gestionar operaciones de cuentas de clientes y delegar tareas en cadena, multiplicando los puntos de fallo y aumentando las vulnerabilidades regulatorias.
La presencia de estos agentes plantea un dilema: ¿cómo garantizar que las decisiones automatizadas cumplan con los mismos estándares de seguridad y regulación que las humanas? Y es que un solo agente puede acumular más poder que un equipo humano, y cada agente requiere claves, certificados y accesos que deben ser gestionados con rigor. Además, las operaciones se realizan en milisegundos, lo que dificulta la supervisión.
Los expertos en ciberseguridad insisten en que los agentes de IA deben ser tratados con el mismo rigor que cualquier empleado humano. Esto implica políticas de acceso con privilegios mínimos y just-in-time, auditorías continuas y guardrails sólidos, y procesos claros para su incorporación, cambios de función y salida. Solo así las entidades podrán aprovechar el potencial de la IA sin comprometer la seguridad ni el cumplimiento regulatorio.