Una mala configuración de IA podría paralizar infraestructuras críticas de un país del G20
- Infraestructuras críticas
La consultora alerta de que un simple error humano en sistemas ciberfísicos gobernados por IA podría desencadenar la desconexión masiva de servicios esenciales. Gartner urge a los CISO a reforzar mecanismos de control humano, simulación y monitorización continua.
Gartner advierte que, para 2028, una inteligencia artificial mal configurada en sistemas ciberfísicos (CPS) podría provocar la desconexión total de infraestructuras críticas en un país del G20, generando un impacto directo en la seguridad pública y la estabilidad económica. La predicción, presentada por Wam Voster, VP Analyst de la firma, subraya que el riesgo ya no procede solo de actores maliciosos, sino de la creciente complejidad y opacidad de los modelos de IA que gestionan procesos esenciales.
Un fallo no intencionado con consecuencias nacionales
Los CPS, que abarcan desde redes eléctricas y sistemas industriales hasta robots, drones o plataformas IIoT, dependen cada vez más de modelos de IA para operar en tiempo real. Según Gartner, una mala configuración podría desencadenar acciones autónomas peligrosas, como interpretaciones erróneas de sensores, activación de protocolos de emergencia o incluso el apagado completo de servicios esenciales.
“El próximo gran fallo de infraestructura puede no deberse a hackers o desastres naturales, sino a un ingeniero bien intencionado, un script defectuoso o un decimal mal colocado”, señala Voster.
La consultora destaca que los modelos modernos funcionan como auténticas “cajas negras”, donde incluso los desarrolladores desconocen cómo pequeños cambios pueden alterar el comportamiento emergente del sistema. Esta falta de transparencia, combinada con la autonomía creciente, multiplica la probabilidad de incidentes de gran escala.
Gartner insta a los responsables de seguridad a actuar de inmediato y propone tres líneas de defensa prioritarias:
1. Modo de anulación segura (“kill-switch”). Un mecanismo de parada o control manual, accesible solo a operadores autorizados, que garantice la intervención humana incluso en escenarios de autonomía total.
2. Gemelos digitales para pruebas realistas. Simulaciones completas de los sistemas críticos que permitan validar actualizaciones, configuraciones y cambios antes de su despliegue en producción.
3. Monitorización en tiempo real y equipos nacionales de respuesta. Supervisión continua de los modelos de IA, con capacidad de revertir cambios y con la creación de equipos especializados en incidentes de IA a nivel estatal.