DigitalES alerta sobre los riesgos de la IA y propone un marco seguro y ético
- Actualidad
La Asociación Española para la Digitalización advierte que la rápida implantación de la inteligencia artificial multiplica los riesgos de ciberseguridad. Su nuevo informe subraya la urgencia de integrar medidas técnicas, normativas y culturales para garantizar confianza y resiliencia.
El informe “Inteligencia Artificial y Ciberseguridad: recomendaciones para una implementación segura en las empresas” de DigitalES se presenta en un contexto de crecimiento sin precedentes. El 77% de las compañías a nivel global ya utiliza o explora la integración de IA en sus operaciones, y en España el número de empresas que aplican estas tecnologías se duplicó entre 2022 y 2024, según COTEC. Este avance, sin embargo, ha venido acompañado de un incremento alarmante de ciberataques: los incidentes dirigidos a modelos de IA se multiplicaron por cinco desde 2023, según Check Point. El impacto económico también es significativo, ya que el coste medio de una brecha de seguridad en IA alcanzó los 4,5 millones de euros en 2025, un 15% más que el año anterior, de acuerdo con IBM Security.
DigitalES plantea un enfoque integral que combina cumplimiento normativo, medidas técnicas y fortalecimiento cultural dentro de las organizaciones. “La inteligencia artificial es una palanca de innovación, pero sin ciberseguridad se convierte en un riesgo estratégico”, señala Miguel Sánchez Galindo, director general de la asociación.
Un marco para la IA segura
El informe busca servir de guía práctica para que las empresas, especialmente las pymes, adopten la IA de manera segura, protegiendo sus activos más críticos: los datos y la confianza de sus clientes. El documento subraya la necesidad de aplicar el principio de security by design en todas las fases del ciclo de vida de la IA, desde la recolección y tratamiento de datos hasta el despliegue y uso de los modelos. Entre las medidas propuestas destacan:
- Implementar un marco de gobernanza robusto con anonimización y cifrado de datos.
- Incorporar técnicas como differential privacy para reducir sesgos.
- Adoptar estándares internacionales como ISO/IEC 42001 para la gestión de sistemas de IA.
- Realizar auditorías periódicas y pruebas de robustez.
- Formar a los equipos en riesgos específicos asociados a la IA.
El informe dedica especial atención a sectores críticos. En retail, la protección de datos de clientes en chatbots es esencial para cumplir con estándares como PCI DSS. En salud, la anonimización de historiales médicos y el cumplimiento del RGPD son prioritarios. En grandes corporaciones, se recomienda segmentar accesos para evitar fraudes internos y establecer planes de respuesta a incidentes que permitan contener ataques como la inyección de prompts o el robo de modelos.
La irrupción de la IA generativa y los grandes modelos de lenguaje democratiza el acceso a la tecnología, pero también amplía la superficie de ataque. El informe insiste en que el equilibrio entre transparencia, seguridad y estabilidad es esencial para una implantación responsable. “En un contexto donde el 82% de los ataques se dirigen a modelos de lenguaje, la prevención no es opcional”, subrayó Beatriz Arias, directora de Transformación Digital de DigitalES.
DigitalES concluye que el futuro de la inteligencia artificial no depende solo de su capacidad de innovar, sino de la confianza que inspire. Una IA segura es también una IA sostenible, capaz de generar progreso económico, proteger derechos y reforzar la resiliencia digital de España y Europa.