El fraude con deepfakes se dispara y solo el 7% de las organizaciones está preparado
- Seguridad
La ingeniería social con deepfakes y la falsificación documental generativa son las modalidades que más se han disparado. El uso de IA y machine learning en programas antifraude está creciendo, mientras que la gobernanza avanza mucho más despacio.
El 2026 Anti-Fraud Technology Benchmarking Report, elaborado por la Association of Certified Fraud Examiners (ACFE) y SAS, dibuja un escenario en el que los ciberdelincuentes avanzan a gran velocidad gracias a herramientas de inteligencia artificial baratas y accesibles, mientras que las organizaciones reconocen tener dificultades para seguirles el ritmo.
El estudio concluye que los estafadores están ganando la carrera tecnológica. “Los datos dibujan un panorama preocupante: el fraude está evolucionando más rápido de lo que la mayoría de las empresas pueden defenderse”, afirma John Gill, presidente de ACFE.
Deepfakes y falsificación documental son las amenazas que más crecen
Todas las modalidades de fraude impulsadas por IA han aumentado en los últimos dos años, pero la ingeniería social mediante deepfakes es la que registra el mayor crecimiento, con un 77% de los encuestados que indica un incremento entre leve y significativo. Le siguen el fraude y las estafas al consumidor (75%), la falsificación documental con IA generativa (75%) y la inyección digital mediante deepfakes (72%).
De cara a los próximos 24 meses, el 55% prevé que tanto la ingeniería social con deepfakes como la falsificación documental generativa aumenten de forma significativa, lo que confirma que la IA está transformando la escala y la sofisticación del fraude.
El uso de IA y machine learning en programas antifraude está creciendo. El 25% de las organizaciones ya lo utiliza, frente al 18% de 2024, y otro 28% planea adoptarlo antes de 2028. Sin embargo, la gobernanza avanza mucho más despacio. Aunque el 86% considera que la precisión de los modelos es importante, solo el 18% realiza pruebas para detectar sesgos o verificar equidad.
Del mismo modo, el 82% valora la explicabilidad, pero únicamente el 6% se siente plenamente seguro explicando cómo sus modelos toman decisiones antifraude. En sectores regulados, como banca o seguros, esta falta de control puede derivar en sanciones, responsabilidades legales y daños reputacionales.
Presupuestos en tecnología antifraude al alza
Más de la mitad de los encuestados (55%) espera que su organización aumente la inversión en tecnología antifraude en los próximos dos años. Aun así, las restricciones presupuestarias siguen siendo la principal barrera para la implantación, con el 84% que las identifica como un reto importante o moderado. La brecha entre la velocidad de los atacantes y la capacidad de respuesta de las empresas continúa ampliándose.
El estudio analiza también la evolución de tecnologías emergentes en la lucha contra el fraude. La IA generativa está pasando de la aspiración a la aplicación práctica: aunque solo el 16% la usa hoy, el 58% planea adoptarla. Entre quienes ya la emplean, destaca su uso para detectar phishing y estafas (49%), identificar riesgos (46%) y redactar informes (45%). En cuanto a la IA agéntica, el 8% la utiliza ya y el 31% prevé adoptarla antes de 2028, la previsión de crecimiento más alta de todas las categorías analizadas.
La biometría física es la tecnología emergente más implantada, con un 45% de adopción, frente al 34% de 2022. En cambio, las plataformas nativas en la nube para detección de fraude (10%) y la automatización (29%) siguen claramente infrautilizadas. Respecto a la computación cuántica, el 62% espera que tenga un impacto material antes de 2030 y un 11% afirma que ese impacto ya se está produciendo.
El informe concluye que, independientemente del sector, todas las empresas se enfrentan a amenazas aceleradas por la IA. La diferencia estará en su capacidad de respuesta: datos adecuados, tecnología avanzada, velocidad, escala y gobernanza serán los factores que determinarán quién está preparado y quién no.