Un reporte elaborado recientemente por la comunidad Cybercrime Atlas del Foro Económico Mundial, alerta que las herramientas de IA para generar rostros falsos están evolucionando de riesgo emergente a amenaza concreta que socava la confianza en procesos de know your customer (KYC) y requieren respuestas urgentes de mercados y reguladores.
El informe “Unmasking Cybercrime: Strengthening Digital Identity Verification against Deepfakes”, publicado el pasado 8 de enero por la comunidad Cybercrime Atlas alojada en el Foro Económico Mundial (WEF), expone cómo las tecnologías de generación de contenido sintético -especialmente los deepfakes– están siendo aprovechadas por actores maliciosos para burlar sistemas de verificación de identidad digital.
Según el reporte, la amenaza pasó de ser una proyección teórica para el futuro cercano, a una realidad que ha pasado de experimentación a ejecución, y apunta a que algunas herramientas de intercambio de rostros (face-swapping) y técnicas de inyección de cámara alcanzan fidelidad y latencia suficientes para derrotar los sistemas de autenticación digital en tiempo real.
El informe analizó 17 herramientas de face-swapping y ocho técnicas de inyección de cámara con el objetivo de evaluar su capacidad para evadir los mecanismos de verificación biométrica y documental que sustentan los procesos KYC utilizados por bancos, servicios financieros y plataformas digitales.
El documento enfatiza que gran parte de estas herramientas se diseñaron inicialmente con fines creativos o de entretenimiento y no con intención expresa de eludir controles de seguridad. Sin embargo, algunas ya presentan capacidades suficientes para engañar los sistemas biométricos que comparan una imagen en vivo con documentos oficiales, lo que permite a los atacantes pasar por usuarios legítimos sin ser detectados.
Aunque muchos de los ataques todavía exhiben errores perceptibles -por ejemplo, inconsistencias en la sincronización, variaciones de iluminación o artefactos de compresión-, los investigadores destacan que estas debilidades también representan puntos de enfoque para el desarrollo de herramientas de detección más avanzadas. No obstante, la tendencia apunta a que mientras más accesibles y sofisticadas se vuelven estas tecnologías, mayor será la superficie de ataque para los cibercriminales.
El reporte también contextualiza esta amenaza dentro de un aumento más amplio del fraude de identidad digital y señala que otras investigaciones independientes indican que la incidencia de fraudes relacionados con IA, incluidos los deepfakes, ha crecido exponencialmente en los últimos años, representando una proporción significativa de los intentos de fraude detectados por instituciones financieras, lo que subraya la urgencia de adaptar las defensas actualmente existentes.
Una parte central del informe del WEF es su conjunto de recomendaciones para reforzar la seguridad de los sistemas de verificación digital, que incluyen el refuerzo de las capacidades de detección visual antes de completar cualquier autenticación, con validaciones más estrictas de las fuentes de cámara y liveness checks menos predecibles; la integración más estrecha entre sistemas de detección de fraude y políticas de riesgo institucional, permitiendo respuestas más rápidas y eficaces a señales de ataque; la profundización de políticas de gobernanza y monitoreo continuo, especialmente en zonas sensibles como apertura de cuentas, recuperación de acceso o transacciones de alto valor; y la mayor colaboración entre entidades privadas, organismos públicos y reguladores para compartir inteligencia y mejores prácticas que fortalezcan la resiliencia colectiva.
