Investigadores de seguridad alertan sobre una nueva táctica en la que actores sin grandes habilidades técnicas apoyan sus campañas de extorsión con inteligencia artificial para crear mensajes convincentes y acelerar el ciclo de ataque.
Investigadores de Palo Alto Networks recientemente revelaron que cibercriminales con habilidades limitadas están recurriendo a la inteligencia artificial (IA) para ejecutar campañas de extorsión, una estrategia que los expertos han etiquetado como “vibe extortion”. En estas operaciones, los atacantes delegan partes clave de sus campañas a modelos de lenguaje avanzado, lo que les permite elaborar amenazas y gestionar tácticas de presión sin poseer un conocimiento profundo de técnicas de hacking tradicional.
En uno de los casos analizados por el equipo de investigación de Unit 42, el atacante incluso grabó un video de amenaza desde su cama mientras estaba visiblemente bajo los efectos del alcohol, leyendo literalmente un guion generado por el modelo de IA que le indicaba qué decir y cómo estructurar la extorsión. Aunque el contenido carecía de sofisticación técnica, los investigadores destacaron que la IA proporcionó la coherencia suficiente para hacer que la amenaza parezca profesional y peligrosa.
“La IA no hizo al atacante más inteligente; simplemente lo hizo lucir lo bastante profesional como para ser peligroso”, señalaron los analistas de Unit 42 en el reporte, lo que permite concluir que las herramientas automatizadas son capaces de reducir la barrera de entrada para la ciberdelincuencia.
En su análisis, los expertos de Unit 42 describen cómo la IA -especialmente la generación de contenido mediante modelos de lenguaje (GenAI)- ha pasado de ser un recurso ocasional para convertirse en un “multiplicador de fuerza” para los atacantes. Como consecuencia, además de agilizar la creación de textos o la estructura de un ataque, la IA acelera pasos críticos en el ciclo de vida de una amenaza, como el reconocimiento de objetivos, la extracción de información preliminar o la preparación de comunicaciones persuasivas.
Este fenómeno no se limita a simples videos o guiones de amenazas. El informe identifica múltiples formas en que los actores maliciosos emplean IA para escanear vulnerabilidades rápidamente, desde lanzar ataques a gran escala contra múltiples objetivos y hasta generar contenidos personalizados para campañas de ingeniería social más efectivas.
Los investigadores también advierten que la IA permite reducir drásticamente el tiempo entre la identificación de una vulnerabilidad pública y su explotación. En algunos casos observados por Unit 42, los atacantes empezaron a escanear sistemas tan solo 15 minutos después de que se anunciara una nueva falla de seguridad (CVE), y las tentativas de explotación se iniciaron prácticamente antes de que los equipos de seguridad terminaran de analizar los avisos oficiales.
Para contrarrestar estas amenazas emergentes, los analistas recomiendan una serie de medidas que incluyen la automatización de parches críticos, tecnologías avanzadas de detección de patrones y comportamientos inusuales en correos, así como la supervisión del uso de plataformas de IA internas para detectar llamadas sospechosas a los modelos o patrones de consulta atípicos.
Entre las estrategias sugeridas también están el cambio de mecanismos tradicionales de seguridad por sistemas basados en anomalías y la implementación de verificaciones adicionales fuera de banda para solicitudes sensibles, como transferencias de dinero o reinicios de credenciales.
