Noticias

Las formas en que los ciberdelincuentes utilizan la inteligencia artificial en ataques

octubre 15, 2020
Expertos en ciberseguridad explican cómo la inteligencia artificial y el aprendizaje automático se pueden utilizar para evadir las defensas de ciberseguridad y hacer que las brechas sean más rápidas y eficientes durante una cumbre de ciberseguridad de NCSA y Nasdaq. Kelvin Coleman, director ejecutivo de National Cyber ​​Security Alliance y Elham Tabassi, jefe de personal […]

Expertos en ciberseguridad explican cómo la inteligencia artificial y el aprendizaje automático se pueden utilizar para evadir las defensas de ciberseguridad y hacer que las brechas sean más rápidas y eficientes durante una cumbre de ciberseguridad de NCSA y Nasdaq.

Kelvin Coleman, director ejecutivo de National Cyber ​​Security Alliance y Elham Tabassi, jefe de personal del laboratorio de tecnología de la información del Instituto Nacional de Estándares y Tecnología de USA.

Aquí dos formas en que la IA y el ML se pueden usar en ataques de ciberseguridad.

Envenenamiento de datos

Tabassi  indicó que  el envenenamiento de datos está diseñado para manipular un conjunto de datos de entrenamiento para controlar el comportamiento de predicción de un modelo entrenado para engañar al modelo para que funcione incorrectamente, como etiquetar los correos electrónicos no deseados como contenido seguro. 

Hay dos tipos de envenenamiento de datos : ataques que tienen como objetivo la disponibilidad de un algoritmo de ML y ataques que tienen como objetivo su integridad. La investigación sugiere que un 3% de envenenamiento del conjunto de datos de entrenamiento conduce a una caída del 11% en la precisión.

Con los ataques de puerta trasera, un intruso puede agregar una entrada a un algoritmo que el diseñador del modelo no conoce. El atacante utiliza esa puerta trasera para hacer que el sistema de AA clasifique erróneamente una determinada cadena como benigna cuando podría contener datos incorrectos.

Tabassi dijo que las técnicas para envenenar los datos se pueden transferir de un modelo a otro.

Redes generativas antagónicas

Las redes generativas de confrontación (GAN) son básicamente dos sistemas de IA enfrentados entre sí: uno que simula el contenido original y otro que detecta sus errores. Al competir entre sí, crean conjuntamente contenido lo suficientemente convincente como para pasar por el original. 

Los investigadores de Nvidia entrenaron un modelo de IA único para recrear PAC-MAN simplemente observando horas de juego, sin un motor de juego.

 Los atacantes están usando GAN para imitar los patrones de tráfico normales, para desviar la atención de los ataques y para encontrar y filtrar datos confidenciales rápidamente.

De acuerdo con los investigadores, los ciberdelincuentes entran y salen en 30-40 minutos gracias a estas capacidades. Una vez que los atacantes comienzan a aprovechar la inteligencia artificial y el aprendizaje automático, pueden automatizar estas tareas.

Las GAN también se pueden utilizar para descifrar contraseñas, evadir la detección de malware y engañar al reconocimiento facial, como describió Thomas Klimek en el artículo ” Redes generativas de adversario: qué son y por qué deberíamos tener miedo “. Un sistema PassGAN creado por investigadores de aprendizaje automático se entrenó en una lista de contraseñas estándar de la industria y finalmente pudo adivinar más contraseñas que otras herramientas entrenadas en el mismo conjunto de datos. Además de generar datos, las GAN pueden crear malware que puede evadir los sistemas de detección basados ​​en el aprendizaje automático. 

artificialCiberataquesciberdelincuentesinteligencia

Comparte este Artículo

Artículos relacionados