La inteligencia artificial ha tenido una explosión significativa este último tiempo, pasando del mundo del entretenimiento a las amenazas cibernéticas.
Hace unas semanas se hizo viral el caso de “Heart on my Sleeve”, una canción hecha con inteligencia artificial usando las voces de las estrellas del Pop “Drake” y “The Weekend”. Por supuesto, esto despertó la ira del sello discográfico al que pertenecen los artistas, tomando acciones para intentar borrar la canción de las redes sociales. Lo anterior es otro escándalo mediático causado por el “boom” de las IA, lo que se ha debido, principalmente, a la masividad de su uso, así como también, a la extraordinaria mezcla entre creatividad humana y los potentes resultados de los modelos contemporáneos. Sin embargo, la ciencia ficción está lo suficientemente arraigada en nuestra cultura como para no despertar sospechas, e incluso miedo, frente a las creaciones de la IA.
Lo que más me ha impresionado de estas nuevas herramientas, es la capacidad de suplantar la identidad de personajes. El éxito del caso de “Heart on my Sleeve” se debe a que la canción parecía ser realmente interpretada por los famosos artistas. Este no es un caso aislado de suplantación. Una estafa de criptomonedas apareció a través de Youtube donde, utilizando la tecnología “deepfake”, se llevaron a cabo transmisiones en vivo donde “Elon Musk” convencía a múltiples personas de participar e invertir en proyectos falsos o clickear sobre links maliciosos.
Al ver estos casos no pude evitar pensar en cómo la inteligencia artificial va a impactar los ataques de ingeniería social como, por ejemplo, el phishing. La posibilidad de que herramientas como Chat GPT escriban correos malintencionados sin faltas de ortografía y utilizando información recopilada de la empresa objetivo, claramente dificulta la detección de una estafa. No obstante, el texto ya no es el único dominio de las IAs.
Como mencionaba anteriormente, es posible replicar voz e, incluso, un video falso para suplantar la identidad de una persona. Un ejemplo es el sitio FakeYou donde puedes entrenar un modelo para replicar la voz que quieras. Por supuesto, no es tan simple como llegar y pedir la voz de cualquier persona. Para usar una voz personalizada piden motivos y hacen restricciones, probablemente debido a que se han dado cuenta del peligro que puede causar. Pese a estas mitigaciones, no es una locura pensar que, a causa de la masividad de las aplicaciones de deepfake, no será posible filtrar a todos los usuarios malintencionados.
Para ejemplificar, y siendo pesimistas, se pueden dar casos de audios de WhatsApp de quien parece ser tu jefe contándote una historia de por qué te habla de un número desconocido y pidiéndote que transfieras a cierta cuenta bancaria. O un correo con un video instructivo de quien parece ser un empleado de tu empresa enseñándote cómo usar la “nueva plataforma de la compañía” donde tienes que ingresar tus credenciales para autenticarte. Finalmente, un audio o un video es mucho más creíble que un simple texto. Este es un cambio de paradigma que, quizás, debamos enfrentar en un futuro.
Entonces, ¿estamos a la merced de las inteligencias artificiales? Si bien este tópico es relativamente nuevo, académicos del área ya están buscando métodos para distinguir lo creado por el ser humano y lo fabricado por una máquina. Así es el caso del paper publicado por la universidad de Maryland que plantea un método para “poner una marca de agua en modelos de lenguaje”. Usando métodos estadísticos y alterando las probabilidades que usan por detrás los modelos de “deep learning”, es posible insertar señales en el texto generado que son invisibles para el ser humano pero detectables por un algoritmo. Soluciones como esta pueden llevar a un futuro donde su correo electrónico no sólo tenga una carpeta de “spam”, si no que también, una carpeta de “IA”.
El problema de esta mitigación es que es necesario implementarla dentro de los modelos de inteligencia artificial. Lo anterior significa que los desarrolladores tienen la tarea de hacer que su modelo sea “seguro de usar” al igual que con cualquier otro sistema. La diferencia es que esta tecnología es muy reciente y, al mismo tiempo, potente. Por lo tanto, es importante que como sociedad mantengamos en discusión la ética detrás de estas herramientas para evitar, o al menos ser conscientes, del peligro que trae su mal uso.
Y ahora, ¿quedamos a la espera de que aparezcan soluciones y sean implementadas? ¿Hay algo que se pueda hacer antes? Bueno, la “vulnerabilidad” de fondo es la misma que en el phishing actual, se intenta engañar a una persona para robar credenciales y obtener accesos. Por lo tanto, las acciones son parecidas, entrenar al personal. El usuario será siempre la última línea de defensa y, por esta razón, una persona atenta y crítica a información sospechosa será mucho más difícil de engañar que aquella sin entrenamiento o conciencia acerca del phishing. No importa si es texto, audio o video si el usuario puede detectar tempranamente las alertas de un mensaje dudoso y chequear la información con colegas o superiores. Así, la próxima vez que te llegue un audio de “Drake” sabrás que no es realmente el rapero que quiere hacer una colaboración contigo.
La ciberseguridad es hoy, asegura tu compañía, protege a las personas.
(Paper de Maryland https://arxiv.org/pdf/2301.10226.pdf)
Fue pensada por 5 mujeres líderes en la ciberseguridad en Chile. Partió como un grupo de whatsapp entre ellas y luego nació la idea de abrirlo para conformar una comunidad de todas las mujeres en ciberseguridad en Chile.