OWASP publica nueva guía para blindar aplicaciones de inteligencia artificial autónoma

La organización ofrece en este nuevo documento, una serie de recomendaciones técnicas y prácticas para enfrentar los desafíos de seguridad que plantean los agentes de Inteligencia Artificial impulsados por modelos de lenguaje grande.

El Open Worldwide Application Security Project (OWASP) presentó este lunes 28 de julio su nueva guía para proteger el desarrollo y despliegue de aplicaciones de inteligencia artificial que funcionan de forma autónoma, conocidas como agentes de IA, titulada Securing Agentic Applications v1.0. OWASP describió esta guía como un recurso integral y de código abierto que entrega lineamientos prácticos y está orientada a ingenieros de IA y aprendizaje automático, desarrolladores de software, profesionales de ciberseguridad y especialistas en seguridad de aplicaciones.

Este lanzamiento responde al acelerado crecimiento en la adopción de agentes de IA por parte de organizaciones de todo tipo.

Estos sistemas, a diferencia de los modelos tradicionales, no requieren intervención humana constante, se comunican entre sí, ejecutan tareas complejas, y se adaptan a entornos cambiantes sin necesidad de nuevos comandos. Su alta autonomía, especialmente en tareas críticas como la escritura de código o la configuración de sistemas, ha generado preocupaciones profundas sobre su impacto en la seguridad informática.

“A medida que los sistemas de IA evolucionan hacia arquitecturas más autónomas, con uso de herramientas y múltiples agentes, surgen nuevos desafíos de seguridad que la seguridad tradicional no puede enfrentar sola”, explicaron desde la entidad, agregando que “por eso, el proyecto de Seguridad en IA generativa de OWASP ha publicado esta guía, el recurso de seguridad más completo y práctico disponible hasta ahora para desarrolladores y defensores de la IA agentica”.

La guía propone integrar la seguridad desde las etapas más tempranas del diseño de estos sistemas y destaca la necesidad de construir arquitecturas seguras que contemplen el control de privilegios, la autenticación de usuarios y mecanismos para solicitar credenciales cuando los agentes deban interactuar con navegadores o dispositivos. Además, se sugiere diseñar los modelos de IA con barreras explícitas para evitar manipulaciones o la sobrescritura de sus instrucciones principales.

A lo largo del documento, OWASP recomienda reforzar los entornos donde se despliegan estos agentes con herramientas complementarias de seguridad, como la adopción de protocolos OAuth 2.0 para autorización, el uso de servicios de identidad administrada para evitar el almacenamiento de credenciales, y el cifrado sistemático de información sensible. También se abordan los riesgos derivados de la conexión de estos agentes con otros sistemas -como APIs, bases de datos o intérpretes de código- proponiendo medidas específicas para mitigar posibles vulnerabilidades en estas integraciones.

Otro de los focos clave del documento es la seguridad en la cadena de suministro, instando a las organizaciones a limitar el impacto del código de terceros mediante la gestión de permisos en las fuentes de datos y el escaneo constante de paquetes externos para detectar fallos. Asimismo, la guía de OWASP recomienda realizar ejercicios regulares de red team para identificar vulnerabilidades antes de que sean explotadas, así como aplicar controles estrictos en las etapas de integración y despliegue continuo (CI/CD). Finalmente, sugiere robustecer el entorno de ejecución mediante técnicas como el sandboxing, la auditoría permanente y el monitoreo de comportamientos en tiempo real.

Expertos en ciberseguridad advierten que estas capacidades avanzadas también podrían ser aprovechadas por actores maliciosos para automatizar fases de ciberataques, como la toma de cuentas o la evasión de controles. En ese contexto, OWASP busca ofrecer a la comunidad técnica un marco de defensa que permita anticiparse y adaptarse a este nuevo panorama de amenazas emergentes en inteligencia artificial.