La publicación del European Telecommunications Standards Institute (ETSI EN 304 223) establece requisitos mínimos a lo largo de todo el ciclo de vida de los sistemas de Inteligencia Artificial y busca ayudar a mitigar riesgos específicos que no cubren las prácticas tradicionales de ciberseguridad.
En respuesta a la acelerada adopción de tecnologías de inteligencia artificial y los riesgos de ciberseguridad únicos que estos sistemas presentan, el European Telecommunications Standards Institute (ETSI) ha publicado un nuevo estándar europeo, llamado ETSI EN 304 223, que ofrece una estructura comprensiva de requisitos de seguridad para modelos y sistemas de IA destinados a uso en entornos reales.
La nueva norma, que ya ha recibido el visto bueno de los organismos nacionales de normalización en la Unión Europea, se diferencia de otros enfoques de seguridad al tratar a la inteligencia artificial como una categoría tecnológica con riesgos propios. Estos riesgos incluyen amenazas como envenenamiento de datos, inyección indirecta de instrucciones (“prompt injection”) y vulnerabilidades asociadas a operaciones complejas y gestión masiva de datos. Debido a estas características particulares de los sistemas de IA, se requiere un enfoque de defensa que vaya más allá de las prácticas tradicionales de seguridad de software.
El estándar comprende trece principios organizados a lo largo de cinco fases del ciclo de vida de un sistema de IA, los que van desde el diseño seguro, el desarrollo seguro, el despliegue seguro, el mantenimiento seguro y el fin de vida seguro. Cada una de estas fases se alinea con modelos internacionalmente reconocidos del ciclo de vida de IA, lo que facilita la integración de ETSI EN 304 223 con otros marcos de referencia y regulaciones ya existentes en el ecosistema tecnológico global.
Este enfoque basado en el ciclo de vida no solo guía a los desarrolladores desde las etapas iniciales de diseño hasta el final operativo de sus sistemas, sino que también promueve una mentalidad de seguridad que persiste mientras los sistemas están en operación. La norma reconoce que la seguridad no es un elemento que se agrega al final, sino un componente inseparable del proceso de creación y mantenimiento de sistemas de IA.
Otro punto relevante es que ETSI EN 304 223 no se limita a Europa, a pesar de ser un estándar europeo. La publicación ha sido estructurada de manera que pueda servir como una base de referencia global para la seguridad de IA, extendiendo su influencia más allá del mercado europeo y facilitando la coherencia en prácticas de seguridad en distintas regiones del mundo.
La norma cubre sistemas basados en redes neuronales profundas, incluidos los de inteligencia artificial generativa, y está pensada para su aplicación por parte de proveedores, integradores y operadores de sistemas de IA. Además, se anticipa la publicación de documentos técnicos complementarios -como el ETSI TR 104 159- que abordará de manera más específica los riesgos que presentan tecnologías particulares, como los asociados con deepfakes, desinformación, confidencialidad y propiedad intelectual.
