Una declaración conjunta advierte que herramientas capaces de crear imágenes realistas de personas sin su consentimiento pueden vulnerar derechos fundamentales como la privacidad y la dignidad. En paralelo, el Reino Unido investiga a X y X.AI por el uso de datos personales en su chatbot Grok.
Este lunes 23 de febrero, autoridades de protección de datos de 61 países emitieron una declaración conjunta en la que advierten sobre los peligros de sistemas de IA que generan o manipulan imágenes de personas reales sin su consentimiento, alertando que estos usos pueden vulnerar derechos fundamentales como privacidad, dignidad y seguridad. La declaración, responde a preocupaciones crecientes acerca de herramientas que producen contenido fotorrealista que identifica a personas sin su conocimiento o permiso.
El comunicado señala que la creación de imágenes íntimas no consensuadas y otros contenidos sensibles ya es considerada un delito en muchos países, y recalca que la innovación en IA no puede avanzar “a expensas de la privacidad, dignidad y seguridad” de los individuos. Los reguladores enfatizan que las organizaciones que desarrollan y despliegan estos sistemas deben integrar protecciones de datos desde el diseño mismo, aplicando principios como minimización de datos, transparencia y evaluaciones de impacto en protección de datos antes de lanzar productos que procesen imágenes identificables.
El documento advierte que los modelos capaces de producir imágenes altamente realistas pueden facilitar y amplificar contenido dañino, desde representaciones difamatorias hasta estimulación del acoso y explotación de intimidad. Ante esto, las autoridades firmantes instan a las compañías tecnológicas a reforzar sus controles técnicos, establecer mecanismos accesibles para denuncias y facilitar la eliminación rápida de contenido perjudicial.
Este llamado global se da en un contexto marcado por la difusión de millones de imágenes “nudificadas” de personas reales generadas por algunos sistemas de IA, un fenómeno que ha recibido críticas globales y que llevó a plataformas como X a bloquear temporalmente funcionalidades generativas específicas tras el escrutinio público. Las autoridades regulatorias consideran que estos casos ilustran cómo los modelos de IA pueden ser usados para violar derechos personales y exigen mayor responsabilidad.
En línea con estas preocupaciones, la Oficina del Comisionado de Información (ICO) del Reino Unido ha abierto una investigación contra X y X.AI por el uso de datos personales en su herramienta de IA Grok. El regulador británico busca determinar si el procesamiento de datos para generar imágenes -incluidas imágenes íntimas no consensuadas- se realizó de manera legal, justa y transparente, como exige la legislación de protección de datos de ese país.
La ICO ha señalado que los reportes sobre la generación de imágenes sexualizadas de personas sin su permiso “plantean preguntas profundamente preocupantes” acerca del respeto a la privacidad y la protección de datos. El organismo subraya que las empresas que desarrollan modelos de IA deben poder demostrar que cuentan con una base jurídica válida para procesar información personal y que han implementado salvaguardas efectivas para prevenir daños a los usuarios y terceros.
El caso de la ICO podría convertirse en un precedente relevante para el sector. De confirmarse incumplimientos, las consecuencias podrían incluir sanciones económicas y órdenes de modificación en los procesos de tratamiento de datos de las compañías involucradas, además de colocar el foto en la responsabilidad corporativa y el respeto a la privacidad.
