Cuenta pública: Se ratifica la creación de la Agencia Nacional de Ciberseguridad y se anuncian sistemas de televigilancia con IA

El Presidente Boric dio a conocer que se instalará en Chile “el primer sistema de televigilancia que use Inteligencia Artificial y que se acompañe con un servicio de atención de emergencias que integre a todos los servicios que las atienden en una misma plataforma coordinada”.

Con relación a la Agencia Nacional de Ciberseguridad, y como se ha informado previamente, esta será un servicio público descentralizado, de carácter técnico, con personalidad jurídica propia y tendrá funciones como:

  • Asesorar al presidente de la República de Chile en materia de ciberseguridad.
  • Colaborar en la protección de los intereses nacionales en el ciberespacio.
  • Coordinar a las instituciones que posean competencias de seguridad cibernética.
  • Velar por la protección, promoción y respeto del derecho a la seguridad informática.
  • Coordinar y supervisar la acción de los organismos de la Administración en asuntos de ciberseguridad.
  • Regular, fiscalizar y sancionar las acciones de los organismos de la Administración y de las instituciones privadas relacionadas con la seguridad cibernética.
  • Velar por la coherencia normativa.

Todas las atribuciones de la Agencia Nacional de Ciberseguridad se detallan y amplían en el artículo 9 de la ley marco.

De acuerdo a lo señalado por el jefe de Estado respecto el sistema de televigilancia, el sistema comenzará a funcionar en la Región Metropolitana con el objetivo de pesquisar autos con encargo de búsqueda, personas perdidas y personas buscadas por la justicia.

Debate sobre televigilancia en el mundo

Una cámara convencional de vigilancia, en espacios abiertos o en circuitos cerrados (CCTV) representa un método de seguridad esencialmente reactivo, porque brinda asistencia después que ocurre un evento. Pero las cámaras con IA ayudan en el análisis de amenazas potenciales al utilizar patrones de conducta, eso significa que a partir de la observación de los movimientos podría concluir que una persona, vehículo o un objeto desatendido -en aeropuertos o centros comerciales- constituyen un potencial riesgo, lo que permitiría a las autoridades aplicar medidas preventivas antes que ocurra un incidente.

Un reporte de la Unión Europea del año 2021 sobre el uso de la aplicación de tecnologías de vigilancia en espacios públicos indica que los principales desafíos tienen relación, por una parte, con las vulnerabilidades de las tecnologías y sus implicaciones para la ciberseguridad, y por otro lado, con la amenaza a los derechos fundamentales de las personas.

El informe señala que la implementación de este tipo de tecnologías podría generar problemas en torno a desajustes, sesgos y fallas de seguridad, y enfatiza que las vulnerabilidades vienen por el lado del procesamiento de imágenes o de la elección de los componentes de las bases de datos.

En ese sentido, una de las principales recomendaciones del reporte apunta a la elaboración de una definición legal robusta sobre los datos biométricos considerando el factor humano y sus características únicas, dado que este tipo de sistema recopilará una gran cantidad de datos sin procesar.

Principales controversias

En el contexto de la próxima celebración de los Juegos Olímpicos en París en el verano boreal de 2024, la Asamblea Nacional de Francia aprobó recientemente una ley que autoriza a las empresas a probar cámaras de visión por computadora para utilizar en estadios y centros de transporte cercanos a la Villa Olímpica y otros recintos asociados al evento, una medida que no se podrá extender más allá de finales de ese mismo año.

Las posiciones de quienes defienden los derechos de las personas han argumentado que la implementación de este tipo de tecnología es invasiva porque a partir de los algoritmos que utiliza para detectar comportamientos sospechosos puede reconocer las características físicas de las personas y envía alertas a las autoridades de seguridad.

Por su parte, la entidad reguladora de la protección de datos de ese país admitió que la tecnología conlleva riesgos, pero no está a la altura de las cámaras de reconocimiento facial que identifican a personas específicas en función de características únicas. Asimismo, la autoridad señaló que se planea supervisar a las empresas de tecnología que ganen contratos gubernamentales a medida que comiencen las pruebas de sus cámaras.

Pese a los debates sobre su regulación, las cámaras de vigilancia que utilizan IA están en rápida expansión en todo el mundo. Así lo indica un informe del Fondo Carnegie para la Paz Internacional, que en 75 de 176 países se utiliza la IA con fines de vigilancia, e identifica a China y a los Estados Unidos como los principales impulsores del uso de tecnologías con este fin. En el caso específico de China, el informe señala que sus productos van acompañados de préstamos blandos para alentar a otros gobiernos a la compra de éstos.

El informe revela que el 51% de las democracias más avanzadas utilizan este tipo de sistemas frente al 37% de los regímenes “autocráticos”, pero son estos últimos los más propensos al abuso de estas tecnologías.

China y los Estados Unidos se reparten el globo en la distribución de este tipo de herramientas en el mundo. En América Latina, Brasil, Uruguay y Ecuador tienen un mercado mixto, mientras que, en países como Argentina, Bolivia, Venezuela y Chile, predominan los proveedores de China como Huawei, Hikvision, Dahua y ZTE.

Desde el año pasado varios de estos fabricantes se han visto envueltos en polémicas con varios gobiernos occidentales. Estados Unidos, por ejemplo, prohibió a los fabricantes chinos de CCTV en sus mercados y hace poco tiempo atrás, Reino Unido y Australia hicieron lo mismo con las cámaras de Hikvision y Dahua que estaban presentes en una importante cantidad de oficinas públicas de esos países, todas estas medidas bajo el argumento de posibles riesgos de seguridad actuales y futuros.

Implicancias para la ciberseguridad

Las vulnerabilidades más activas dentro de este tipo de tecnologías tienen relación con el sistema de reconocimiento facial, los que pueden ser evadidos y manipulados, e incluso las bases de datos en las que se sustentan pueden ser víctimas de una brecha de seguridad.

Varios estudios han demostrado que los sistemas son vulnerables al spoofing, pero también se indica que los datos biométricos pueden ser de fácil acceso y reproducidos, pero más complejo aún, es que en el caso del rostro de las personas al ser inmutables, una vez que ese dato se ve comprometido en una brecha de seguridad podría no existir una manera de remediar alguna potencial consecuencia.

Dos de los incidentes de ciberseguridad más destacados del último tiempo tienen relación, uno con el acceso a bases de datos biométricos que se usan en el reconocimiento facial en Reino Unido, y otro con la intrusión en sistemas que permitió a los atacantes acceder a cámaras de seguridad en los Estados Unidos.

El incidente más sensible ocurrió en 2019, cuando se dio a conocer una violación masiva de datos biométricos de ciudadanos británicos en el que se vieron nvolucrados unos 28 millones de registros, incluidas las huellas dacatilares de 1 millón de personas, además de datos de reconocimiento facial, fotos de rostros de usuarios, nombres y contraseñas sin cifrar, registro de acceso a instalaciones, niveles de seguridad y autorización y detalles personales.

El incidente afectó a Suprema, una empresa coreana que proporcionaba seguridad biométrica para bancos, contratistas militares, gimnasios, empresas de suministros médicos y a la Policía Metropolitana de Londres.

Si bien no existe mayor información del abuso de la información sustraída, -quizás por la complejidad del uso de las imágenes de las personas-, una fuga de datos de esta naturaleza plantea serios problemas de ciberseguridad en el futuro, en la medida que los atacantes dispongan de tecnologías que permitan abusar de los datos recolectados.

El otro incidente afectó directamente a las cámaras de televigilancia que utilizan tecnologías de IA. Ocurrió en los Estados Unidos el año 2021 y afectó a la compañía de seguridad de video e inteligencia artificial Verkada.

Los atacantes pertenecían a un grupo Hacktivista (APT-69420) con sede en Suiza, quienes por un espacio de 36 horas lograron ingresar a los sistemas de Verkada luego de vulnerar el usuario y contraseña de uno de sus administradores, la que utilizaba una plataforma completamente centralizada. Esta situación facilitó a los atacantes para, una vez dentro del sistema, pudieron acceder a 150 mil cámaras de seguridad ubicadas en escuelas, cárceles, hospitales y compañías de gran renombre como Nissan, Tesla o Cloudflare, entre otras.

Aunque la industria de tecnología de reconocimiento facial señala que están mejorando su ciberseguridad, ningún sistema de seguridad es perfecto y en la medida que aumenta la popularidad de su uso se vuelve cada vez más atractivo para los cibercriminales.

Los sistemas basados en la IA pueden ser capaces de proteger la información y aprender de ataques cibernéticos que ocurren en todo el mundo, pero siempre hay lugar para el error que facilite que un atacante pase por alto la seguridad y así acceder a redes o comprometer datos. Los riesgos de la IA también están a nivel de software en la medida que los atacantes se concentren en las vulnerabilidades de su arquitectura. Pero quizás lo más novedoso es la forma en que los grupos de ataque buscan envenenar a la IA al inyectar códigos maliciosos en la conversación para que éstas realicen acciones que normalmente no harían.

La manipulación de datos para influir en la toma de decisiones, el robo de modelos de entrenamiento de la IA para usos fraudulentos o de extorsión, y los ataques a adversarios en los que se utilizan ejemplos erróneos para que el entrenamiento de la IA de resultados incorrectos, figuran entre los principales tipos de ataques que se están realizando contra las IA.

Ciberseguridad e Inteligencia Artificial en Chile

A fines de 2021 Chile publicó su Política Nacional de Ciberseguridad que contempla tres ejes fundamentales: los factores habilitantes que se basan en la infraestructura y el capital humano; el desarrollo y adopción de la IA; y los aspectos éticos, legales y regulatorios.

La política también incluye un plan de acción que incluye 70 acciones concretas y 185 iniciativas que deben ser realizadas en el plazo de una década, con financiamiento estatal y en área como la educación, el desarrollo productivo y la formación de talentos.

El anuncio realizado este jueves por el Presidente Boric, así como medidas recientes realizadas por el Ministerio de Hacienda y la compra de una licencia para realizar pruebas con ChatGPT y la guía de apoyo docente sobre el uso de ChatGPT en el aula, están poniendo a prueba esa política y su plan de acción, pero también son desde ya un desafío para los reguladores y para la legislación en torno a los datos personales y la ciberseguridad.

Entre otras tantas medidas mencionadas por el mandatario, nuevamente se mencionó a la Agencia Nacional de Ciberseguridad (ANCI), la que podría formalizarse durante este año, si se cumple con lo pactado entre el Ejecutivo y el Congreso Nacional sobre el paquete de medidas de seguridad para el país.

De ser así, la ANCI podría ser la primera entidad que se refiera a los aspectos de ciberseguridad en torno al proyecto del uso de cámaras de televigilancia con IA, con el propósito de que se cumplan estándares que garanticen la confidencialidad, integridad y disponibilidad de esa información.