Expertos denuncian sesgo racial en algoritmo de IA para reconocimiento facial predictivo

Más de 1.000 expertos en tecnología y académicos de organizaciones como el MIT, Microsoft, Harvard y Google han firmado una carta abierta denunciando sobre un documento que describe algoritmos de inteligencia artificial (IA) que pueden predecir el crimen basado solo en la cara de una persona, para los firmantes esto podría promover el sesgo racial y la propagación de una #TechtoPrisonPipeline.

La medida responde a la preocupación por el uso de tecnología de reconocimiento facial por parte de las fuerzas del orden público, así como al apoyo al movimiento Black Lives Matter, que ha provocado protestas y manifestaciones masivas en todo el mundo.

Los algoritmos han sido descritos por investigadores de la Universidad de Harrisburg en Pensilvania, el documento fue titulado «Un modelo de red neuronal profunda para predecir la criminalidad mediante el procesamiento de imágenes», y será publicado próximamente en Berlín,
Alemania. La investigación describe un «software automatizado de reconocimiento facial por computadora capaz de predecir si alguien será un criminal».

Si bien la tecnología de predicción del delito basada en la investigación computacional en sí misma no está específicamente sesgada racialmente, «reproduce, naturaliza y amplifica los resultados discriminatorios», y también «se basa en premisas científicas, investigaciones y métodos poco
sólidos, que numerosos estudios abarcan nuestras las disciplinas respectivas se han desmentido a lo largo de los años”, escribieron los expertos en su carta.

Las razones del rechazo

Por lo demás, los investigadores esbozan tres razones por las cuales este tipo de algoritmos puede ser problemático y discriminatorio. La primera razón es que los algoritmos no pueden «predecir si alguien es un criminal basándose únicamente en la imagen de su cara». Esto para los científicos es
imposible porque la idea misma de «criminalidad» en sí misma es parcialidad racial.

La segunda razón se basa en la validez que ha tenido la inteligencia artificial y en la poca capacitación que reciben quienes la utilizan, particularmente en “los métodos críticos, los marcos y el lenguaje necesarios para interrogar las lógicas culturales y los supuestos implícitos
subyacentes a sus modelos».

La tercera y última razón señala que cualquier tecnología de predicción de delitos «reproduce injusticias y causa daños reales» a las víctimas de un sistema de justicia penal que actualmente se encuentra bajo un escrutinio severo por sus métodos y prácticas.

Cabe destacar que el uso de tecnología de reconocimiento facial en general siempre ha sido controvertido, y actualmente enfrenta nuevos desafíos legales, éticos y comerciales, incluido su uso por parte de la policía. Microsoft se unió recientemente a Amazon e IBM para prohibir la venta
de tecnología de reconocimiento facial a los departamentos de policía y presionar para que las leyes federales regulen la tecnología.

Por lo demás con la pandemia causada por el COVID-19 han resurgido los temores sobre el uso de tecnología de reconocimiento facial en lo que respecta al rastreo de contactos y otras formas en que las autoridades intentan detener la propagación del virus. Los expertos en privacidad temen que por la urgencia de implementar medidas de seguimiento, se ignoren problemas importantes en torno a la recopilación y el almacenamiento de datos, y al consentimiento del usuario y a la
vigilancia.