El movimiento Black Lives Matter ha abierto de nuevo el debate sobre la utilización de estos sistemas de inteligencia artificial por parte de los cuerpos policiales en EE. UU.: además de ser imprecisos y presentar sesgos raciales, no hay transparencia sobre qué ciudades los emplean
A finales de junio se conoció la noticia de que un error del sistema de reconocimiento facial de la policía de Detroit (EE. UU.) llevó al arresto de Robert Williams por un delito que no había cometido. EE. UU. ya sufría por entonces la conmoción por la muerte de George Floyd el mes anterior. Poco después, se supo que otro hombre negro, Michael Oliver, había sido detenido en circunstancias similares a las de Williams. Mientras que una gran parte de Estados Unidos continúa exigiendo justicia racial, se está generando otro debate más silencioso sobre la tecnología de reconocimiento facial y la policía. Haríamos bien en seguirlo.
Cuando Jennifer Strong y yo comenzamos a escribir sobre el uso de la tecnología de reconocimiento facial por parte de la policía para el nuevo pódcast de MIT Technology Review, In Machines We Trust, sabíamos que los cuerpos de policía de EE. UU. y de otros países estaban adoptando estos sistemas de inteligencia artificial (IA). Pero no conocíamos en qué medida eso estaba sucediendo fuera del escrutinio público.
Para empezar, no sabemos con qué frecuencia los departamentos de policía de EE. UU. utilizan el reconocimiento facial por la sencilla razón de que en la mayoría de las jurisdicciones no tienen que informar sobre cuándo lo usan para identificar al sospechoso de un delito. Las cifras más recientes son orientativas y del año 2016, pero sugieren que, en ese momento, al menos la mitad de los estadounidenses tenían fotografías en un sistema de reconocimiento facial. Un condado de Florida (EE. UU.) realizaba 8.000 búsquedas cada mes.
Tampoco sabemos qué departamentos de policía tienen la tecnología de reconocimiento facial, porque es común que la policía oculte su proceso de adquisición. Hay pruebas, por ejemplo, de que muchos departamentos compran su tecnología mediante subvenciones federales o donaciones sin ánimo de lucro, por lo que están exentas de ciertas leyes de transparencia.
En otros casos, algunas empresas ofrecen a la policía períodos de prueba de su software que permiten a los agentes utilizar sistemas sin ninguna aprobación oficial ni supervisión. Esto permite que las empresas que desarrollan los sistemas de reconocimiento facial pueden afirmar que sus productos se utilizan ampliamente y den la impresión de ser herramientas populares y fiables para resolver delitos.
Algoritmos que no protegen a los ciudadanos
Pero el reconocimiento facial es conocido por lo poco fiable que resulta. En enero, la Policía Metropolitana de Londres (Reino Unido) presentó un sistema de reconocimiento facial en directo que en las pruebas obtuvo una tasa de precisión de menos del 20 %. En la ciudad de Nueva York (EE. UU.), la Metro Transit Authority probó un sistema en las principales vías de metro con una tasa de precisión del 0 %.
Los sistemas también suelen tener sesgo racial: un estudio descubrió que las tasas de error en la identificación de mujeres de piel más oscura fueron de alrededor del 35 % en algunos sistemas comerciales, incluso en condiciones de laboratorio. Mientras preparábamos el pódcast, descubrimos que no era raro que la policía alterara las fotos para mejorar sus posibilidades de encontrar una coincidencia. Algunos incluso han defendido esa práctica como fundamental para hacer un buen trabajo policial.
Dos de las empresas más controvertidas y avanzadas en el campo, ClearviewAI y NTechLabs, afirman haber resuelto el "problema de sesgo" y haber alcanzado una precisión casi perfecta. ClearviewAI asegura que su sistema es utilizado por alrededor de 600 departamentos de policía en EE. UU. (aunque algunos expertos con los que hemos hablado eran escépticos sobre esa cifra). NTechLabs, con sede en Rusia, ha sido contratado para cubrir el reconocimiento facial por vídeo en directo en toda la ciudad de Moscú (Rusia).
Pero casi no existen formas de verificar sus afirmaciones de manera independiente. Ambas empresas tienen algoritmos que trabajan con las bases de datos de miles de millones de fotos públicas. Por otro lado, el Instituto Nacional de Estándares y Tecnología (NIST por sus siglas en inglés) ofrece una de las pocas auditorías independientes sobre tecnología de reconocimiento facial.
La prueba de NIST para los proveedores utiliza un conjunto de datos mucho más pequeño, que, junto con la calidad y diversidad de las imágenes en la base de datos, limita su capacidad como herramienta de control. ClearviewAI aún no ha realizado la prueba más reciente de NIST. NTechLabs se ha sometido a la prueba de imagen estática y ha obtenido buenos resultados, pero no hay ningún test actualmente para el reconocimiento facial de vídeo en directo. Tampoco existe una prueba independiente para el sesgo de forma específica.
Una ola de protestas contra el reconocimiento facial
La reciente ola de protestas de Black Lives Matter (BLM), provocada por la muerte de Floyd ha puesto en duda gran parte de lo que ya habíamos aceptado sobre la policía moderna, incluido su uso de la tecnología. La triste ironía es que algunos policías han utilizado las herramientas de vanguardia con el conocido sesgo racial contra los manifestantes que han salido a la calle a protestar contra el racismo de los agentes.
Sabemos, por ejemplo, que el departamento de policía de Baltimore (EE. UU.) usó el reconocimiento facial para identificar a los manifestantes después de la muerte de Freddie Gray en 2015. Y sabemos que unos cuantos departamentos han realizado convocatorias públicas para obtener imágenes de las protestas de este año.
Se ha comprobado que la policía de Minéapolis (EE. UU.) tiene acceso a una variedad de tecnología, incluidos los servicios de ClearviewAI. Según el experto del Centro de Privacidad y Tecnología de la Universidad de Georgetown (EE. UU.) Jameson Spivack, a quien hemos entrevistado en el programa, si se usa el reconocimiento facial en las protestas con motivo del Black Lives Matter, se está "atacando y desanimando el discurso político de los negros específicamente".
Después de años de lucha por la regulación, en su mayoría por parte de las organizaciones lideradas por las comunidades de negros y latinos, nunca hemos estado en un mejor momento para un cambio real. Microsoft, Amazon e IBM han anunciado interrupciones o moratorias de sus productos de reconocimiento facial. En los últimos meses, algunas de las principales ciudades de Estados Unidos han comunicado prohibiciones o han retrasado el uso de esta tecnología.
Por otro lado, la propia tecnología avanza rápidamente. Las capacidades de los sistemas, así como el potencial de su uso indebido y abuso, seguirán creciendo a pasos agigantados. Ya hemos empezado a ver que los departamentos de policía y los proveedores de tecnología van más allá de los sistemas de reconocimiento facial retrospectivos y estáticos hacia análisis de vídeo en directo que se integran con otros tipos de flujos de datos, como los sistemas de detección del sonido de disparos.
Algunos de los agentes de policía con los que hemos hablado creen que no deberían quedarse con herramientas arcaicas para combatir los delitos en el siglo XXI. Y es cierto que, en algunos casos, la tecnología puede ayudar a que la policía sea menos violenta y menos propensa a los prejuicios humanos.
Pero después de meses de nuestro pódcast, me quedé con un presentimiento. Los retos crecen cada día, y hasta ahora la sociedad se ha quedado muy atrás en su comprensión de lo que está pasando. No está claro cómo va a cambiar eso a menos que todas las personas en todas las partes de este problema se pongan de acuerdo en que todos tienen derecho a estar informados.