.

ACLU

Tecnología y Sociedad

La demanda que podría lograr el fin del reconocimiento facial policial

1

Robert Williams fue arrestado injustamente debido al mal funcionamiento de la tecnología, cuyo impacto negativo es desproporcionadamente más alto en personas negras. Aunque esto ya se sabía, muchos departamentos de Policía siguen usándola y negándose a ver la discriminación que genera

  • por Tate Ryan-Mosley | traducido por Ana Milutinovic
  • 20 Abril, 2021

El 9 de enero de 2020, la policía de Detroit (EE. UU.) se presentó en el barrio periférico de Farmington Hill y arrestó a Robert Williams en la entrada a su casa delante de su esposa e hijas pequeñas. Williams, un hombre negro, estaba acusado de robar relojes de la tienda de lujo Shinola. Pasó la noche en la cárcel.

Durante el interrogatorio, un policía le mostró a una foto de un sospechoso. Su respuesta, como le contó a la Unión Estadounidense de Libertades Civiles (ACLU, por sus siglas en inglés), fue negarlo. Williams le dijo al oficial: "Ese no soy yo. Espero que no crean que todas las personas negras se parecen". Asegura que el policía respondió: "El ordenador dice que es usted".

El arresto indebido de Williams, que se hizo público por The New York Times en agosto de 2020, se basó en una mala coincidencia del sistema de reconocimiento facial del Departamento de Policía de Detroit. Desde entonces se han hecho públicos dos casos más de detenciones equivocadas. Ambos también son hombres negros y ambos han emprendido acciones legales. 

Ahora Williams está siguiendo su camino y yendo más allá, no solo ha demandado al departamento por su arresto injusto, también está intentando que la tecnología de reconocimiento se prohíba. 

La semana pasada, la ACLU y la Iniciativa de Litigio de Derechos Civiles de la Facultad de Derecho de la Universidad de Michigan (EE. UU.) presentaron una demanda en nombre de Williams en la que alegan que el arresto violó su derecho a la Cuarta Enmienda y fue en contra la ley de derechos civiles de Michigan.

La demanda solicita una compensación, una mayor transparencia sobre el uso del reconocimiento facial y poner fin al uso de la tecnología por parte del Departamento de Policía de Detroit (DPD), ya sea de forma directa o indirecta.

Qué dice la demanda

Los documentos presentados el pasado martes exponen el caso. En marzo de 2019, el DPD sometió una foto pixelada de un hombre negro con una gorra roja procedente de un vídeo de vigilancia a través de su sistema de reconocimiento facial, desarrollado por la empresa DataWorks Plus. El sistema devolvió una coincidencia con una foto antigua del permiso de conducir de Williams. Los policías de la investigación incluyeron la foto del carné de conducir de William como parte de un conjunto de fotos mostrado a un trabajador de seguridad, que realmente no estaba presente en el momento del robo, pero que identificó a Williams como el ladrón. Los policías obtuvieron una orden judicial, que requiere varias aprobaciones por parte de la dirección del departamento, y Williams fue arrestado.

La denuncia argumenta que el arresto equivocado fue el resultado directo del sistema de reconocimiento facial, y que "este caso de arresto y encarcelamiento injustos ejemplifica el grave daño causado por el uso indebido y la dependencia de la tecnología de reconocimiento facial". 

El caso contiene cuatro cargos, tres de los cuales se centran en la falta de una causa probable para el arresto, mientras que el otro se centra en las disparidades raciales en el impacto del reconocimiento facial. "Al emplear una tecnología sobre la que se ha empíricamente que identifica erróneamente a las personas negras a tasas mucho más altas que a otros grupos de personas, el DPD le negó al Sr. Williams el disfrute pleno e igual de los servicios, privilegios y ventajas del Departamento de Policía de Detroit por su raza o color", explica la demanda.

Las dificultades de la tecnología de reconocimiento facial para identificar a las personas de piel más oscura están bien documentadas. Después del asesinato de George Floyd en Minneapolis (EE. UU.) en 2020, algunas ciudades y estados anunciaron prohibiciones y moratorias sobre el uso policial del reconocimiento facial. Pero muchos otros, incluido Detroit, continuaron usándolo a pesar de las crecientes preocupaciones. 

"Confiar en imágenes de mala calidad"

El año pasado, cuando MIT Technology Review habló con el abogado de Williams de la ACLU, Phil Mayor, él mismo destacó que los problemas de racismo dentro de la aplicación de la ley estadounidense hacen que el uso del reconocimiento facial resulte aún más preocupante. 

Mayor aseguró: "Esta no es una situación con un solo actor malo. Se trata de una situación en la que tenemos un sistema penal extremadamente rápido para presentar cargos y extremadamente lento para proteger los derechos de las personas, especialmente en el caso de las personas de color".

El abogado de Economic Equity Practice de Detroit Eric Williams afirma que las cámaras tienen muchas limitaciones tecnológicas, entre ellas que están mal codificadas en cuanto los rangos de color para reconocer el tono de la piel y, a menudo, simplemente no pueden procesar la piel más oscura.

"Creo que todas las personas negras del país han tenido la experiencia de aparecer en una foto y que en la imagen su piel se vuelva o más clara o más oscura".

"Creo que todas las personas negras del país han tenido la experiencia de aparecer en una foto y que en la imagen su piel se vuelva o más clara o más oscura. La iluminación es uno de los factores principales cuando se trata de la calidad de una imagen. Así que el hecho de que las fuerzas del orden se apoyen, hasta cierto punto... en imágenes realmente deficientes es problemático", señala Williams, quien es miembro del comité de abogados de la ACLU de Michigan, pero no está trabajando en el caso de Robert Williams. 

Ha habido casos que desafiaron los algoritmos sesgados y las tecnologías de inteligencia artificial (IA) sobre la base de la raza. Facebook, por ejemplo, se sometió a una auditoría masiva de derechos civiles después de que se descubriera que sus algoritmos de publicidad dirigida publicaban anuncios en función de la raza, el género y la religión. YouTube fue demandado en una denuncia colectiva por creadores negros que alegaron que sus sistemas de inteligencia artificial perfilan a los usuarios y censuran o discriminan el contenido por motivos de la raza. YouTube también fue demandado por creadores del colectivo LGBTQ+ que afirmaban que los sistemas de moderación de contenido marcaban las palabras "gay" y "lesbiana". 

Algunos expertos creen que era solo cuestión de tiempo hasta que el uso de la tecnología sesgada por parte de una institución importante como la policía se enfrentara a estos desafíos legales. 

"El uso gubernamental del reconocimiento facial tiene un impacto claramente dispar contra las personas de color. Varios estudios muestran que esta peligrosa tecnología tiene tasas mucho más altas de falsos positivos para las personas de color en comparación con las personas blancas. Por lo tanto, el uso de esta tecnología por parte del Gobierno viola las leyes que prohíben adoptar prácticas que causen impactos dispares", sostiene el abogado principal de la Electronic Frontier Foundation Adam Schwartz.

Pero Mayor, el abogado de Williams, espera una dura pelea y reconoció a MIT Technology Review el año pasado que esperaba que el Departamento de Policía de Detroit continuara argumentando que el reconocimiento facial era una gran "herramienta de investigación". Y añadió: "El caso de Williams demuestra que no lo es. No lo es en absoluto. Y, de hecho, puede dañar a las personas si usa como herramienta de investigación".

Bajo lupa

En un comunicado, el fiscal de Detroit, Lawrence García, explicó que la ciudad tenía como objetivo "llegar a una resolución" del caso, pero que el reconocimiento facial no era el culpable de la situación.

García detalló: "Como explicó el jefe de Policía, el arresto fue el resultado de una investigación de mala calidad, no de una tecnología defectuosa. El Departamento de Policía de Detroit ha llevado a cabo una investigación interna y ha presentado cargos de mala conducta en relación con varios miembros del departamento. El DPD ha implementado nuevos protocolos para evitar que ocurran casos similares".

Pero la demanda de Williams llega en un momento crítico para la raza y la policía en Estados Unidos. Se presentó cuando los abogados defensores comenzaron sus argumentos en el juicio del policía acusado de asesinar a George Floyd en Minneapolis (EE. UU.) en mayo pasado, Derek Chauvin, y en el tercer día de protestas en respuesta al tiroteo de Daunte Wright en el cercano Brooklyn Center, Minnesota (EE. UU.). Wright, un hombre negro de 20 años, fue detenido en un control de tráfico y arrestado bajo una orden judicial antes de que la policía Kim Potter le disparara y lo matara, supuestamente al confundir su pistola con un Taser. 

Eric Williams sostiene que es esencial comprender el reconocimiento facial en este contexto más amplio de fallos policiales: "Cuando el DPD decidió comprar la tecnología... se sabía que el reconocimiento facial era propenso a identificar erróneamente a las personas de piel más oscura antes de que el Sr. Williams fuera detenido, ¿verdad? A pesar de ello, en una ciudad que tiene más del 80 % de ciudadanos negros, optaron por utilizar esta tecnología. Claramente están dando menos valor a las vidas, a los medios de vida y las libertades civiles de los negros que a los de los blancos. Eso es demasiado común en Estados Unidos de hoy en día".

Tecnología y Sociedad

Los avances tecnológicos están cambiando la economía y proporcionando nuevas oportunidades en muchas industrias.

  1. El riesgo de una pandemia de gripe aviar sigue creciendo

    Los casos humanos en EE UU están aumentando y el virus está apareciendo en vacas y productos lácteos. Afortunadamente, tenemos algunas vacunas listas para usar si es necesario

  2. El éxodo a Bluesky marca el inicio de la era de las redes sociales descentralizadas

    Bluesky ha ganado terreno como alternativa a X, especialmente tras las últimas elecciones en EE UU. Sin embargo, este fenómeno no refleja el ascenso de un servicio ni el declive de otro, sino una tendencia hacia la descentralización

    Una persona entra a Bluesky desde su teléfono móvil
  3. La herramienta de Google DeepMind para "leer la mente" de la inteligencia artificial

    Un equipo de Google DeepMind ha creado Gemma Scope, una herramienta diseñada para desentrañar los procesos internos de una IA y comprender cómo llega a sus conclusiones. Este avance abre la puerta a algoritmos más transparentes y alineados con las expectativas humanas

    Google DeepMind tiene una nueva herramienta para explorar la IA