El Gobierno de San Francisco tiene prohibido usar esta tecnología, pero la norma no afecta a las compañías privadas, cuyos fines pueden ser igual de discriminatorios que los públicos. El debate, tanto a nivel ciudadano como usuario, está servido
San Francisco (EE. UU.) se ha convertido en la primera ciudad del país en prohibir que su Gobierno emplee el reconocimiento facial. Pero, aunque los defensores de la privacidad lo celebran, el reglamento no impide que las compañías privadas usen esta tecnología que a muchas personas les resulta escalofriante.
Aun así, la decisión de la ciudad supone un primer paso. El uso de la tecnología de reconocimiento facial se ha vuelto cada vez más común, a pesar de que se ha confirmado que, con frecuencia, identifica erróneamente a las personas de color. Los activistas advierten que su uso podría llevar a falsos arrestos, a rastrear el paradero de las personas y a buscar a disidentes que no han hecho nada malo.
En los últimos años, los funcionarios de San Francisco se han visto obligados a cuestionar el uso que hacían de herramientas de vigilancia de alta tecnología. En 2009, la policía detuvo a una conductora, Denise Green, a la que tuvieron a punta de pistola mientras registraban su coche, todo porque un lector de matrículas dictó erróneamente que el vehículo había sido robado. Green los demandó y la ciudad terminó pagándole casi 450.000 euros. No hay duda de que esos episodios han aumentado la presión por prohibir su uso, aunque en este momento la policía de San Francisco no usa la tecnología de reconocimiento facial.
No resulta sorprendente que una ciudad obsesionada con la tecnología sea la primera en restringirla. "[Es como] los padres de Silicon Valley (EE.UU.) que limitan el tiempo que sus hijos pasan delante de una pantalla", opina la especialista en ética de datos y vicepresidenta de Privacidad y confianza en Obsidian Security, Laura Noren. Y considera probable que otras ciudades altamente tecnológicas sigan su ejemplo. Las cercanas Oakland y Somerville en Massachusetts (ambas en EE. UU.) ya han propuesto prohibiciones similares. No obstante, cree que, bajo la administración de Trump, una prohibición federal es poco probable.
Público no es lo mismo que privado
La experiencia de la mayoría de las personas con el análisis y reconocimiento facial no tendrá nada que ver con el control de la policía. Más bien, ocurrirá a raíz de iniciativas no gubernamentales, como cámaras de seguridad en escuelas y comercios que muestran a los consumidores anuncios dirigidos. Estos usos plantean los mismos riesgos de identificación errónea y discriminación, pero las iniciativas como la de San Francisco no las prohibirán.
Un ejemplo de los problemas que podrían surgir es el de un joven de 18 años que el mes pasado demandó a Apple porque, según él, un sistema de reconocimiento facial de una de sus tiendas lo vinculaba erróneamente con robos. (Según Apple, no usan ese tipo de sistemas en sus tiendas). En otro caso, los inquilinos de las Torres Atlantic Plaza, un edificio de apartamentos en la ciudad de Nueva York (EE.UU.), están luchando contra el plan de su propietario para sustituir el sistema de entrada por control remoto por un sistema de reconocimiento facial. Opinan que la tecnología resulta discriminatoria porque la mayoría de los residentes del edificio son personas de color. El inquilino Icemae Downes se pregunta: "¿Por qué [el propietario] eligió nuestro edificio para probar este sistema? ¿Y no alguno de los 11 otros edificios que tienen una composición diferente?".
Sin embargo, es poco probable que se produzca una prohibición total en el sector privado. Muchos usuarios ya utilizan FaceID para desbloquear sus iPhones o compran porteros automáticos con vídeo, como Nest Hello de Google, que identifican a personas conocidas. "Cuando se dice 'vigilancia gubernamental', suele sonar fuerte. Pero cuando se trata del sector privado, surgen debates sobre lo que representa una innovación beneficiosa", sostiene el asesor de políticas para el Proyecto de Privacidad y Datos en el Centro para la Democracia y la Tecnología Joseph Jerome.
Ese tipo de debates se complican rápido. Si las empresas usan tecnología de reconocimiento facial, ¿cómo deberían informar a los clientes sobre eso? ¿Qué derechos deberían tener las personas para no aceptarlo? ¿Sería fácil ese proceso? ¿Habría que ceder o vender los datos a terceros? Estas fueron algunas de las cuestiones que surgieron durante la discusión de un proyecto de ley de privacidad del Estado de Washington (EE. UU.) que fracasó a principios de este año, según el investigador de políticas tecnológicas de la Universidad de Washington Jevan Hutson. Las dos partes fueron incapaces de ponerse de acuerdo sobre lo fuerte que debería ser la restricción sobre la privacidad.
Aún así, las restricciones a los usos comerciales ya han empezado a aparecer, afirma la directora de pleitos de vigilancia de la Fundación Electronic Frontier, Jennifer Lynch. Por ejemplo, una ley de Illinois (EE. UU.) exige que las empresas obtengan consentimiento antes de recopilar cualquier tipo de datos biométricos. Un proyecto de ley bipartidista con requisitos más limitados, la Ley de Privacidad de Reconocimiento Facial Comercial, se encuentra actualmente en audiencias de comité en el Congreso.
Por su parte, Noren cree que las empresas perseguirán la condición de "umbral de precisión"; es decir, que el reconocimiento facial se permita durante el tiempo necesario para poder demostrar que no comete demasiados errores.
Finalmente, según Jerome, es pronto para saber cuánto influirá el reglamento de San Francisco en la regulación comercial. El experto detalla: "Creo que animará el debate que los estados y el Gobierno federal están teniendo en torno al reconocimiento facial, pero no está claro si eso llevará a la acción". Añade que hace unos años hubo una división similar entre lo público y lo privado sobre los drones: muchas ciudades prohibieron su uso por parte de la policía, pero hicieron poco para regularlo en cuanto a los fines comerciales.