Identificar nuestros rostros en las imágenes plantea dilemas éticos importantes, ya que gobiernos y empresas podrían utilizar esta tecnología como una herramienta de vigilancia. Un influyente centro de investigación en el campo reclama que se tomen medidas urgentes para proteger a los consumidores
La inteligencia artificial (IA) ha experimentado un impresionante progreso en los últimos años. Sin embargo, ahora los rápidos avances están despertando algunos dilemas éticos relevantes.
El más importante de ellos es la forma en la que el aprendizaje automático puede identificar con gran precisión los rostros de las personas en fotos y vídeos. Esto nos permite desbloquear nuestro teléfono con una sonrisa, pero también hace que los gobiernos y las grandes corporaciones cuenten con una nueva y potente herramienta de vigilancia.
Un nuevo y extenso informe del AI Now Institute, un influyente instituto de investigación con sede en Nueva York (EE. UU.), acaba de nombrar el reconocimiento facial como un desafío clave para la sociedad y los legisladores.
La velocidad a la que se ha desarrollo el reconocimiento facial se debe al rápido avance de un tipo de aprendizaje automático conocido como el aprendizaje profundo. Esta tecnología se basa en una maraña de cálculos, muy parecidos a las conexiones en un cerebro biológico, para reconocer patrones en los datos. Actualmente es capaz de llevar a cabo el reconocimiento de patrones con una precisión asombrosa.
La identificación de objetos, o caras individuales, incluso en imágenes y vídeos de baja calidad, es una de las especialidades del aprendizaje profundo y las empresas se han apresurado a adoptar esas herramientas.
Por ello, el informe solicita al Gobierno de EE. UU. que tome medidas generales para mejorar la regulación de esta tecnología que avanza constantemente teniendo en cuenta el gran debate sobre las implicaciones en la privacidad. "La implementación de los sistemas de IA se está expandiendo rápidamente, sin un adecuado régimen de gobernanza, supervisión o rendición de cuentas", destaca el informe.
El estudio propone, por ejemplo, ampliar el poder de los organismos gubernamentales ya existentes para regular los problemas de IA, incluido el uso del reconocimiento facial: "Campos como la salud, la educación, la justicia penal y el bienestar tienen sus propios historiales, marcos regulatorios y riesgos.”
El informe también reclama una mayor protección de los consumidores contra las afirmaciones engañosas con respecto a la IA, insta a las empresas a renunciar a las reclamaciones de secreto comercial cuando está en juego la responsabilidad de los sistemas de IA (por ejemplo, cuando se utilizan algoritmos para tomar decisiones críticas y les pide que se rijan de manera más responsable cuando se trata de su uso.
El documento plantea además que se debe advertir a la sociedad cuándo se utilizan los sistemas de reconocimiento facial para monitorizar a los usuarios y señala que debería existir el derecho de rechazar el uso de dicha tecnología.
Sin embargo, la implementación de estas recomendaciones podría resultar un reto: el reconocimiento facial se está adoptando de forma increíblemente rápida. Se utiliza para desbloquear los últimos iPhones de Apple y habilitar los pagos, mientras que Facebook escanea millones de fotos todos los días para identificar usuarios específicos.
Hace unos días, Delta Airlines anunció un nuevo sistema de reconocimiento facial en el aeropuerto de Atlanta (EE.UU.). El Servicio Secreto de Estados Unidos también está desarrollando un sistema de seguridad de reconocimiento facial para la Casa Blanca, según un documento destacado por la UCLA (Universidad de California, Los Ángeles, EE.UU.). "El papel de la IA en la vigilancia generalizada se ha expandido enormemente en Estados Unidos, China y muchos otros países del mundo", señala el informe.
De hecho, la tecnología ha sido adoptada a una escala aún mayor en China. Esto a menudo implica las colaboraciones entre compañías privadas de inteligencia artificial y agencias gubernamentales. Las fuerzas policiales han usado IA para identificar a los delincuentes, y numerosos informes sugieren que se está utilizando para encontrar a los disidentes.
Incluso si no se usa de manera éticamente dudosa, esta tecnología también tiene algunos problemas ya incorporados. Por ejemplo, se ha demostrado que algunos sistemas de reconocimiento facial han sido programados con sesgos. Los investigadores de la Unión Americana de Libertades Civiles (ACLU por sus siglas en inglés) demostraron que es probable que una herramienta ofrecida a través del programa en la nube de Amazon identifique erróneamente a las minorías como delincuentes.
El informe también advierte sobre el uso de la monitorización de emociones en los sistemas de escaneo facial y detección de voz. Identificar las emociones de esta manera está relativamente poco comprobado, pero se usa de manera posiblemente discriminatoria, por ejemplo, para monitorizar la atención de los estudiantes.
"Es hora de regular el reconocimiento facial y el de las emociones", dice la cofundadora de AI Now y una de las autoras principales del informe, Kate Crawford. "La afirmación de 'ver' los estados interiores de las personas no es ni científico ni ético".