Joy Buolamwini, 28
MIT Media Lab (EE. UU.) y Liga de la Justicia Algorítmica
Cuando la IA fue incapaz de reconocer su rostro de piel oscura, decidió luchar contra los algoritmos sesgados
Cuando estaba en la universidad, Joy Buolamwini descubrió que algunos sistemas de análisis facial no eran capaces de detectar su rostro de piel oscura hasta que se puso una máscara blanca. La joven recuerda: "Literalmente la tecnología no me veía".
Esa fue la base de su tesis de posgrado en el Instituto Tecnológico de Massachusetts (EE. UU.). Cuando descubrió que los conjuntos de datos existentes para los sistemas de análisis facial estaban compuestos mayoritariamente por caras de hombres blancos, Buolamwini decidió crear un conjunto equilibrado con más de un millar de políticos de África y Europa. Cuando lo usó para probar los sistemas de inteligencia artificial (IA) de IBM, Microsoft y Face++, descubrió que su precisión variaba mucho en función del género y el color de la piel. Al determinar el sexo, las tasas de error de estos sistemas eran inferiores al 1 % para los hombres de piel más clara. Pero para las mujeres de rostro más oscuro, las tasas error llegaban al 35 %.
En algunos casos, como cuando Facebook etiqueta mal a alguien en una foto, el error no es mucho más que una molestia. Pero con un número cada vez mayor de sectores que dependen de la inteligencia artificial de reconocimiento facial (las fuerzas y cuerpos de seguridad la utilizan para la vigilancia predictiva y los jueces la están utilizando para determinar si es probable que los presos reincidan) las interpretaciones injustas resultan aterradoras. La joven alerta: "Tenemos que seguir comprobando nuestros sistemas, porque pueden fallar de maneras inesperadas".
Buolamwin, que es exbecaria de Rhodes y miembro del programa Fulbright, fundó la Liga de la Justicia Algorítmica (Algorithmic Justice League) para enfrentar el sesgo en los algoritmos. Más allá de solo sacarlos a la luz, espera desarrollar prácticas para evitar que aparezcan en primer lugar, como asegurarse de que los sistemas de reconocimiento facial se sometan a pruebas de precisión.