Tras años de protestas y mala prensa, la red social ha creado un equipo interno para analizar los posibles sesgos racistas de sus plataformas. La medida, que llega bastante tarde, no es más que un tímido primer paso para abordar este enorme problema, para el que, además, nadie ha encontrado una solución clara
La noticia: tras los recientes conflictos raciales provocados por los asesinatos de ciudadanos negros a manos de la policía de EE. UU., Facebook afirmó hace un tiempo la creación de nuevos equipos internos para buscar sesgos raciales en los algoritmos que impulsan su red social principal e Instagram, según el Wall Street Journal. En concreto, las investigaciones abordarán los efectos adversos del aprendizaje automático (que pueden codificar el racismo implícito en los datos de entrenamiento) en los grupos de negros, hispanos y de otras minorías.
Por qué es importante: en los últimos años, cada vez más investigadores y activistas han puesto en el punto de mira el problema del sesgo en la inteligencia artificial (IA) y el impacto desproporcionado que tiene sobre las minorías. Facebook, que utiliza aprendizaje automático para organizar la experiencia diaria de sus 2.500 millones de usuarios, va con retraso en un análisis interno de este tipo. Ya existen pruebas de que los algoritmos de publicación de anuncios en Facebook discriminan por raza y permiten a los anunciantes evitar que algunos grupos raciales específicos vean sus anuncios, por ejemplo.
Bajo presión: Facebook ya tiene un historial de esquivar las acusaciones por sesgo en sus sistemas. Han hecho falta varios años de mala prensa y presión por parte de los grupos de derechos civiles para llegar a este punto. Facebook ha creado estos equipos después de un boicot publicitario de un mes organizado por distintos grupos de derechos civiles, incluida la Liga Anti-Difamación, Color of Change y NAACP, que llevó a grandes empresas como Coca-Cola, Disney, McDonald's y Starbucks a suspender sus campañas.
No hay una solución fácil: la medida es bien recibida. Pero iniciar una investigación está muy lejos de resolver el problema del sesgo racial, especialmente cuando nadie sabe realmente cómo solucionarlo. En la mayoría de los casos, existe un sesgo en los datos de entrenamiento y no se han acordado buenas prácticas para eliminarlo. Y ajustar esos datos, una manera de acción algorítmica afirmativa, resulta controvertido. Además, el sesgo del aprendizaje automático es solo uno de los problemas de las redes sociales en torno a la raza. Si Facebook va a analizar sus algoritmos, debería ser parte de una revisión más amplia que también tendría que lidiar con las políticas que ofrecen el servicio de las plataformas a los políticos racistas, a los grupos de supremacía blanca y a los que niegan el Holocausto.
Desde la compañía, la portavoz de Instagram, Stephanie Otway, afirma: "Seguiremos trabajando estrechamente con el equipo encargado de IA de Facebook para asegurarnos de detectar posibles sesgos en nuestras respectivas plataformas. Todavía es muy pronto y planeamos compartir más detalles sobre este trabajo en los próximos meses".