.

NeONBRAND / Unsplash

Inteligencia Artificial

La presión pública obliga a Facebook a buscar racismo en sus algoritmos

1

Tras años de protestas y mala prensa, la red social ha creado un equipo interno para analizar los posibles sesgos racistas de sus plataformas. La medida, que llega bastante tarde, no es más que un tímido primer paso para abordar este enorme problema, para el que, además, nadie ha encontrado una solución clara

  • por Will Douglas Heaven | traducido por Ana Milutinovic
  • 06 Octubre, 2020

La noticia: tras los recientes conflictos raciales provocados por los asesinatos de ciudadanos negros a manos de la policía de EE. UU., Facebook afirmó hace un tiempo la creación de nuevos equipos internos para buscar sesgos raciales en los algoritmos que impulsan su red social principal e Instagram, según el Wall Street Journal. En concreto, las investigaciones abordarán los efectos adversos del aprendizaje automático (que pueden codificar el racismo implícito en los datos de entrenamiento) en los grupos de negros, hispanos y de otras minorías.

Por qué es importante: en los últimos años, cada vez más investigadores y activistas han puesto en el punto de mira el problema del sesgo en la inteligencia artificial (IA) y el impacto desproporcionado que tiene sobre las minorías. Facebook, que utiliza aprendizaje automático para organizar la experiencia diaria de sus 2.500 millones de usuarios, va con retraso en un análisis interno de este tipo. Ya existen pruebas de que los algoritmos de publicación de anuncios en Facebook discriminan por raza y permiten a los anunciantes evitar que algunos grupos raciales específicos vean sus anuncios, por ejemplo.

Bajo presión: Facebook ya tiene un historial de esquivar las acusaciones por sesgo en sus sistemas. Han hecho falta varios años de mala prensa y presión por parte de los grupos de derechos civiles para llegar a este punto. Facebook ha creado estos equipos después de un boicot publicitario de un mes organizado por distintos grupos de derechos civiles, incluida la Liga Anti-Difamación, Color of Change y NAACP, que llevó a grandes empresas como Coca-Cola, Disney, McDonald's y Starbucks a suspender sus campañas.

No hay una solución fácil: la medida es bien recibida. Pero iniciar una investigación está muy lejos de resolver el problema del sesgo racial, especialmente cuando nadie sabe realmente cómo solucionarlo. En la mayoría de los casos, existe un sesgo en los datos de entrenamiento y no se han acordado buenas prácticas para eliminarlo. Y ajustar esos datos, una manera de acción algorítmica afirmativa, resulta controvertido. Además, el sesgo del aprendizaje automático es solo uno de los problemas de las redes sociales en torno a la raza. Si Facebook va a analizar sus algoritmos, debería ser parte de una revisión más amplia que también tendría que lidiar con las políticas que ofrecen el servicio de las plataformas a los políticos racistas, a los grupos de supremacía blanca y a los que niegan el Holocausto.

Desde la compañía, la portavoz de Instagram, Stephanie Otway, afirma: "Seguiremos trabajando estrechamente con el equipo encargado de IA de Facebook para asegurarnos de detectar posibles sesgos en nuestras respectivas plataformas. Todavía es muy pronto y planeamos compartir más detalles sobre este trabajo en los próximos meses".

Inteligencia Artificial

 

La inteligencia artificial y los robots están transformando nuestra forma de trabajar y nuestro estilo de vida.

  1. El gobierno de EE UU pone bajo la lupa a las empresas de IA por publicidad engañosa

    La Comisión Federal de Comercio (FTC) de Estados Unidos ha tomado medidas contra varias empresas de IA por mentir y realizar publicidad engañosa, una lucha que continuará durante el próximo mandato de Donald Trump

    La Comisión Federal de Comercio (FTC) de Estados Unidos ha tomado medidas contra varias empresas de IA
  2. Las emisiones de la IA están a punto de dispararse aún más

    Las emisiones de los centros de datos se han triplicado desde 2018. A medida que modelos de IA más complejos como Sora de OpenAI comiencen a generalizarse, es probable que esas cifras se disparen

    Ordenador portátil echando humo
  3. La IA llega al campo de batalla para redefinir la toma de decisiones en la guerra moderna

    Anduril, fabricante de drones y misiles con IA, ha firmado un acuerdo con el Pentágono de EE UU para integrar sus sistemas en conflictos armados y optimizar la toma de decisiones, un aspecto que ya ha generado preocupación en organismos internacionales como Human Rights Watch

    La IA llega al campo de batalla