.

Pexels

Tecnología y Sociedad

Las redes sociales deben ser transparentes en su moderación de contenido

1

Cuando la radio y la televisión eran los guardianes de la información, asumieron las obligaciones del servicio público. Ahora, las plataformas digitales han heredado una posición similar, pero sin hacerse cargo de esas mismas responsabilidades. Necesitamos saber cómo luchan contra el odio y la desinformación

  • por Joan Donovan | traducido por Ana Milutinovic
  • 17 Noviembre, 2020

En 2016, las medidas que las empresas de tecnología estaban dispuestas a utilizar para eliminar la desinformación, el odio y el acoso de sus plataformas se podían contar con los dedos de una mano. A lo largo de los años, mecanismos tan simples como el bloqueo de contenido y la prohibición de cuentas se han transformado en un conjunto más complejo de herramientas, que incluyen la limitación de temas, la eliminación de algunas publicaciones en la búsqueda, las recomendaciones de bloqueo y la nueva clasificación de publicaciones en función de la prioridad. 

Sin embargo, incluso con este mayor número de opciones disponibles, la desinformación sigue siendo un problema grave. Este tema fue ampliamente debatido  durante el día de las pasadas elecciones estadounidenses. Mi colega Emily Drefyuss descubrió, por ejemplo, que cuando Twitter intentó lidiar con el contenido que usaba el hashtag #BidenCrimeFamily, con tácticas que incluían la "desindexación" bloqueando los resultados de búsqueda, los usuarios, incluido Donald Trump, se adaptaron utilizando otras variantes de la misma etiqueta. Pero todavía no sabemos mucho sobre cómo Twitter decidió hacer todo eso en primer lugar, o cómo examina y aprende de las estrategias que los usuarios usan para esquivar la moderación.

¿Qué acciones han adoptado estas empresas? ¿Cómo funcionan sus equipos de moderación? ¿Cuál es su proceso de toma de decisiones?

Mientras las empresas de redes sociales suspendían cuentas y etiquetaban y eliminaban publicaciones, muchos investigadores, organizaciones de la sociedad civil y periodistas intentaron comprender sus decisiones. La falta de transparencia sobre esas decisiones y procesos significa que, para muchos, los resultados electorales en EE. UU. terminan con un asterisco este año, igual que en 2016.

¿Qué acciones han adoptado estas empresas? ¿Cómo funcionan sus equipos de moderación? ¿Cuál es su proceso de toma de decisiones? En los últimos años, las empresas de estas plataformas crearon grandes grupos de trabajo dedicados a eliminar la desinformación sobre las elecciones y a etiquetar las primeras declaraciones de victoria. La profesora de la Universidad de California en Los Ángeles (UCLA, EE. UU.) Sarah Roberts ha escrito sobre el trabajo invisible de los moderadores de contenido de las redes sociales como una industria en la sombra, un laberinto de trabajadores autónomos y complejas reglas de las que la sociedad sabe poco. ¿Por qué no sabemos más? 

En la niebla postelectoral, las redes sociales se han convertido en el perfecto terreno para una guerra de bajo perfil contra nuestra seguridad cognitiva, con campañas de desinformación y teorías de conspiración proliferando. Cuando los medios por radio y televisión tenían el papel de guardianes de la información, asumían las obligaciones de servicio público, como compartir la información oportuna, local y relevante. Las empresas de redes sociales han heredado una posición similar en la sociedad, pero no han asumido esas mismas responsabilidades. Esta situación ha provocado una avalancha de quejas sobre los sesgos y la censura en su forma de moderar contenido relacionado con las elecciones.  

Asumir los costes

En octubre, participé en un panel de expertos sobre desinformación, conspiración e infodemia en la Comisión Permanente sobre Inteligencia de la Cámara de Representantes de EE. UU. Me acompañaron la antigua analista de la CIA Cindy Otis, la especialista en desinformación del Wilson Center Nina Jankowicz y la jefa de análisis de Graphika, Melanie Smith. 

Mientras preparaba mi declaración, Facebook tenía dificultades para hacer frente a QAnon, una megateoría de la conspiración de ultraderecha, a la que supervisa a través de su departamento de organizaciones peligrosas y que ya ha sido condenada por la Cámara del Congreso de EE. UU. en un proyecto de ley. Mi equipo lleva años investigando QAnon. Esta teoría de la conspiración se ha convertido en uno de los temas favoritos entre los investigadores de la desinformación por todas las estrategias con las que ha conseguido mantenerse flexible, adaptable y resistente frente a los esfuerzos de las empresas de plataformas para detenerla y eliminarla. 

QAnon también se ha convertido en un problema para el Congreso de EE. UU., porque ya no se trata de personas que participan en un extraño juego online: ha afectado como un tornado a la vida de los políticos, que se han convertido en el blanco de campañas de acoso y violencia por parte de los conspiradores. Además, esta evolución ha sucedido rápidamente y de formas completamente nuevas.

Las teorías de la conspiración suelen tardar años en difundirse entre la sociedad, con la promoción de figuras políticas, mediáticas y religiosas clave. Las redes sociales han acelerado este proceso a través de sus modos de entrega de contenido que no paran de crecer. Los seguidores de QAnon no solo comentan las últimas noticias; las interpretan según su interés

Centré mi declaración en los muchos daños no identificados causados por la incapacidad de las empresas de redes sociales para evitar que la desinformación sature sus servicios. Los periodistas, los profesionales médicos y de salud pública, los líderes de la sociedad civil y los administradores municipales, así como los agentes del orden público y los responsables electorales, pagan el precio de la desinformación a gran escala y sufren la carga de abordar sus efectos.

Mucha gente habla con cuidado sobre política con sus amigos y familiares, pero cuando la desinformación sobre las protestas empezó a movilizar a los vigilantes blancos y la desinformación médica llevó a la gente a restar importancia a la pandemia de coronavirus, diferentes sectores profesionales asumieron nuevos e importantes roles como defensores de la verdad

Un ejemplo serían los profesionales médicos y de la salud pública, que han tenido que desarrollar recursos para mitigar la desinformación médica sobre la COVID-19. Los médicos intentan convertirse en influencers para desmentir los bulos y las afirmaciones inventadas sobre curas milagrosas, lo que les quita tiempo para atender a los pacientes y desarrollar tratamientos.

Mientras tanto, muchas salas de redacción se adaptaron a la normalización de la desinformación en las redes sociales desarrollando un ritmo de desinformación: desacreditando las teorías de conspiración o las afirmaciones de noticias falsas que podrían afectar a sus lectores. Pero esos recursos estarían mucho mejor invertidos si se destinaran a mantener el periodismo de calidad en vez de servir como moderación de contenido de terceros. 

Las organizaciones de la sociedad civil también se han visto obligadas a gastar sus recursos en monitorizar la desinformación y proteger su base de algunas campañas específicas. La desinformación sobre la raza es una conocida táctica de las operaciones de influencia nacional y extranjera: las campañas se hacen pasar por comunidades de color o utilizan el racismo para impulsar la polarización en algunas cuestiones divisorias.

Brandi Collins-Dexter testificó sobre estos temas en una audiencia en el Congreso estadounidense en junio, destacando cómo las empresas tecnológicas se esconden detrás de los llamamientos para proteger la libertad de expresión a toda costa sin esforzarse lo suficiente para proteger a las comunidades negras atacadas diariamente en las redes sociales con desinformación médica, discursos de odio y acoso. 

Los responsables electorales, los miembros del orden público y los equipos de primera respuesta se encuentran en una seria desventaja al intentar llevar a cabo su trabajo, mientras los rumores y las teorías de la conspiración se difunden online.

Un posible camino

Cuando la desinformación pasa del mundo digital al físico, puede redirigir los recursos públicos y convertirse en una amenaza para la seguridad de las personas. Es por eso que las empresas de redes sociales deben tomar este problema tan en serio como su afán de obtener beneficios. 

Pero, necesitan un camino para mejorar. La Sección 230 de la ley de Decencia de las Comunicaciones de EE. UU. empodera a las empresas de redes sociales a mejorar la moderación del contenido, pero algunos políticos han amenazado con eliminar estas protecciones para poder continuar con sus propias campañas de propaganda. Durante toda la audiencia de octubre, se vislumbró la idea de una nueva agencia que podría auditar de forma independiente las violaciones de derechos civiles, analizar las cuestiones de privacidad de datos y evaluar las externalidades de mercado de esta industria en otros sectores. 

Como sostuve en aquel momento, el enorme alcance de las redes sociales en todo el mundo significa que es importante no iniciar el desmantelamiento de la Sección 230 hasta que se establezca una nueva política. Hasta entonces, necesitamos más transparencia. La desinformación no afecta únicamente los hechos, también se trata de quién puede decir cuáles son esos hechos. Las decisiones justas de moderación de contenido son clave para la responsabilidad pública. 

En lugar de aferrarnos a la tecnostalgia de unos tiempos que eran no tan malos, a veces vale la pena preguntarse qué se necesitaría para deshacer la invención de las redes sociales, para poder trazar el rumbo de la web que queremos, una web que promueva la democracia, el conocimiento, el esmero y la equidad. De lo contrario, cada inexplicable decisión de las empresas de tecnología sobre el acceso a la información se puede convertir en alimento para los conspiradores y, lo que es peor, en la base de una política gubernamental extralimitada.

Tecnología y Sociedad

Los avances tecnológicos están cambiando la economía y proporcionando nuevas oportunidades en muchas industrias.

  1. El éxodo a Bluesky marca el inicio de la era de las redes sociales descentralizadas

    Bluesky ha ganado terreno como alternativa a X, especialmente tras las últimas elecciones en EE UU. Sin embargo, este fenómeno no refleja el ascenso de un servicio ni el declive de otro, sino una tendencia hacia la descentralización

    Una persona entra a Bluesky desde su teléfono móvil
  2. La herramienta de Google DeepMind para "leer la mente" de la inteligencia artificial

    Un equipo de Google DeepMind ha creado Gemma Scope, una herramienta diseñada para desentrañar los procesos internos de una IA y comprender cómo llega a sus conclusiones. Este avance abre la puerta a algoritmos más transparentes y alineados con las expectativas humanas

    Google DeepMind tiene una nueva herramienta para explorar la IA
  3. El fundador de Oculus habla sobre la apuesta de EE UU por la realidad mixta en el campo de batalla

    El proyecto norteamericano de gafas militares está cuestionado, pero Palmer Luckey cree que los cascos dotados con IA y realidad aumentada serán clave en los ejércitos del futuro