Skip to main content
Three reasons Meta will struggle with community fact-checking

Mark Zuckerberg anunció que Meta reduciría sus esfuerzos de moderación de contenidos y que eliminaría la verificación de hechos en EE UU. En lugar de eso, optará por un enfoque «más democrático», basado en las «Notas de la comunidad» de X (antes Twitter) porque, según el CEO, la anterior medida solo se implementó como respuesta a la presión de los medios y los gobiernos.

La medida ha generado preocupación, y con razón. Meta ha estado en el centro de varias polémicas sobre moderación, desde la eliminación excesiva de imágenes de mujeres amamantando hasta la moderación insuficiente de contenidos que incitaban al odio en Myanmar y que contribuyó al genocidio de los musulmanes rohingya. Además, eliminar la verificación profesional de los hechos abre la puerta a la propagación descontrolada de desinformación y odio.

La moderación en internet comenzó con voluntarios, mucho antes de que los grandes de las redes sociales se dieran cuenta de la necesidad de centralizar los esfuerzos. La moderación voluntaria puede ser efectiva: permite crear normas adaptadas a las necesidades de comunidades específicas. No obstante, sin un compromiso y supervisión adecuados por parte de Meta, un sistema así no puede manejar el volumen y la rapidez con que se comparte contenido en sus plataformas. Todavía no se sabe si funciona bien en X, que es utilizado por el 21% de los estadounidenses (mucho menos que las plataformas de Meta, donde Facebook llega al 70%, según Pew Research Center).

Las Notas de la comunidad, que nacieron en 2021 bajo el nombre de Birdwatch, es un sistema de moderación comunitario en X que permite a los usuarios registrados en el programa añadir contexto a las publicaciones. Delegar la verificación de hechos en usuarios es algo relativamente nuevo y los resultados hasta ahora han sido variados. Por ejemplo, los investigadores han descubierto que los participantes tienden a cuestionar más los contenidos con los que no están de acuerdo políticamente y que marcar contenidos como falsos no reduce la participación en ellos, pero también que las notas suelen ser precisasy que pueden ayudar a frenar la difusión de mensajes engañosos.

Como participante en las Notas de la comunidad e investigadora en moderación, esto es lo que he aprendido sobre las limitaciones de depender de voluntarios para esta tarea y lo que Meta debe hacer para tener éxito:

  1. El sistema pasará por alto falsedades y podría amplificar contenidos de odio

Existe el riesgo de que solo se verifiquen en el último momento, o no se verifiquen en absoluto, los mensajes sobre temas que mucha gente conoce. Piensa en cómo se trataría un post con una foto de una seta de la muerte y el título «Sabroso» bajo una moderación al estilo de Notas de la Comunidad. Si un experto en micología no ve la publicación, o la ve después de que se haya compartido ampliamente, es posible que no se marque como «Venenoso, no comer», al menos hasta que sea demasiado tarde. Las temáticas más recónditas se verán menoscabadas. Esto podría tener graves consecuencias tanto para los individuos (que podrían comer una seta venenosa) como para la sociedad (si una falsedad se difunde ampliamente).

Las Notas de la Comunidad de X no son visibles para los lectores cuando se añaden por primera vez. Una nota solo es visible para el resto cuando un número suficiente de colaboradores votan a favor de su exactitud. No todos los votos cuentan. Si una nota es votada solo por personas que tienden a estar de acuerdo entre sí, no aparecerá. X no hace visible una nota hasta que haya acuerdo entre personas que han estado en desacuerdo en valoraciones anteriores. Es un intento de reducir el sesgo, pero no es infalible. Sigue basándose en las opiniones de la gente sobre una nota y no en hechos reales. A menudo lo que se necesita es experiencia.
Yo modero una comunidad en Reddit llamada r/AskHistorians. Es un sitio público de historia con más de dos millones de miembros y una moderación muy estricta. Vemos que la gente se equivoca todo el tiempo. A veces son errores sencillos. No obstante, a veces hay contenido odioso que hace falta que los expertos reconozcan. En una ocasión, una pregunta que negaba el Holocausto escapó a la revisión durante horas y acabó acumulando cientos de upvotes antes de que un experto de nuestro equipo la descubriera. Cientos de personas -probablemente con patrones de voto muy distintos y opiniones muy diferentes sobre muchos temas- no sólo no se dieron cuenta de la naturaleza problemática del contenido, sino que decidieron promoverlo con sus votos positivos. Lo mismo ocurre con las respuestas a las preguntas. Las personas que no son expertas en historia votan a favor de respuestas anticuadas y que parecen verdaderas, pero que en realidad no son correctas. Por el contrario, votarán negativamente las buenas respuestas si reflejan puntos de vista difíciles de digerir.

r/AskHistorians funciona porque la mayoría de sus moderadores son historiadores expertos. Si Meta quiere que su programa al estilo de Community Notes funcione, debería asegurarse de que las personas con los conocimientos necesarios para hacer valoraciones vean los mensajes y de que la experiencia se tenga en cuenta en las votaciones, especialmente cuando hay un desajuste entre la comprensión común y el conocimiento experto.

  1. No funcionará sin voluntarios bien respaldados  

Los moderadores de contenidos a sueldo de Meta revisan lo peor de lo peor: gore, abuso y explotación sexual y violencia. Como resultado, muchos de ellos han sufrido graves traumas. Esto ha dado lugar a demandas judiciales y a iniciativas sindicales. Cuando Meta reduzca los recursos destinados a la moderación centralizada, la seguridad de la plataforma dependerá cada vez más de voluntarios no remunerados.

Los moderadores de las comunidades no tienen un trabajo fácil. Además de estar expuestos a contenidos horribles, como miembros identificables de sus comunidades, también son a menudo objeto de acoso y abuso, algo que experimentamos a diario en r/AskHistorians. Sin embargo, los moderadores de la comunidad solo moderan lo que pueden gestionar. Por ejemplo, aunque controlo habitualmente el discurso de odio y el lenguaje violento, como moderador de una comunidad basada en texto rara vez estoy expuesto a imágenes violentas. Además, trabajamos en equipo. Si me expongo a algo que me molesta o si alguien abusa de mí, mis colegas se hacen cargo y me proporcionan apoyo emocional. También me preocupa mucho la comunidad que modero. El interés por la comunidad, el apoyo entre compañeros y la autoselección contribuyen a mantener alta la moral de los moderadores voluntarios.

No está claro cómo se estructurará el nuevo sistema de moderación de Meta. Si los voluntarios eligen el contenido que marcan, ¿se reproducirá el problema de X, donde el partidismo afecta a qué publicaciones se marcan y cómo? Tampoco está claro qué tipo de apoyo proporcionará la plataforma. Si los voluntarios se ven expuestos a contenidos que les molestan, ¿proporcionará Meta -empresa que ha sido demandada por dañar la salud mental de sus moderadores de contenidos a sueldo- ayuda social y psicológica? Para tener éxito, la empresa tendrá que asegurarse de que los voluntarios tengan acceso a estos recursos y puedan elegir el tipo de contenidos que moderan (garantizando al mismo tiempo que esta autoselección no influya indebidamente en las notas).

  1. No puede funcionar sin protecciones y guardarraíles

Las comunidades en línea pueden prosperar cuando están dirigidas por personas que se preocupan profundamente por ellas. No obstante, los voluntarios no pueden hacerlo todo solos. La moderación no consiste solo en tomar decisiones sobre lo que es «verdadero» o «falso». También se trata de identificar y responder a otros contenidos perjudiciales. La decisión de Zuckerberg se une a otros cambios en las normas de la comunidad que debilitan las reglas sobre el contenido que incita al odio en particular. La moderación comunitaria forma parte de un ecosistema más amplio, y resulta mucho más difícil hacerlo cuando ese ecosistema se ve envenenado por contenidos tóxicos.

Empecé a moderar r/AskHistorians en 2020 como parte de un proyecto de investigación para aprender más sobre las experiencias entre bastidores de los moderadores voluntarios. Aunque Reddit había comenzado a abordar algunos de los casos de odio más extremo en su plataforma prohibiendo ocasionalmente comunidades enteras, se permitió que prosperaran y crecieran muchas comunidades que promovían la misoginia, el racismo y todas las demás formas de intolerancia. Como resultado, mis primeras notas de campo están llenas de ejemplos de discursos de odio extremo, así como de acoso y abuso dirigidos a los moderadores. Era difícil seguir el ritmo.

A mediados de 2020 sucedió algo. Después de una declaración muy blanda sobre el racismo por parte del CEO Steve Huffman, los moderadores del sitio cerraron sus comunidades en protesta. La plataforma escuchó. Reddit actualizó sus normas comunitarias para prohibir explícitamente la incitación al odio y empezó a aplicar la política de forma más activa. Aunque el odio sigue siendo un problema en Reddit, veo mucho menos ahora que en 2020 y 2021. La moderación comunitaria necesita un apoyo sólido porque los voluntarios no pueden hacerlo todo por sí solos. Es sólo una herramienta en la caja.

Si Meta quiere garantizar que sus usuarios estén a salvo de estafas, explotación y manipulación, además de odio, no puede depender únicamente de la comprobación de los hechos por parte de la comunidad. Esta decisión no pretende mantener a salvo a sus usuarios. Es un movimiento político para ganarse el favor de la nueva administración. Meta podría crear el programa perfecto de comprobación de hechos de la comunidad, pero como esta decisión va unida a un debilitamiento de sus prácticas de moderación más amplias, las cosas van a empeorar para sus usuarios en lugar de mejorar.

Sarah Gilbert es directora de investigación del Laboratorio de Ciudadanos y Tecnología de la Universidad de Cornell (EE UU).