.

Tecnología y Sociedad

Reddit, en peligro por la revisión de una sentencia histórica del Supremo de EE UU

1

Mientras las empresas tecnológicas se preparan para una sentencia importante, algunos expertos afirman que la moderación comunitaria en Internet podría verse amenazada

  • por Tate Ryan-Mosley | traducido por Ana Milutinovic
  • 06 Febrero, 2023

A finales de febrero el Tribunal Supremo de EE UU revisará un caso histórico que afecta a la legislación conocida como Sección 230 y todas las miradas estarán puestas en los principales actores tecnológicos: Meta, Google, Twitter y YouTube.

La Sección 230 es una disposición legal incluida en la Ley de Decencia en las Comunicaciones, que ha servido de base para el crecimiento explosivo de los gigantes tecnológicas. Por ejemplo, protegiendo a las plataformas sociales de demandas por contenidos perjudiciales generados por los usuarios y dándoles libertad para eliminar publicaciones a su discreción. Aunque estas siguen estando obligadas a retirar contenidos ilegales, como la pornografía infantil, si tuvieran conocimiento de su existencia. Si se deroga o reinterpreta la Sección 230, estas empresas podrían verse obligadas a transformar su enfoque sobre la moderación de contenidos y, de paso, revisar la arquitectura de sus plataformas.

Sin embargo, hay otra importante cuestión en juego, que ha recibido menos atención: dependiendo del resultado del caso, los usuarios individuales podrían de repente ser responsables de la moderación de contenidos comunes. Muchas webs dependen de los usuarios para la moderación de la comunidad al editar, dar forma, eliminar y promover el contenido de otros usuarios en línea. Como el upvote de Reddit, o los cambios en una página de Wikipedia. ¿Qué pasaría si los usuarios fueran responsables legalmente de cada decisión que toman sobre un contenido?

En resumen, el Tribunal podría cambiar la Sección 230 de una forma que no solo afectaría a las grandes plataformas, sino también a los espacios más pequeños como Reddit y Wikipedia, que dependen de la moderación de la comunidad, advierte Emma Llansó, directora del Proyecto de Libre Expresión del Centro para la Democracia y la Tecnología. "Sería una gran pérdida para las comunidades de expresión digitales si de repente fuera arriesgado para los propios editores hacer su trabajo", dice Llansó.

En un escrito de amicus curiae [figura procesal en el derecho anglosajón que permite a terceros ingresar en un procedimiento en el ámbito constitucional] presentado en enero, los abogados de Reddit argumentaron que su característica de upvote/downvote está en peligro por el fallo “González contra Google”, el caso que reexaminará la aplicación de la Sección 230. Los usuarios "determinan directamente qué contenido se promociona o es menos visible utilizando las innovadoras funciones de upvote y downvote. Todas esas actividades están protegidas por la Sección 230, que el Congreso elaboró para proteger a los usuarios de Internet, no solo a las plataformas", señala el escrito.

La clave del caso “González contra Google es si la "recomendación" de contenidos es diferente de la visualización de contenidos. Es decir, se entiende que tiene amplias implicaciones para los algoritmos de recomendación que impulsan plataformas como Facebook, YouTube y TikTok. Pero también podría repercutir en los derechos de los usuarios a dar "me gusta" [a una publicación], o promover contenidos en foros donde actúan como moderadores de la comunidad y potencian unos contenidos sobre otros.

Reddit se pregunta dónde encajan las preferencias de los usuarios, directa o indirectamente, en la interpretación de la "recomendación". "El peligro es que usted y yo, cuando usamos Internet, hacemos muchas cosas que no llegan a crear el contenido. Vemos el contenido de otras personas e interactuamos con él. ¿En qué momento somos nosotros mismos, por lo que hicimos, quienes recomendamos ese contenido?", dice Ben Lee, consejero general de esta red social.

Reddit cuenta con 50 millones de usuarios activos diarios, según el informe del amicus curiae, y clasifica su contenido en función de los votos a favor o en contra de los usuarios sobre las publicaciones y los comentarios en un hilo de discusión. Aunque emplea algoritmos de recomendación para ayudar a los nuevos usuarios a encontrar debates que les interesen, gran parte de su sistema de recomendación de contenidos se basa en estos votos impulsados por la comunidad. Por ello, un cambio en la moderación comunitaria modificaría el funcionamiento del sitio de manera drástica. 

Lee se pregunta: "¿Se nos puede demandar, con buenas intenciones, solo porque hemos puesto dos estrellas en la reseña de un restaurante, porque hemos votado a favor o en contra de una publicación, por ayudar voluntariamente a nuestra comunidad y eliminar o añadir publicaciones? ¿Son suficientes [estas acciones] para que seamos responsables de algo?".

Una amenaza existencial para las plataformas más pequeñas

Además, Lee señala un caso reciente en la historia de Reddit. En 2019, en el subreddit Screenwriting, los usuarios empezaron a hablar de concursos de guion que sospechaban que eran estafas. El operador de esas supuestas estafas pasó a demandar al moderador de Screenwriting por anclar y comentar las publicaciones, priorizando así ese contenido. El Tribunal Superior de California (Los Ángeles) eximió al moderador de la demanda. Según Reddit, debido a la protección de la Sección 230. A Lee le preocupa que una interpretación diferente de la Sección 230 pueda dejar a los moderadores, como el de r/Screenwriting, más vulnerables a demandas similares en el futuro.

"La realidad es que cada usuario de Reddit desempeña un papel a la hora de decidir qué contenidos aparecen en la plataforma" "En ese sentido, debilitar la [Sección] 230 puede aumentar la responsabilidad de la gente corriente", afirma Lee.

Llansó coincide en que la Sección 230 protege a los usuarios de las plataformas, así como a las empresas que las alojan.

"La moderación comunitaria suele ser una de las más eficaces porque cuenta con las personas más implicadas. A menudo son personas con contexto y entienden lo que la comunidad quiere o no quiere ver", afirma Llansó.

A Wikimedia, la fundación que gestiona Wikipedia, también le preocupa que una nueva interpretación de la Sección 230 pueda dar paso a un futuro donde los editores voluntarios puedan ser llevados ante los tribunales por la forma en la que tratan los contenidos de los usuarios. Toda la información de Wikipedia es creada, verificada, editada y organizada por voluntarios, lo que hace que el sitio sea vulnerable a los cambios en la responsabilidad que permite la Sección 230.

"Sin la Sección 230, Wikipedia no podría existir", afirma Jacob Rogers, consejero general adjunto de la Fundación Wikimedia. Rogers también afirma que la comunidad de voluntarios que gestiona los contenidos de Wikipedia "diseña políticas y procesos de moderación de contenidos que reflejan los matices de compartir conocimiento libre con el mundo. Una alteración de la Sección 230 pondría en peligro este proceso al centralizar aún más la moderación de contenidos, eliminando las voces comunitarias y reduciendo la libertad de expresión".

En su propio escrito al Tribunal Supremo, Wikimedia advirtió de que los cambios en la responsabilidad imposibilitarían que las empresas tecnológicas más pequeñas compitieran con las más grandes. Ya que estas últimas pueden permitirse luchar contra un sinfín de demandas. Los abogados de la Fundación Wikimedia escribieron: "Los costes de defender las demandas que cuestionan el contenido alojado en los espacios de la Fundación Wikimedia supondrían amenazas existenciales para la organización".

Lee también se hace eco de este punto, señalando que Reddit está "comprometida a mantener la integridad de nuestra plataforma, con independencia del panorama legal". Pero la Sección 230 protege a las empresas más pequeñas de Internet que no tienen grandes presupuestos para litigios, y cualquier cambio en la ley "haría más difícil para las plataformas y los usuarios moderar con buena fe", asegura Lee.

Sin duda, no todos los expertos creen que los escenarios planteados por Reddit y Wikimedia sean probables. "Esto podría ser un pequeño desastre, pero [las empresas tecnológicas] casi siempre dicen que Internet se va a destruir", afirma Hany Farid, profesor de ingeniería e información de la Universidad de Berkeley en California.

Farid es partidario de aumentar la responsabilidad sobre la moderación de los contenidos, argumentando que los perjuicios de las recomendaciones específicas basadas en datos online justifican algunos de los riesgos que conlleva una sentencia, en el caso “González contra Google”. "Es cierto que Reddit tiene un modelo diferente de moderación de contenidos, pero lo que no te están diciendo es que algunas comunidades están moderadas y pobladas por incels, supremacistas blancos, racistas, negacionistas de las elecciones, negacionistas del COVID-19, etc.", afirma el profesor de ingeniería.

Además, en respuesta a la declaración de Farid, un portavoz de Reddit escribe: "las políticas de nuestro sitio prohíben estrictamente los contenidos que inciten al odio -incluidos los motivados por género o raza-, así como la manipulación de contenidos y la desinformación".

Brandie Nonnecke, directora fundadora del CITRIS Policy Lab -una organización de investigación sobre medios sociales y democracia de la Universidad de Berkeley en California-, subraya un punto de vista común entre los expertos: la regulación debe frenar los daños de los contenidos online, pero mediante una legislación, no a través de una decisión del Tribunal Supremo. Ya que esta podría dar lugar a amplias consecuencias imprevistas, como las esbozadas por Reddit y Wikimedia. 

"Todos estamos de acuerdo en que no queremos que los sistemas de recomendación difundan contenidos nocivos. Pero intentar abordarlo modificando la Sección 230 de esta forma tan radical es como si un cirujano utilizara una motosierra en lugar de un bisturí", concluye Nonnecke.

Tecnología y Sociedad

Los avances tecnológicos están cambiando la economía y proporcionando nuevas oportunidades en muchas industrias.

  1. El éxodo a Bluesky marca el inicio de la era de las redes sociales descentralizadas

    Bluesky ha ganado terreno como alternativa a X, especialmente tras las últimas elecciones en EE UU. Sin embargo, este fenómeno no refleja el ascenso de un servicio ni el declive de otro, sino una tendencia hacia la descentralización

    Una persona entra a Bluesky desde su teléfono móvil
  2. La herramienta de Google DeepMind para "leer la mente" de la inteligencia artificial

    Un equipo de Google DeepMind ha creado Gemma Scope, una herramienta diseñada para desentrañar los procesos internos de una IA y comprender cómo llega a sus conclusiones. Este avance abre la puerta a algoritmos más transparentes y alineados con las expectativas humanas

    Google DeepMind tiene una nueva herramienta para explorar la IA
  3. El fundador de Oculus habla sobre la apuesta de EE UU por la realidad mixta en el campo de batalla

    El proyecto norteamericano de gafas militares está cuestionado, pero Palmer Luckey cree que los cascos dotados con IA y realidad aumentada serán clave en los ejércitos del futuro