A pesar del aplauso a la decisión de Twitter de censurar la cuenta de Donald Trump, el problema de la moderación de contenido en redes sociales es mucho más amplio. Es imprescindible que sean los expertos quienes analicen la situación y que las decisiones de las compañías sean coherentes con los derechos humanos
El 7 de enero, después de que supremacistas blancos asaltaran violentamente el Capitolio de Estados Unidos, Twitter y Facebook suspendieron la cuenta del todavía presidente del país, Donald Trump, en sus respectivas plataformas. Al día siguiente, Twitter hizo que su suspensión se volviera permanente.
Muchos elogiaron la decisión de la red social de evitar que Trump haga más daño en un momento en el que sus partidarios siguen las indicaciones de sus falsas afirmaciones de que las elecciones han sido manipuladas. Los republicanos criticaron la decisión de Twitter como una violación de la libertad de expresión.
Pero no lo fue. Del mismo modo que Trump tiene derecho a decir tonterías desquiciadas, las empresas de tecnología también tienen derecho para eliminar ese contenido. A pesar de que algunos expertos han calificado esa decisión como sin precedentes, o como "un punto de inflexión en la batalla por el control de la expresión digital", como tuiteó Edward Snowden, no lo fue: en absoluto. Twitter y Facebook no solo eliminan regularmente todo tipo de forma de expresión prohibida, sino que, en el caso de Trump, ni siquiera es la primera vez que las plataformas eliminan a una figura política importante.
Tras las noticias sobre el genocidio en Birmania, Facebook prohibió la cuenta del general superior del país y de otros líderes militares que utilizaban la plataforma para fomentar el odio. La compañía también prohíbe las publicaciones de Hezbollah debido a su condición de organización terrorista extranjera, según Estados Unidos, a pesar de que el partido tiene escaños en el parlamento libanés. Y no permite publicar a los líderes de los países sometidos a las sanciones estadounidenses.
Al mismo tiempo, tanto Facebook como Twitter se han apegado al principio de que el contenido publicado por autoridades electas merece más protección que el de personas comunes, lo que le da al discurso de los políticos más poder que al del resto de la gente. Esta posición es contraria a las múltiples pruebas de que el discurso de odio de personajes públicas tiene un mayor impacto que el contenido similar de los usuarios comunes.
No obstante, es evidente que estas políticas no se aplican de manera uniforme en todo el mundo. Al fin y al cabo, Trump no es el único líder mundial que utiliza estas plataformas para fomentar el malestar. Solo hay que mirar al BJP, el partido del primer ministro de India, Narendra Modi, para encontrar más ejemplos.
Aunque existen beneficios a corto plazo, y mucha satisfacción, por poder prohibir a Trump, esta decisión (así como otras previas) plantea dudas más fundamentales sobre la libertad de expresión. ¿Quién debería tener el derecho a decidir lo que podemos decir y lo que no? ¿Qué significa que una empresa pueda censurar a un funcionario del Gobierno?
El personal de Políticas de Facebook, y Mark Zuckerberg en particular, llevan años demostrando no ser muy buenos a la hora de juzgar qué contenido es apropiado y cuál no. Desde la prohibición de los senos de la plataforma hasta su tendencia a suspender a los usuarios por responder contra el discurso de odio, o su total fracaso para eliminar los llamamientos a la violencia en Birmania, la India y otros lugares, simplemente no hay ni una sola razón para confiar en Zuckerberg y en otros líderes tecnológicos para tomar estas grandes decisiones de forma correcta.
La cuestión legal
Para solucionar estas preocupaciones, algunos piden más regulación. En los últimos meses, han proliferado peticiones de ambos bandos políticos para revocar o enmendar la Sección 230, la ley que protege a las empresas de la responsabilidad por las decisiones que toman sobre el contenido que alojan, a pesar de algunas tergiversaciones graves de algunos políticos que deberían saber mejor cómo funciona la ley .
Lo que pasa es que la revocación de la Sección 230 probablemente no habría obligado a Facebook o Twitter a eliminar los tuits de Trump, ni evitaría que las empresas eliminen el contenido que consideran inapropiado, ya sea pornografía o los desvaríos desquiciados de Trump. Los derechos fundamentales de las empresas son los que les permiten gestionar sus plataformas como mejor les parezca.
De hecho, revocar la Sección 230 obstaculizaría a los competidores de Facebook y demás gigantes tecnológicos, y pondría un mayor riesgo de responsabilidad en las plataformas por lo que eligen alojar. Por ejemplo, sin la Sección 230, los abogados de Facebook podrían decidir que alojar contenido antifascista es demasiado arriesgado a la luz de los ataques a activistas antifascistas (los Antifa) por parte de la administración de Trump.
¿Qué significa que una empresa pueda censurar a un funcionario del Gobierno?
No se trata de un escenario descabellado: las plataformas ya prohíben la mayor parte del contenido que podría estar mínimamente relacionado con organizaciones terroristas extranjeras, por miedo de convertirse en responsables de apoyar ese contenido.
Como resultado, se han eliminado pruebas de crímenes de guerra en Siria y reacciones cruciales en contra de las organizaciones terroristas del extranjero. De manera similar, las plataformas han sido criticadas por bloquear cualquier contenido aparentemente conectado a países bajo sanciones de EE. UU. En un ejemplo especialmente absurdo, Etsy prohibió una muñeca hecha a mano, fabricada en Estados Unidos, porque la descripción contenía la palabra "persa".
No es difícil ver cómo el aumento de la responsabilidad de las plataformas podría provocar que las empresas (cuyo interés no es "conectar el mundo" sino sacar provecho de él) eliminen contenido vital.
No tienen que ser neutras, pero deben jugar limpio
A pesar de lo que sigue repitiendo el senador Ted Cruz, no hay nada que exija que estas plataformas sean neutras, ni debería haberlo. Si Facebook quiere echar a Trump, o censurar fotos de madres lactantes, es su decisión. El problema no es que Facebook tenga el derecho de hacerlo, sino que, debido a sus adquisiciones y crecimiento sin obstáculos, sus usuarios prácticamente no tienen a dónde ir y están atrapados bajo reglas cada vez más problemáticas y moderación automatizada de contenido.
La respuesta no consiste en revocar la Sección 230 (que, de nuevo, obstaculizaría a la competencia) sino crear las condiciones para una mayor competencia. Ahí es donde la administración del próximo presidente, Joe Biden, debería enfocar su atención en los próximos meses. Y esos esfuerzos deben incluir a activistas y académicos expertos en la moderación de contenido para comprender la variedad de problemas con los que se enfrentan los usuarios en todo el mundo, en vez de centrarse en el debate dentro de EE. UU.
Las plataformas saben lo que deben hacer, porque la sociedad civil lleva años diciéndoselo. Tienen que ser más transparentes y garantizar que los usuarios tengan derecho a remediar cuando se tomen decisiones incorrectas. Los Principios de Santa Clara (EE. UU.) sobre transparencia y responsabilidad en moderación de contenido, respaldados en 2019 por la mayoría de las plataformas principales, pero adheridos solo por una (Reddit), ofrecen estándares mínimos para las empresas sobre estas medidas.
Las plataformas también deben ceñirse a sus compromisos existentes con una toma de decisiones responsable. Lo que es más importante, deben asegurarse de que las decisiones que tomen sobre el contenido sean coherentes con los estándares mundiales de derechos humanos, en lugar de establecer las reglas sobre la marcha.
Las personas razonables pueden estar en desacuerdo sobre si el hecho de prohibir a Trump en estas plataformas fue correcto, pero si queremos asegurarnos de que las plataformas tomen mejores decisiones en el futuro, no debemos buscar soluciones rápidas.