.

Andrea Daquino

Tecnología y Sociedad

Podemos arreglar las redes sociales si las tratamos como una ciudad

1

Las fechorías del mundo real están limitadas por leyes físicas que no existen en internet, pero hay formas de imitarlas. Dificultar la creación de cuentas falsas, frenar la actividad pasado cierto umbral y reducir las funciones disponibles para los nuevos usuarios son algunas estrategias que podrían ayudar

  • por Sahar Massachi | traducido por Ana Milutinovic
  • 24 Diciembre, 2021

Estar en redes sociales se parece un poco a vivir en un nuevo tipo de ciudad, la ciudad más grande del mundo. Millones de personas pueden hacer cosas con las que sus padres nunca soñaron. Pueden vivir juntos, jugar juntos, aprender juntosEs una ciudad maravillosa, pero también está podrida. Las aguas residuales no tratadas fluyen por las calles. De vez en cuando, se produce un frenesí masivo. Un ciudadano denuncia a otro. Las relaciones se rompen irrevocablemente.

Mi trabajo consistía en proteger la ciudad. Fui miembro del equipo de Integridad Cívica de Facebook. Mis compañeros y yo investigábamos y solucionábamos los problemas de integridad: abusos en la plataforma para difundir engaños, incitación al odio, acoso, llamamientos a la violencia, etcétera. Con el tiempo, nos convertimos en expertos, gracias a todas las personas, horas y datos dedicados a este problema.

Como en cualquier comunidad de expertos, todos teníamos formas ligeramente diferentes de ver el problema. Por mi parte, empecé a pensar en ello como si fuera urbanista. La ciudad se debe diseñar correctamente desde el principio. Necesita barrios construidos con el objetivo de que las personas, las sociedades y las democracias puedan prosperar.

Se trata de un enfoque diferente, que está surgiendo en las empresas de redes sociales de todo el mundo: el diseño de la integridad. Los que nos dedicamos a la integridad intentamos defender un sistema de atacantes que han encontrado y aprendido a abusar de los errores y lagunas en las normas o en el diseño. Nuestro trabajo es detener sistemáticamente los daños online que los usuarios se causan entre ellos. No nos metemos (demasiado a menudo) en el lío de intentar tomar decisiones sobre una publicación o una persona específica. En cambio, pensamos en los incentivos, en los ecosistemas de información y en los sistemas en general. Las empresas de redes sociales deben priorizar el diseño de la integridad sobre la moderación de contenido, y la sociedad debe exigir la rendición de cuentas para ver si lo hacen.

Primero, demos un paso atrás: si las redes sociales son una ciudad nueva, ¿por qué es tan difícil gobernarla? ¿Por qué las ciudades reales no ven a millones de ciudadanos caer en sectas en solo unos meses? ¿Cómo pueden tener conferencias sin acoso (a escala de Gamergate), o clubes que no conviertan a la gente en autómatas que difunden propaganda? ¿Por qué no existen oleadas de reclutamiento nazi? ¿Qué tiene la ciudad física que no tenga la virtual?

Física. Es decir, límites físicos.

Como sociedad, hemos desarrollado una combinación de reglas, normas y patrones de diseño que funcionan, más o menos, para controlar algunos tipos de comportamientos terribles. Esas reglas asumen que no hemos desarrollado superpoderes. Sin embargo, estando online, las personas sí tienen poderes como la clonación (ejércitos de bots), el teletransporte (capacidad de publicar en muchos lugares simultáneamente), el encubrimiento (identidades falsas o sock puppets), etcétera.

En una ciudad física, cualquier propagandista está limitado por su fuerza vocal o su financiación. En la ciudad online, la misma persona puede publicar en 400 grupos (de decenas de miles de personas) cada hora, de forma gratuita. En una ciudad física, adoptar una nueva identidad implica maquillaje, documentos falsos y mucho trabajo duro. En la ciudad de las redes sociales, se requiere un proceso de registro de dos minutos para crear una nueva cuenta. La ciudad física está poblada por seres humanos. En la ciudad de las redes sociales, podríamos hablar en cualquier momento con alguien que en realidad resulta ser un robot. En una ciudad física, viajar lleva tiempo. En la ciudad de las redes sociales, resulta trivial que los adolescentes macedonios adopten identidades de miles de personas de otro hemisferio.

En un sistema en el que cuanto peor es el comportamiento, hay más incentivos para hacerlo, cualquier castigo posterior está condenado al fracaso. Afortunadamente, tenemos otros enfoques. Al fin y al cabo, la ciudad física tampoco resuelve los problemas vigilando y arrestando a todo el mundo. Las campañas de salud pública y los trabajadores sociales pueden ayudar a las personas antes de que sea demasiado tarde. Hemos construido espacios públicos como mercados de agricultores y bibliotecas para crear la noción de comunidad.

Si nosotros somos planificadores urbanos, entonces los moderadores de contenido son policías, jueces y jurados, todo junto. A estas personas, que suelen ser autónomos mal pagados y demasiado traumatizados, se les ha encomendado la imposible tarea de revisar millones de publicaciones potencialmente problemáticas y, en cuestión de segundos, sin un contexto crítico, determinar si violan las leyes de la ciudad (que no paran de cambiar) para aplicar las sanciones adecuadas.

Se ven obligados a decidir sobre casos de gran importancia con pruebas mínimas y sin juicio. Cualquiera que sea la forma en la que deciden, la gente está furiosa, y la ciudad nunca parece segura. La moderación de contenido no puede solucionar los problemas sistémicos que afectan a las redes sociales igual que los policías de tráfico no pueden proteger las carreteras sin marcas de carriles, límites de velocidad, señales o semáforos. Nunca detendremos ni censuraremos la vía de escape de este problema, y ni siquiera deberíamos intentarlo.

El trabajo de los equipos de integridad ofrece una solución diferente. Puede que actualmente seamos el centro de atención, pero ya tenemos una larga trayectoria en la industria. Hemos aprendido mucho de los enfoques para combatir el spam en el correo electrónico y en los motores de búsqueda, y hemos tomado muchos conceptos de la seguridad informática.

Una de las mejores estrategias para la integridad que hemos encontrado es volver a introducir algo de fricción del mundo real en las interacciones online. Me centraré en dos ejemplos para intentar explicarlo, pero hay muchos más mecanismos de este tipo, como límites en el tamaño del grupo, un sistema de karma o reputación (como el PageRank de Google), un indicador del "barrio de dónde eres", estructuras para buena conversación y un botón de compartir menos potente.

Por ahora, hablemos de dos ideas que los trabajadores de la integridad han desarrollado: las llamaremos exámenes de conducir y badenes reductores de velocidad.

Primero, debemos intentar que a las personas les resulte más difícil tener cuentas falsas. Imagínese si, después de ser arrestado por un crimen, cualquiera pudiera salir de la cárcel y camuflarse perfectamente como una persona completamente nueva. Imagínese si fuera imposible saber si hablamos con un grupo de personas o con una sola persona que cambiaba rápidamente de identidad. Esta falta de confianza no es buena. Al mismo tiempo, debemos recordar que las cuentas seudónimas no siempre son malas. Quizás la persona detrás del seudónimo sea un adolescente gay que no se lo ha contado a la familia, o un activista de derechos humanos que vive bajo un régimen represivo. No es necesario prohibir las cuentas falsas. Pero podemos subir su precio.

Es una solución análoga a la forma en la que, en muchos países, no se puede conducir un coche antes de aprender a manejarlo bajo supervisión y aprobar un examen de conducir. Del mismo modo, las cuentas nuevas no deberían tener acceso inmediato a todas las funciones de una app. Para usar las funciones que podrían resultar más abusivas (enviar spam, acosar, etcétera), tal vez una cuenta deba pagar algún precio en tiempo y esfuerzo. Quizás solo necesite tiempo para "madurar" o acumular suficiente buena voluntad en algún sistema de karma. A lo mejor debería hacer algunas cosas difíciles de automatizar. Solo después de que la cuenta se haya calificado a través de este "examen de conducir", se le confiará el acceso al resto de la app.

Los spammers podrían, por supuesto, superar esos obstáculos. De hecho, damos por sentado que lo harán. Pero no queremos ponérselo demasiado difícil a los usuarios legítimos de cuentas falsas. Sin embargo, al requerir un poco de esfuerzo para crear una nueva "identidad", estamos reintroduciendo algo de física en la ecuación. Se pueden gestionar tres cuentas falsas. Pero cientos o miles de ellas sería algo demasiado difícil.

Los peores daños online casi siempre provienen de usuarios avanzados. Esto es bastante intuitivo: las apps de redes sociales generalmente animan a sus miembros a publicar el máximo posible. Los usuarios avanzados pueden hacerlo con mucha más frecuencia y para diferentes públicos, y de forma más simultánea, de lo que es posible en la vida real. En las ciudades reales, el precio de que una persona haga daño está limitado por la necesidad física de que una persona determinada esté en un lugar o se dirija solo a un público a la vez. Esto no es así online.

Online, algunas acciones son perfectamente razonables si se realizan con moderación, pero se vuelven sospechosas cuando se llevan a cabo en gran volumen. Por ejemplo, crear dos docenas de grupos a la vez, comentar 1.000 vídeos por hora o publicar algo cada minuto durante todo el día. Cuando vemos que las personas usan demasiado una función, pensamos que probablemente estén haciendo algo parecido a conducir a una velocidad peligrosa. Tenemos una solución: badenes reductores de velocidad. Impedir que hagan eso durante un tiempo. Aquí no hay juicio de valor, no es un castigo, es una medida de seguridad. Tales medidas serían una manera fácil de volver las cosas más seguras para todos y al mismo tiempo incomodar solo a una pequeña fracción de usuarios.

Estas ideas se basan en el mismo principio: la fricción. Es otra forma de imponer precios más elevados a las acciones cuando empiezan a ser físicamente imposibles. Con los exámenes de conducir, la acción es la creación de una cuenta; con los badenes reductores de velocidad, la acción es publicar o comentar. Sin embargo, los costes no tienen que ser en dinero literalmente. Podrían implicar añadir un poco de retraso antes de completar la acción, penalizar la clasificación del contenido del usuario en el feed o cambiar la apariencia de algo para volverlo menos atractivo. En esencia: pasado cierto umbral, cada post / comentario / retuit / acción debe costar más que el anterior.

De hecho, a partir de esto, podemos obtener una buena definición de spamEl spam es lo que sucede cuando las personas hacen trampa aprovechando la falta de física online. La solución parece simple: arreglar la física para luchar contra los spammers. Al fin y al cabo, como industria, sabemos cómo combatir el spam.

El diseño de la integridad puede resolver algunos problemas espinosos, como la guerra continua sobre la "censura". Puede aliviar la presión sobre un sobrecargado sistema de moderación de contenido. Puede crear un sistema resistente tanto a los "ataques" intencionados de los servicios de inteligencia como a los problemas "orgánicos" de las personas que aprenden a abusar de las reglas. Pero el diseño de la integridad por sí solo no puede evitar que las empresas tomen malas decisiones.

La trampa de las partes interesadas puede arruinar el trabajo de cualquier equipo de integridad. Una gran parte de la lucha contra el spam proviene de descubrir las lagunas en el sistema y cerrarlas. Es imposible acabar con las lagunas que permiten el spam sin perjudicar también a las personas que actualmente se benefician de ellas. Cuando lo hacemos, estas personas se enfadan. Pueden quejarse de forma muy llamativa. Pero recuerde esto: el alcance actual de esas personas proviene del spam, pero no lo poseen. Es un robo, no un derecho. Si usted deja que le acobarden, fracasará.

A menudo, las empresas de redes sociales no superan esa prueba.

Durante demasiado tiempo, el trabajo sobre la integridad ha sido un servicio público atrapado dentro de entidades privadas. Hemos estado identificando formas de construir mejores ciudades y luchando para que se implementen, pero si nuestras propuestas van en contra de otros objetivos de la empresa, es posible que no vean la luz.

También hemos estado solos: si un equipo de una empresa descubre una nueva técnica importante para proteger a las personas, es difícil correr la voz a colegas de otros lugares. Por eso acabamos de lanzar el Integrity Institute, un grupo de expertos sin ánimo de lucro único en su tipo, dirigido por una comunidad de profesionales de la integridad. Avanzaremos en la teoría y la práctica del trabajo sobre la integridad y compartiremos ese conocimiento con la sociedad, las empresas y entre nosotros. El mundo merece escuchar explicaciones independientes y francas sobre cómo funcionan estas nuevas ciudades y cómo podemos construirlas mejor.

Sabemos qué deben hacer las empresas. Tienen que priorizar el diseño de la integridad, con conceptos como límites inspirados en la física y las estrategias de lucha contra el spam. Deben mantener cierta moderación de contenido, pero centrarse más en investigar los ataques en vez de arrestar metafóricamente a las personas por tirar basura. Necesitan mantenerse firmes y hacer cumplir sus propias normas.

También sabemos qué debería hacer la sociedad: presionar a las empresas para que hagan lo correcto o persuadir a sus trabajadores, anunciantes o legisladores para obligarlas. Simplemente renunciar no funcionará: su tío caerá en teorías de la conspiración independientemente de la frecuencia con la que inicie sesión en YouTube.

El diseño de la integridad ya existe en algunas empresas, pero necesita apoyo. Con demasiada frecuencia, las empresas impiden que estos equipos hagan su trabajo al máximo cuando entra en conflicto con otras prioridades de la empresa, como impulsar la participación.

En los últimos años, he tenido el honor de ver una explosión cámbrica en la teoría y la práctica de la integridad. He visto el trabajo riguroso, el profundo sentido de la profesionalidad y el alto nivel de habilidad que aportan mis compañeros al trabajo. Saben, y mucho, cómo construir las ciudades de redes sociales que todos anhelamos. Vamos a aplaudirles, aprendamos de ellos y ayudémosles a hacer su trabajo.

A pesar de todo, sigo creyendo en internet. La ciudad de las redes sociales es demasiado preciosa para dejarla que se pudra.

*Sahar Massachi es cofundador y director ejecutivo del Integrity Institute, y antiguo ingeniero de Integridad Cívica en Facebook.

Tecnología y Sociedad

Los avances tecnológicos están cambiando la economía y proporcionando nuevas oportunidades en muchas industrias.

  1. La nueva baza de China para presionar a EE UU pasa por restringir la exportación de litio

    China es una potencia en energías limpias, especialmente en las cadenas de suministro de baterías. Por ello, las tensiones y restricciones comerciales entre China y EE UU podrían poner en riesgo el avance en tecnologías climáticas y el desarrollo de vehículos eléctricos

  2. La suplantación de identidad amenaza la credibilidad de Bluesky

    Varios usuarios han sido víctimas de suplantación de identidad en Bluesky, una situación que pone de manifiesto un problema relacionado con el auge de cuentas falsas que, si no se aborda, podría dañar la reputación y credibilidad de la plataforma

    La suplantación de identidad amenaza la credibilidad de Bluesky
  3. Arati Prabhakar, directora saliente de Ciencia y Tecnología de EE UU: "Queremos entender si la IA es segura, pero aún no sabemos cómo"

    La directora de la Oficina de Política Científica y Tecnológica (OSTP) de la Casa Blanca, que probablemente dejará su cargo al finalizar la administración Biden, reflexiona sobre aspectos como los riesgos de la IA, las políticas migratorias y la Ley de Chips

    Arati Prabhakar, directora de Ciencia y Tecnología de EE UU