Las empresas ya cuentan con los instrumentos necesarios para evaluar sus impactos más profundos en el tejido social y podrían usarlos para mitigar los efectos nocivos
Todos queremos poder decir lo que pensamos online: ser escuchados por nuestros amigos y hablar con nuestros oponentes (responderles). Al mismo tiempo, no queremos estar expuestos a un discurso inapropiado o que se pasa de la raya. Las empresas de tecnología abordan este problema estableciendo estándares para la libertad de expresión, una práctica protegida en EE UU por la ley federal. Contratan moderadores internos para examinar las piezas individuales de contenido y eliminarlas si las publicaciones violan las reglas predefinidas establecidas por las plataformas.
Ese enfoque claramente tiene sus problemas: el acoso, la desinformación sobre algunos temas como la salud pública y descripciones falsas de elecciones legítimas ocurren sin control. Pero incluso si la moderación de contenido se implementara a la perfección, aún pasaría por alto una gran cantidad de cuestiones que a menudo se presentan como problemas de moderación pero que en realidad no lo son. Para abordar esos temas, necesitamos una nueva estrategia: tratar a las empresas de redes sociales como posibles contaminadores del tejido social y medir directamente y mitigar los efectos que sus decisiones tienen en la población humana.
Eso significa establecer un marco de políticas, tal vez a través de algo similar a la Agencia de Protección Ambiental o la Administración de Alimentos y Medicamentos, pero aplicado a las redes sociales, que se usaría para identificar y evaluar los daños sociales generados por estas plataformas. Si esos daños persisten, este actor podría estar dotado de la capacidad de aplicar esas políticas. Pero para trascender las limitaciones de la moderación del contenido, esa regulación tendría que estar motivada por unas pruebas claras y ser capaz de tener un impacto demostrable en los problemas que pretende resolver.
La moderación (ya sea automatizada o realizada por personas) podría funcionar para lo que llamamos daños "agudos": aquellos causados directamente por algunas piezas individuales de contenido. Pero necesitamos este nuevo enfoque porque también existe una gran cantidad de problemas "estructurales", como la discriminación, la salud mental y la disminución de la confianza cívica, que se manifiestan de manera amplia en todo el producto en vez de en un contenido individual. Un ejemplo conocido de este tipo de problema estructural es el experimento de "contagio emocional" de Facebook de 2012, que mostró que el afecto de los usuarios (su estado de ánimo medido por su comportamiento en la plataforma) cambiaba considerablemente según la versión del producto a la que estaban expuestos.
Con el efecto negativo que se produjo después de que los resultados se hicieran públicos, Facebook (actualmente Meta) puso fin a este tipo de experimentación deliberada. Pero el hecho de que dejaran de medir tales efectos no significa que las decisiones sobre los productos no continúen teniéndolos.
Los problemas estructurales son resultados directos de la elección de productos. Los jefes de productos de empresas de tecnología como Facebook, YouTube y TikTok tienen incentivos para centrarse exclusivamente en maximizar el tiempo y la participación en las plataformas. Y la experimentación todavía sigue muy activa en este ámbito: casi todos los cambios de productos se realizan en pequeñas audiencias de prueba a través de ensayos controlados aleatorios. Para evaluar el progreso, las empresas implementan rigurosos procesos de gestión para fomentar sus misiones centrales (conocidos como Objetivos y resultados clave u OKR por Objectives and Key Results), incluso utilizando estos resultados para determinar sus bonificaciones y promociones. La responsabilidad de abordar las consecuencias de las decisiones sobre productos a menudo se asigna a otros equipos que normalmente se encuentran más abajo y tienen menos autoridad para resolver las causas fundamentales. Esos equipos generalmente son capaces de responder a daños agudos, pero a menudo no pueden solucionar los problemas causados por los productos en sí.
Con atención y dedicación, esta misma estructura de desarrollo de productos se podría convertir en la cuestión de los daños sociales. Habrá que recordar el testimonio de Frances Haugen ante el Congreso de EE UU el año pasado, junto con las revelaciones de los medios de comunicación sobre el supuesto impacto de Facebook en la salud mental de los adolescentes. Facebook respondió a las críticas explicando que había estudiado si los adolescentes sentían que el producto tenía un efecto negativo en su salud mental y si esa percepción les hacía usar menos el producto, y no si el producto realmente tuvo un efecto perjudicial. Si bien la respuesta puede haber abordado esa controversia en particular, ilustró que un estudio que apunte directamente a la cuestión de la salud mental, en vez de su impacto en la participación del usuario, no sería del todo correcto.
No será fácil incorporar evaluaciones del daño sistémico. Tendríamos que separar lo que realmente podemos medir de manera rigurosa y sistemática, lo que requeriríamos de las empresas y qué problemas priorizar en dichas evaluaciones.
Las empresas podrían implementar protocolos por sí mismas, pero sus intereses financieros a menudo van en contra de las limitaciones significativas en el desarrollo y crecimiento de sus productos. Esa realidad es un caso estándar para la regulación que se opera en nombre del público. Ya sea a través de un nuevo mandato jurídico de la Comisión Federal de Comercio de EE UU o pautas de mitigación de daños de una nueva agencia gubernamental, el trabajo del regulador sería colaborar con los equipos de desarrollo de productos de las empresas de tecnología para diseñar protocolos que se podrían implementar y medir durante el curso del desarrollo del producto para evaluar algunas señales significativas de daño.
Ese enfoque puede parecer engorroso, pero añadir este tipo de protocolos debería ser sencillo para las empresas más grandes (las únicas a las que se les debe aplicar la regulación), porque ya han incorporado ensayos controlados aleatorios en su proceso de desarrollo para medir su eficacia. La parte más lenta y compleja sería definir los estándares. La ejecución real de las pruebas no requeriría participación reguladora en absoluto; solo requeriría hacer preguntas de diagnóstico junto con las preguntas relacionadas con el crecimiento y luego hacer que esos datos sean accesibles para los revisores externos. Nuestro próximo estudio para la Conferencia ACM de 2022 sobre la equidad y acceso en algoritmos, mecanismos y optimización explicará este procedimiento con más detalle y describirá cómo se podría establecer de manera efectiva.
Cuando los productos que llegan a decenas de millones de personas se prueban para determinar su capacidad para impulsar la participación, las empresas deberían asegurarse de que esos productos, al menos en su conjunto, también cumplan con el principio de "no empeorar el problema". Con el tiempo, se podrían establecer estándares más agresivos para revertir los efectos existentes de los productos ya aprobados.
Existen muchos métodos que podrían ser adecuados para este tipo de proceso, que incluyen los protocolos como el medidor de afecto fotográfico, que se ha utilizado de forma diagnóstica para evaluar cómo la exposición a productos y servicios afecta el estado de ánimo. Las plataformas tecnológicas ya utilizan encuestas para evaluar los cambios en los productos. Según las periodistas Cecilia Kang y Sheera Frankel, para la mayoría de las decisiones sobre los productos Mark Zuckerberg analiza las métricas de crecimiento basadas en las encuestas, cuyos resultados fueron parte de su decisión de abandonar la versión más "sutil" del algoritmo de noticias de Facebook después de las elecciones de 2020.
Sería razonable preguntarse si la industria de la tecnología ve este enfoque como factible y si las empresas lucharían contra él. Aunque cualquier posible regulación podría generar tal reacción, hemos recibido comentarios positivos de las primeras conversaciones sobre este marco, tal vez porque bajo nuestro enfoque, la mayoría de las decisiones sobre los productos serían aprobadas. (Causar daños medibles del tipo descrito aquí es una barra muy alta, que la mayoría de las opciones de productos superarían). Y a diferencia de otras propuestas, esta estrategia evita la regulación directa del discurso, al menos fuera de los casos más extremos.
Al mismo tiempo, no tendríamos que esperar a que los reguladores tomen medidas. Las empresas podrían implementar fácilmente estos procedimientos por su cuenta. No obstante, establecer el cambio es difícil sin primero empezar a recopilar el tipo de datos de alta calidad que estamos describiendo aquí. Esto se debe a que no se puede probar la existencia de este tipo de daños sin una medición en tiempo real, lo que genera el desafío del huevo y la gallina. El monitoreo proactivo de los daños estructurales no resolverá los problemas del contenido de las plataformas. Pero podría permitirnos verificar de manera significativa y continua si se está subvirtiendo el interés público.
La Agencia de Protección Ambiental de Estados Unidos (EPA, por sus siglas en inglés) es una analogía adecuada. El propósito original de la agencia no era legislar la política ambiental, sino promulgar estándares y protocolos para que se pudieran hacer políticas con resultados repoducibles. Desde ese punto de vista, el impacto duradero de la EPA no fue resolver los debates sobre la política ambiental (no lo ha hecho), sino hacerlos posibles. Del mismo modo, el primer paso para reparar las redes sociales es crear la infraestructura necesaria para examinar los resultados en el lenguaje, en el bienestar mental y en la confianza cívica en tiempo real. Sin eso, no podremos abordar muchos de los problemas más apremiantes que crean estas plataformas.