La indignación sobre el trabajo de "contagio emocional" muestra una falta de entendimiento general sobre qué es Facebook y cómo funciona
El canal de noticias de Facebook es como una salchicha. Todo el mundo se la come, pero nadie sabe cómo se hace.
La brecha entre el uso de Facebook y nuestra comprensión sobre cómo funciona resulta problemática. A día de hoy casi todos somos conscientes de la indignación provocada por un artículo publicado en Proceedings of the National Academy of Sciences, que presentó pruebas de "contagio emocional" derivado de un experimento realizado en Facebook.
Sin embargo, los gritos de indignación expresan un malentendido general sobre qué es Facebook y cómo funciona. También, y como han señalado otros, la indignación es realmente parte de un sentimiento negativo general hacia esta plataforma de medios sociales.
Así que antes de derribar a Goliat, hagamos una pausa y entendamos qué es Facebook, cómo se realizó el estudio y cómo encaja en el contexto de las prácticas empresariales habituales.
En primer lugar, Facebook es una plataforma de "microradiodifusión", lo que significa que no es un diario privado o un servicio de mensajería. Aunque no es una definición oficial, sí emerge del diseño de Facebook: todo lo que publicas en Facebook tiene el potencial de convertirse en viral.
Esta distinción es importante ya que el estudio ha planteado muchas quejas sobre la privacidad, y muchas personas parecen esperar que la privacidad de Facebook sea equivalente a la de los correos electrónicos y las llamadas telefónicas. Sin embargo, una publicación en Facebook no es tan pública como un tuit o tan privada como una llamada telefónica. Es algo intermedio. En Facebook compartimos contenido con un grupo que puede incluir a decenas de personas, o miles. Independientemente del número de amigos de Facebook que tengamos, estos amigos tienen el poder de reenviar nuestras publicaciones a un público más amplio del previsto originalmente.
En segundo lugar, la idea de que el experimento ha violado la privacidad también está en desacuerdo con el diseño experimental. Después de todo, el experimento se ha basado en lo que se conoce técnicamente como una operación de ordenación. Sin embargo, una operación de ordenación no puede violar la privacidad. Para violar la privacidad el contenido tiene que ser revelado a un público involuntario. Ordenar y priorizar el contenido que se presenta a la audiencia prevista de un usuario (sus amigos de Facebook ya existentes) no puede revelar el contenido a la audiencia no intencional de ese usuario. Imagínate que el cartero pusiera las cartas en tu buzón de correo ordenadas por tamaño o por el apellido del remitente. Este orden podría afectar el orden en que abres las cartas e incluso tu respuesta emocional. Por ejemplo, abrir una factura grande antes de abrir la carta de la abuela podría arruinarte el estado de ánimo, pero la operación de ordenación realizada por el cartero no revela el contenido de las cartas a nadie, y por lo tanto, no viola tu privacidad. Así que si hay violaciones de privacidad, y puede que las haya, no proceden de la operación de ordenación del experimento.
Por último, es importante recordar que Facebook no generó el contenido que afectó al estado de ánimo de los usuarios. Ese contenido lo generamos tú y yo. Así que si estamos dispuestos a ponerle una pistola en la cabeza a Facebook por haber clasificado los contenidos que hemos creado, también debemos apuntarnos a nosotros mismos por haber creado ese contenido.
Esto nos lleva a la forma en que Facebook filtra el contenido, o cómo se fabrica la salchicha de Facebook. Muchos usuarios parecen creer que Facebook simplemente les muestra todo el contenido que generan sus contactos. Durante mucho tiempo, este no ha sido el caso. El algoritmo que realiza esta clasificación se llama Edgerank, y es la receta de la salchicha de Facebook. Edgerank decide qué contenido aparece en el canal de noticias de cada usuario. De alguna manera, se trata de un editor automatizado.
Edgerank aprende qué mensajes quieres mediante la asociación de "características" en los mensajes con la probabilidad de que te puedan gustar, hagas clic en ellos o añadas un comentario. Por ejemplo, si a menudo te gustan mensajes que incluyan vídeos, Edgerank puede dar prioridad a los mensajes que los contengan.
Edgerank, existe, entre otras cosas, debido a consideraciones de interfaz de usuario. Hay una razón por la que la mayoría de los sitios web, como Netflix o Amazon, tienen interfaces centradas en algoritmos que eligen contenido predeterminado para nosotros. Somos perezosos y los sitios web, hambrientos de tráfico, han aprendido que las características por defecto personalizadas en base a datos de comportamiento (como 'me gusta' y clics) funcionan mejor que las preguntas. Las encuestas, los formularios de inscripción y los controles manuales son un medio eficaz para hacer que la gente huya de tu sitio web.
Así que para Facebook es importante hacer ajustes en Edgerank, al igual que es importante para Netflix predecir qué películas vas a querer ver. Sin embargo, dado que se pueden extraer muchas características de una publicación de Facebook, los ingenieros de la compañía tienen que enseñar a Edgerank qué características debe buscar, y necesitan descubrir cuáles son las más importantes. Así que al igual que cualquier otro negocio, uno de los principales retos de ingeniería de Facebook es hacer ajustes en su receta de producto para maximizar la participación de los usuarios, que en el caso de Facebook incluye el tiempo que pasas en el sitio, la cantidad de interacción con los demás y con qué frecuencia lo visitas, entre otras cosas.
Entonces, ¿qué tiene que ver Edgerank con la ética de la investigación? En primer lugar, supongo que estamos de acuerdo en que no hay nada poco ético con el hecho de que el Edgerank de 2014 no sea el mismo que el de 2011. Al igual que un vendedor de coches usados puede decidir si desea aparcar cierto tipo de automóvil en la primera fila, Facebook decide cómo funciona Edgerank.
El experimento involucró simplemente hacer ajustes a Edgerank basados en una "nueva" característica: el contenido emocional de las palabras. Con ello, los investigadores encontraron pruebas estadísticamente significativas de contagio emocional, lo que significa que los mensajes "felices" o "tristes" fueron acompañados por un pequeño aumento de mensajes equivalentes.
¿Es esto un dilema ético?
Si los cambios en Edgerank a lo largo del tiempo no se consideran poco éticos, ¿son poco éticos los cambios en Edgerank para un subconjunto de la población? El alcance del cambio (global en vez de local) claramente no puede modificar por sí mismo la ética de un cambio, si ese cambio es aceptable a nivel mundial. Por lo que el problema ético tiene que estar en otra parte.
La siguiente cuestión es el contenido del cambio. ¿El uso del análisis de sentimientos como característica es algo poco ético? Probablemente no. La mayoría de nosotros filtramos el contenido que presentamos a los demás en base a consideraciones emocionales. De hecho, no nos limitamos a filtrar el contenido. A menudo lo modificamos basándonos en razones emocionales. Por ejemplo, ¿es poco ético suavizar un comentario triste o agresivo de un colega al compartirlo con los demás? ¿Ese cambio en las palabras es poco ético? ¿O es que el problema ético surge cuando un algoritmo, en vez de un editor humano, realiza la filtración?
Si hay algún uso no ético de las emociones en torno a este experimento, es el ángulo del miedo que han usado los medios de comunicación para vender la historia. Sin lugar a dudas, los medios han enmarcado la historia en torno a la ética y el miedo por una razón: sus propios datos les dicen que el miedo vende. De hecho, es irónico que la reacción instintiva de los medios ante un estudio sobre el contagio emocional sea inundar las fuentes de noticias con emociones negativas.
Cesar A. Hidalgo es profesor ABC de Desarrollo Profesional en el Media Lab del Instituto de Tecnología de Massachusetts (MIT, EEUU).