Cadenas de bloques y aplicaciones
El hombre que intenta sacarnos de la 'cárcel' de filtros de Youtube
Tras años trabajando para Google y la propia plataforma de vídeos, y de descubrir que el algoritmo de recomendaciones atrapa al usuario en contenidos de dudosa credibilidad, Guillaume Chaslot ha creado AlgoTranspacency, un sitio web que le permite ver hacia qué vídeos le conduce el programa
Si alguna vez ha usado YouTube, probablemente haya notado que es fácil caer en una especie de trance: comienza viendo un vídeo gracioso de un gato y cuando se quiere dar cuenta, lleva más de una hora mirando vídeos. Cada uno de los clips ha sido útilmente recomendado para usted en el lado derecho de la pantalla por el algoritmo del sitio.
Cuanta más información tenemos sobre las redes sociales como Facebook y Twitter (ver Seis estrategias para evitar que Facebook y Twitter le manipulen), más conscientes somos de que los algoritmos se pueden utilizar para manipular a las personas de muchas maneras al mostrarnos más de una cosa y menos de otra. Esto podría estar bien (¡y hasta resultar divertido!) cuando lo que uno busca son inofensivos vídeos de gatitos. Pero los algoritmos también podrían guiar al usuario por un camino de miedos, teorías de conspiración y pensamientos unilaterales si lo que busca son vídeos de temas como las vacunas, los tiroteos escolares o el cambio climático.
YouTube tiene más de 1.000 millones de usuarios que visualizan unas 1.000 millones de horas de contenido al día. La plataforma ofrece algunos datos, como cuántas veces se ha visto un vídeo y si a la gente le gusta o no. Pero oculta detalles más específicos sobre cada vídeo, como cuántas veces recomienda el mismo vídeo a distintas personas. Sin una imagen completa, cuesta saber por qué el algoritmo dirige a cada usuario hacia una dirección determinada.
Foto: El exprogramador de YouTube y Google, Guillaume Chaslot, ha creado AlgoTransparency.org. Crédito: Cortesía de Guillaume Chaslot
El programador Guillaume Chaslot, que pasó algún tiempo trabajando en recomendaciones para YouTube y en publicidad gráfica en su empresa matriz, Google, considera que esto es un problema. Así que ha decidido emprender una lucha para que los usuarios tengan más transparencia sobre las recomendaciones del algoritmo. Para ello ha creado una plataforma llamada AlgoTransparency, en la que los visitantes puedan ver hacia dónde les lleva el algoritmo de YouTube si siguen sus recomendaciones en cuestiones como sobre elecciones recientes, tiroteos masivos, ciencia o algunos temas generales y términos de búsqueda relacionados que Chaslot ha elegido para desmantelar.
"Si alguien empieza a pasar tiempo en Youtube, debería poder saber hacia dónde le va a llevar el algoritmo", comenta Chaslot.
Desde que comenzó a seguir las recomendaciones en 2016, descubrió que para algunas frases, como "hechos de vacunas" o "calentamiento global", el algoritmo de recomendación de YouTube empuja a los usuarios vídeos conspiranóicos, anticientíficos o de medios de dudosa reputación. El algoritmo tiende a favorecer vídeos de políticos que fomentan la división, que hablan de una manera agresiva y acosadora, explica Chaslot.
También rastrea los términos que se mencionan con más frecuencia en los vídeos más recomendados. El 1 de abril, por ejemplo, los resultados para "la tierra es plana o redonda" se asociaban a términos como "plana", "NASA", "prueba" y "secreta".
Chaslot trabajó en YouTube en 2011 y luego en Google hasta 2013. El exempleado afirma que fue despedido por intentar dar a los usuarios más control sobre los algoritmos que recomiendan contenido, pero ni Google ni YouTube hicieron frente a esa afirmación en respuesta a una solicitud de comentario sobre este y otros problemas que Chaslot ha planteado.
Para llegar a estas conclusiones, el desarrollador siguió el algoritmo de sugerencias de YouTube. Luego probó su teoría construyendo un software que simula el acto de empezar a ver un vídeo en YouTube y pinchar en "Siguiente" para ver el próximo vídeo recomendado (que también se reproducirá automáticamente si tiene activada la función de reproducción automática de YouTube), una y otra y otra vez.
Además de ver hacia dónde llegan los usuarios bajo la influencia de los algoritmos, Chaslot quiere que los espectadores de YouTube sean más conscientes de cómo las recomendaciones podrían usarse para acumular visitas. Por ejemplo, si busca "tiroteo en Parkland" y le sale un vídeo que tiene 2,5 millones de reproducciones en YouTube, valdría la pena preguntarse si el algoritmo lo recomendó a 50 millones de veces hasta llegar a esas 2,5 millones de personas, o si solo lo recomendó 500.000 veces y el resto surgió de forma orgánica.
"Eso es muy diferente", dice Chaslot. Y actualmente no hay forma de saberlo.
Ante algunas preguntas sobre cómo y por qué YouTube sugiere vídeos a los usuarios, una portavoz de la plataforma proporcionó una declaración en la que afirmaba que su sistema de recomendaciones ha "cambiado sustancialmente" con el tiempo y ya no funciona como hace cinco años, cuando Chaslot trabajaba allí. La portavoz afirma que mientras que antes YouTube solía centrarse en el tiempo de reproducción, ahora también tiene en cuenta la satisfacción de las personas. Para ello, analizan las encuestas, las valoraciones de cada vídeo y otros datos.
YouTube también está haciendo cambios para abordar los problemas con sus recomendaciones. Según algunos informes, una versión de la aplicación YouTube Kids eliminará el algoritmo de recomendaciones de vídeos para que sean las personas las que emiten recomendaciones. Y en marzo, la directora ejecutiva de YouTube, Susan Wojcicki, dijo que la plataforma añadiría enlaces de Wikipedia a vídeos que incluyan temas "significativamente debatidos", como los relacionados con teorías de conspiración.
Ante este segundo cambio, Chaslot se pregunta por qué YouTube no quiere incluir esos enlaces de Wikipedia en todos los vídeos que toquen temas relevantes. "Eso sería más natural", señala Chaslot.
Además, no cree que sea difícil construir herramientas que ayuden a la gente a explorar el contenido de una manera más amplia. Mientras trabajaba en YouTube en 2011, Chaslot afirma que llegó a crear un prototipo de herramienta que funcionaba con los resultados de búsqueda de Google de los usuarios y que tenía en cuenta su historial de búsqueda para ampliar sus horizontes.
Con esta herramienta, si el usuario buscaba, por ejemplo, "Ford Focus", vería resultados específicos, pero a medida que avanzaba por la página, llegaría a vídeos de automóviles más generales. Si continúaba, acabaría llegando a resultados relacionados con otras cosas que hubiera buscado en el pasado (por ejemplo, patinar sobre hielo). "Es fácil construir herramientas para que la gente salga de sus burbujas de filtro, esto les permite ir más lejos y ver qué hay más allá de su burbuja de filtro", concluye Chaslot.