La selección personal de amigos tiene más peso a la hora filtrar noticias de propuestas políticas distintas a la de cada uno
¿Alguna vez te preguntas cuántas noticias con las que no estás de acuerdo políticamente no incluye el algoritmo de Facebook en tu feed? La red social dice que no demasiadas.
Facebook ha analizado a millones de sus usuarios más activos políticamente y ha llegado a la conclusión de que, aunque su algoritmo modifica las noticias más destacadas de tu feed, eres tú quien realmente limita cuántas noticias y opiniones ves de personas con posturas políticas distintas.
En un esfuerzo por explorar cómo consume la gente las noticias que comparten sus amigos con opiniones políticas diferentes, los investigadores de Facebook analizaron millones de URL compartidas por usuarios estadounidenses que se identifican en sus perfiles como liberales o conservadores. El trabajo, que deja más claro cómo obtenemos información de nuestras conexiones sociales, que son cada vez más grandes y más enredadas, se publicó ayer jueves en un artículo en la revista Science.
El investigador del equipo de Ciencia de los Datos de Facebook Eytan Bakshy y coautor del artículo, explica que el grupo halló que el algoritmo de noticias de Facebook sólo disminuye ligeramente la exposición de los usuarios a las noticias que comparten quienes tienen puntos de vista opuestos a los suyos.
"Hallamos que las elecciones individuales tienen más importancia que el efecto de la clasificación algorítmica, tanto en términos de con quién eligen ser amigos como qué eligen", afirma.
Este trabajo aparece más de tres años después de que Bakshy, y otros investigadores llegaran a la conclusión de que aunque es más probable que mires y compartas la información con tus contactos más cercanos, la mayor parte de la información que recibes en Facebook deriva de una red de personas con las que tienes conexiones tenues, refutando la idea de que las redes sociales en línea crean "burbujas filtro" que limitan lo que vemos a lo que queremos ver.
Sin embargo, Bakshy afirma que el estudio anterior, publicado en 2012, no medía directamente hasta qué punto estás expuesto a información de gente cuyos puntos de vista ideológicos son contrarios a los tuyos.
Para tener esa información, los investigadores buscaron datos anónimos de 10,1 millones de usuarios de Facebook que se definen como liberales o conservadores y siete millones de URL para noticias compartidas en Facebook del 7 de julio hasta el 7 de enero. Tras usar software para identificar las URL que eran noticias "duras" (artículos centrados en temas como las noticias y la política nacionales) compartidos por un mínimo de 20 usuarios con afiliación política expresa, los investigadores etiquetaron cada historia como adscrita a ideologías liberales, neutras o conservadoras, dependiendo de la tendencia política media de quienes compartían las historias.
Los investigadores hallaron que el 24% de las historias "duras" compartidas por los amigos de los usuarios de Facebook estaban en línea con los usuarios conservadores, mientras que el 35% de las historias "duras" que compartían los amigos de los usuarios conservadores estaban en línea con los usuarios liberales, una exposición de un 29,5% de media, en general, a contenido del otro extremo del espectro político.
Los investigadores también observaron el impacto del algoritmo de clasificación de noticias de Facebook sobre el tipo de noticias al que te ves expuesto. Bakshy afirma que en general el algoritmo reduce la exposición a contenidos de amigos con puntos de vista contrarios en menos de un 1%, del 29,5% al 28,5%.
Y a la hora de ver qué leían los usuarios finalmente, los investigadores informan de que los conservadores tenían un 17% menos de probabilidad de seguir un enlace a un artículo con tendencias liberales que otras noticias "duras" en su feed, mientras que los liberales tenían un 6% menos de probabilidades de seguir un artículo de afiliación conservadora que se les presentase.
El profesor adjunto de la Universidad de Stanford (EEUU) Sharad Goel, que ha estudiado las burbujas filtro, afirma que los investigadores de este campo llevan años especulando sobre este tema, pero que sólo Facebook estaba en una posición de poder explorarlo. Afirma que una cosa que merece la pena recordar es que la gente puede obtener sus noticias de muchas fuentes, lo que puede reducir el impacto de lo que ven en Facebook.
"Estoy de acuerdo con uno de sus mensajes principales, que el algoritmo por sí mismo no da lugar a mucha polarización".