Un grupo de investigadores afirma que los sistemas de recomendación pueden estar siendo distorsionados por una minoría de usuarios.
Cuando se hacen búsquedas en internet para encontrar un nuevo aparato, o para comprar o alquilar una película, mucha gente pone mucha atención al número de estrellas que otorgan los consumidores en las webs más populares. Sin embargo, una nueva investigación confirma lo que algunos ya sospechábamos: los pequeños grupos de usuarios altamente activos pueden que cambien esas clasificaciones.
Vassilis Kostakos, profesor asistente en la Universidad de Madeira, en España, así como profesor asistente adjunto en la Universidad Carnegie Mellon (CMU), afirma que los sistemas de clasificación pueden hacer uso de la “sabiduría de las masas” para ofrecer información útil, aunque también pueden distorsionar la imagen de un producto si no es votado por un gran número de usuarios. “Resulta que la gente tiene unos patrones de voto muy distintos,” afirma, y varían entre los individuos y las comunidades de usuarios.
Kostakos se dedicó al estudio de los patrones de votación en Amazon, la Internet Movie Database (IMDb), y la página de crítica literaria BookCrossings. La investigación fue presentada el mes pasado en la Conferencia Internacional IEEE 2009 sobre Computación Social. Su equipo estudió cientos de miles de objetos y millones de votos a lo largo de esos tres sitios. En cada caso, descubrieron que un pequeño número de usuarios era responsable de una gran cantidad de clasificaciones. Por ejemplo, sólo el 5 por ciento de los usuarios activos de Amazon votan en más de 10 productos. Otro grupo de usuarios votaron acerca de cientos de objetos.
“Si hay dos o tres personas que votan 500 veces,” afirma Kostakos, los resultados puede que no sean representativos de la comunidad en general. Kostakos cree que este puede ser el motivo por el que las clasificaciones a veces son tan extremas.
Jahna Otterbacher, conferenciante en la Universidad de Chipre, y dedicada al estudio de los sistemas de clasificación online, afirma que los estudios previos apuntaban a que los sistemas de clasificación se pueden desviar debido a factores como la edad de los participantes. No obstante, afirma que algunos sitios, entre los que se incluye Amazon, ya incorporan mecanismos diseñados para controlar la calidad de las clasificaciones—por ejemplo, permitiendo a los usuarios votar acerca de la utilidad de las críticas de otros usuarios.
Kostakos propone métodos adicionales para hacer que las recomendaciones sean más fiables. Sugiere que las votaciones sean más sencillas, para que más gente se anime a votar, y esperar hasta que un objeto haya recibido un cierto número de clasificaciones antes de mostrarlas.
Niki Kittur, profesora asistente en CMU, dedicada al estudio de la colaboración entre usuarios en Wikipedia y que no formó parte del trabajo de Kostakos, afirma que sería útil ofrecer más información acerca de los patrones de votación. Kittur sugiere que los sitios podrían crear métodos para hacer un resumir fácilmente y representar las contribuciones de los usuarios y así revelar las faltas de imparcialidad más evidentes. “Hay faltas de imparcialidad intencionadas y fortuitas,” afirma Kittur. “Finalmente, lo que necesitamos realmente son herramientas y transparencia.”
Kostakos también sugiere que se eliminen las críticas extremadamente negativas y las extremadamente positivas, para que los sitios no sean demasiado positivos o negativos en líneas generales. Sin embargo a Otterbacher, que está examinando críticas publicadas en IMDb, Amazon y Yelp, le preocupa que una política como tal pudiese desanimar a la gente a la hora de formar parte de la clasificación. “La gente que escribe críticas quiere decir algo acerca del objeto, y pueden ponerle mucha pasión a sus opiniones,” afirma.