.

Otros

Los troles de internet escriben peor que el resto

1

Un algoritmo es capaz de detectar a los usuarios antisociales con solo entre cinco y diez comentarios en línea

  • por The Physics Arxiv Blog | traducido por Lía Moya
  • 13 Abril, 2015

Los troles son el azote de muchas páginas web. Se trata de gente que se dedica a tener un comportamiento antisocial a propósito publicando mensajes incendiarios o que se salen por la tangente. En el mejor de los casos, son una molestia frustrante. En el peor de los casos, pueden destrozarle la vida a la gente.

Así que conseguir una forma de detectar a los troles al principio de sus carreras en línea e impedir sus peores excesos sería una herramienta valiosa.

Ahora, Justin Cheng y otros investigadores de la Universidad de Stanford (EEUU) explican que han creado esa herramienta gracias al análisis del comportamiento de los troles en varios sitios web conocidos y creando un algoritmo capaz de detectarlos con precisión en apenas 10 comentarios. Y sostienen que su técnica debería resultar de gran importancia práctica para quienes gestionan comunidades en línea.

Cheng y sus colaboradores estudiaron tres comunidades de noticias en línea: el sitio de noticias generales CNN.com, el sitio de noticias políticas Breibart.com y el sitio dedicado a los videojuegos IGN.com

Partían con una lista de usuarios de cada uno de estos sitios a los que se ha expulsado por comportamiento antisocial, más de 10.000 en total. También contaban con todos los mensajes publicados por estos usuarios a lo largo del periodo que estuvieron activos. "Estos individuos son casos claros de usuarios antisociales y constituyen la 'verdadera base' en nuestros análisis", afirma Cheng.

Los investigadores se dispusieron a responder tres preguntas distintas sobre los usuarios antisociales. Primero, si son antisociales a lo largo de toda su vida en la comunidad o sólo hacia el final. En segundo lugar, si la reacción de la comunidad hace que su comportamiento empeore. Y, por último, si se puede detectar a los usuarios antisociales al principio de su participación en las comunidades.

Al comparar los mensajes publicados por los usuarios que acabaron expulsados con los de los usuarios a los que no se expulsa, Cheng y sus compañeros descubrieron algunas diferencias muy claras. Una medida que usaron es la legibilidad de las entradas, medida por el Índice de Legibilidad Automatizado.

Este índice destaca claramente que los usuarios que acaban expulsados tienden a escribir entradas de peor calidad desde el principio. Es más, la calidad de sus entradas empeora con el paso del tiempo.

Y aunque en un principio las comunidades tienden a perdonar y por lo tanto tardan en expulsar a los usuarios antisociales, con el paso del tiempo tienen menos tolerancia. "Esto da lugar a que las entradas de los usuarios antisociales se borren cada vez más pronto", afirman.

Lo que resulta más interesante es que Cheng y sus compañeros afirman que las diferencias entre los mensajes publicados por personas a las que luego se expulsa y los de aquellos a los que no son tan claras que es relativamente fácil detectarlos usando un algoritmo de aprendizaje automático. "De hecho, sólo tenemos que observar entre cinco y diez entradas de un usuario para que un clasificador pueda hacer una predicción fiable", se vanaglorian.

Y es algo que podría resultar útil. El comportamiento antisocial es un problema cada vez más grave y para cuya detección y tratamiento hace falta mucha implicación de los humanos. Muchas veces este proceso significa que se permite a los usuarios antisociales operar mucho más tiempo de lo necesario. "Nuestros métodos pueden identificar eficazmente a los usuarios antisociales muy al principio de su participación en la comunidad y aliviar parte de esta carga", sostienen los investigadores.

Evidentemente, hay que tener cuidado con cualquier método automatizado. Uno de los peligros potenciales es expulsar innecesariamente a usuarios que no son antisociales pero a los que el algoritmo ha identificado como tales. Esta tasa de falsos positivos debe estudiarse con cuidado.

A pesar de todo, muy pronto el trabajo de los moderadores en los sitios donde se pueden publicar comentarios podría ser mucho más fácil gracias al enfoque de Cheng y sus compañeros.

Ref: arxiv.org/abs/1504.00680: Comportamiento Antisocial en las Comunidades En Línea

Otros

  1. La IA ahora puede crear una réplica de tu personalidad

    Una entrevista de dos horas es suficiente para captar con precisión tus valores y preferencias, según una nueva investigación de Stanford y Google DeepMind.

  2. La difícil tarea de señalar quién debe pagar por el cambio climático

    Los mayores contaminadores del mundo, en cifras.

  3. Esto es lo que está sobre la mesa en la conferencia del clima (COP29) de este año

    Las conversaciones se centran en la financiación climática, pero los resultados de las elecciones de EE UU son de gran importancia