Cadenas de bloques y aplicaciones
Una inteligencia artificial se pone un cuerpo virtual para evitar el acoso dentro de los videojuegos
Ally no sólo analiza el lenguaje sino también el historial de interacciones entre los jugadores para distinguir si son amigos con una rivalidad amistosa o desconocidos que se atacan. En el segundo caso, envía a un personaje virtual para controlar la situación
En cualquier universo ficticio, puede ser complicado distinguir una rivalidad juguetona del acoso en toda regla. Los insultos lanzados mutuamente entre amigos que compiten dentro de un videojuego a menudo son una forma de camaradería. Pero entre desconocidos, esos mismos términos tienen un enfoque distinto, más problemático. Diferenciar uno del otro es crucial para cualquier productor de videojuegos que quiera fomentar una comunidad acogedora.
Spirit AI espera ayudar a los desarrolladores a dar apoyo a sus jugadores y desalentar los comportamientos de bullying con un sistema de detección de abusos e intervención llamado Ally. El software monitoriza las interacciones entre jugadores, lo que dicen y cómo se comportan, mediante las acciones disponibles dentro de un juego o plataforma social. Es capaz de detectar tanto el acoso verbal como las provocaciones no verbales, como por ejemplo cuando un jugador que acosa al avatar de otro jugador o que abusa de las herramientas de aviso.
"El acoso es un problema con muchos matices, así que estudiamos los patrones de las interacciones combinados con clasificadores de lenguaje natural, en lugar de depender únicamente de una lista de palabras claves", explica una de las desarrolladoras de Ally Ruxandra Dariescu.
Cuando Ally identifica un comportamiento potencialmente abusivo, comprueba si el acosador potencial y el otro jugador han tenido interacciones anteriores. Pero en lugar de limitarse a enviar una alerta a los desarrolladores del juego, es capaz de enviar un personaje controlado por ordenador a contactar con el jugador. Gracias a las herramientas de lenguaje natural de Ally, su avatar es capaz de conversar con un tono y estilo adecuados para el juego (ver Un videojuego encuentra la clave para acabar con los abusos anónimos en internet).
El bot de Ally podría decir: "Me he fijado en que el Jugador 42 y tú parecéis ser desconocidos. Podría haberte dicho algo inapropiado, así que solo quería comprobar si te encuentras bien". El jugador entonces le puede contestar, explica Dariescu. Si la interacción es desestimada como bromas amigables, el sistema lo registra y actualiza sus reglas para no intervenir a causa de comportamientos similares en el futuro. Si el usuario se siente maltratado, el sistema interviene con el culpable.
Ally es compatible con todos los videojuegos en línea, y Spirit AI está desarrollando prestaciones adicionales para vigilar los comportamientos dentro de los videojuegos de realidad virtual (ver La realidad virtual, el próximo gran reino para troles y abusones). La herramienta puede ser configurada para interactuar con jugadores y tomar distintos tipos de medidas. Spirit AI ve en Ally una manera de mejorar el equipo de gestión de comunidad de un juego, que puede monitorizar la actividad desde una consola de control.
La empresa, que fue formada oficialmente en 2016 y actualmente tiene una plantilla de 15 empleados, no ha querido dar detalles sobre los desarrolladores de juegos con los que está colaborando actualmente, pero el software ha atraído mucha atención dentro del mundo de los videojuegos. El diseñador veterano de vastos juegos multijugador en línea como RuneScape, Imre Jele, afirma: "A nivel más sencillo, las herramientas de gestión de comunidades alimentadas por la IA pueden ampliar el alcance del equipo. Pero lo que más me emociona son los sistemas de IA que no se limitan a identificar y castigar los comportamientos que infringen las reglas. El objetivo final de estos miembros digitales del equipo es salirse de la vigilancia y centrarse en dar forma a interacciones positivas y construir comunidades más sanas".
Spirit AI desde luego tiene intención de que el software ofrezca más que una mera fuerza policial digitalizada que puede ser emplazada en los videojuegos en línea. Dariescu confirma: "Hemos identificado el potencial de que esta tecnología no solo impida malos comportamientos sino también fomente buenos comportamientos prosociales". El software también podría identificar quejas generalizadas sobre el diseño de un juego mediante la captación y el análisis de datos ambientales, lo que ayudaría a los desarrolladores a mejorar la experiencia general de los jugadores.
Pero la inteligencia artificial tiene limitaciones a la hora de luchar contra el acoso, matiza Jele. Muchas interacciones entre equipos de gestión de comunidad y apoyo a los jugadores requieren una profunda empatía y simpatía, explica: "Los jugadores apoyan a los desarrolladores con su dinero y se merecen los mejores cuidados posibles, los cuales, de momento, sólo los pueden ofrecer los humanos".