Otros
La IA podría ayudar a encontrar puntos en común durante las deliberaciones de temas polémicos
Los grupos que utilizaron las LLM de Google DeepMind avanzaron más a la hora de encontrar puntos de encuentro. Pero la tecnología no sustituirá a los mediadores humanos a corto plazo
Llegar a un consenso en democracia es difícil porque la gente tiene opiniones ideológicas, políticas y sociales muy diferentes.
Quizá una herramienta de IA pueda ayudar. Investigadores de Google DeepMind han entrenado a un sistema de grandes modelos lingüísticos (LLM) para que actúe como el mediador de una asamblea y levante acta, resumiendo las áreas de acuerdo de un grupo sobre ciertas cuestiones sociales o políticas complejas pero importantes.
Los investigadores afirman que la herramienta, llamada Máquina Habermas (HM), en honor al filósofo alemán Jürgen Habermas, pone de manifiesto el potencial de la IA para ayudar a grupos a encontrar puntos en común cuando debaten este tipo de temas.
"El modelo lingüístico se entrenó para identificar y presentar áreas de coincidencia entre las ideas de los miembros del grupo", explica Michael Henry Tessler, investigador científico de Google DeepMind. "No se entrenó para ser persuasivo, sino para actuar como mediador". El estudio se publica hoy en la revista Science.
Google DeepMind reclutó a 5.734 participantes, algunos a través de una plataforma de investigación de crowdsourcing y otros a través de la Fundación Sortition, una organización sin ánimo de lucro que organiza asambleas de ciudadanos. Los grupos de Sortition formaban una muestra demográficamente representativa de la población del Reino Unido.
El HM consta de dos LLM diferentes ajustados para esta tarea. El primero es un modelo generativo que sugiere afirmaciones que reflejan las distintas opiniones del grupo. El segundo es un modelo de recompensa personalizada, que puntúa las afirmaciones propuestas en función de cuánto cree que cada participante estará de acuerdo con ellas.
Los investigadores dividieron a los participantes en grupos y probaron el MH en dos fases: primero, para ver si podía resumir con precisión las opiniones colectivas y, después, para comprobar si también podía mediar entre grupos diferentes y ayudarles a encontrar puntos en común.
Para empezar, plantearon preguntas como "¿Deberíamos rebajar la edad de voto a los 16 años?" o "¿Debería privatizarse el Servicio Nacional de Salud?". Los participantes presentaron sus respuestas a la SM antes de debatir sus puntos de vista en grupos de unas cinco personas.
El moderador resumió las opiniones del grupo y, a continuación, envió los resúmenes a los participantes para que los criticaran. Al final, el HM elaboró un conjunto final de afirmaciones y los participantes las clasificaron.
A continuación, los investigadores se propusieron comprobar si el MH podía ser una herramienta útil de mediación en IA.
Se dividió a los participantes en grupos de seis personas y se asignó aleatoriamente a un participante de cada grupo la tarea de escribir declaraciones en nombre del grupo. Esta persona fue designada "mediador". En cada ronda de deliberación, se presentó a los participantes una declaración del mediador humano y una declaración generada por la IA del SM y se les preguntó cuál preferían.
Más de la mitad (56%) de las veces, los participantes eligieron la declaración de la IA. Consideraron que estas declaraciones eran de mayor calidad que las producidas por el mediador humano y tendieron a respaldarlas con mayor firmeza. Tras deliberar con la ayuda del mediador de IA, los pequeños grupos de participantes se mostraron menos divididos en sus posturas sobre los temas.
Aunque la investigación demuestra que los sistemas de IA son buenos generando resúmenes que reflejan las opiniones del grupo, es importante ser conscientes de que su utilidad tiene límites, dice Joongi Shin, investigador de la Universidad de Aalto que estudia la IA generativa.
"A menos que la situación o el contexto sean muy claramente abiertos, de modo que puedan ver la información que se introdujo en el sistema y no sólo los resúmenes que produce, creo que este tipo de sistemas podrían causar problemas éticos", afirma.
Google DeepMind no dijo explícitamente a los participantes en el experimento con mediadores humanos que un sistema de IA generaría declaraciones de opinión grupales, aunque indicó en el formulario de consentimiento que intervendrían algoritmos.
"También es importante reconocer que el modelo, en su forma actual, es limitado en su capacidad para manejar ciertos aspectos de la deliberación en el mundo real", dice Tessler. "Por ejemplo, no tiene capacidad para comprobar los hechos, no salirse del tema o moderar el discurso".
Averiguar dónde y cómo podría utilizarse este tipo de tecnología en el futuro requerirá más investigación para garantizar un despliegue responsable y seguro. La empresa afirma que no tiene previsto lanzar el modelo públicamente.