Skip to main content

En 2024, la candidata demócrata al Congreso por Pensilvania (EE UU), Shamaine Daniels, recurrió a un chatbot llamado Ashley para llamar a votantes y conversar con ellos. “Hola. Me llamo Ashley y soy una voluntaria de inteligencia artificial para la campaña de Shamaine Daniels al Congreso”, comenzaban las llamadas. Daniels no ganó finalmente. Pero quizá esas llamadas ayudaron a su causa: nuevas investigaciones revelan que los chatbots pueden cambiar la opinión de los votantes en una sola conversación, y lo hacen sorprendentemente bien. 

Un equipo de investigadores de varias universidades descubrió que conversar con un modelo de IA con sesgo político resulta más eficaz que los anuncios electorales para persuadir tanto a demócratas como a republicanos a apoyar candidatos presidenciales del partido contrario. Los chatbots lograron influir citando hechos y evidencias, aunque no siempre fueron precisos. De hecho, según los investigadores, los modelos más persuasivos fueron los que más afirmaciones falsas realizaron. 

Los hallazgos, publicados en dos estudios en las revistas Nature y Science, se suman a un creciente cuerpo de investigación que demuestra el poder persuasivo de los LLM (Large Language Models). Plantean preguntas profundas sobre cómo la IA generativa podría transformar las elecciones. “Una sola conversación con un LLM tiene un efecto significativo en decisiones electorales clave”, afirma Gordon Pennycook, psicólogo en la Universidad Cornell y coautor del estudio en Nature. Según él, los LLM persuaden mejor que los anuncios políticos porque generan mucha más información en tiempo real y la despliegan estratégicamente en las conversaciones. 

Para el estudio en Nature, los investigadores reclutaron a más de 2.300 participantes para conversar con un chatbot dos meses antes de las elecciones presidenciales de EE UU en 2024. El chatbot, entrenado para defender a uno de los dos principales candidatos, resultó especialmente persuasivo al debatir sobre programas políticos en temas como economía y sanidad. Los seguidores de Donald Trump que interactuaron con un modelo favorable a Kamala Harris se mostraron ligeramente más inclinados a apoyarla, avanzando 3,9 puntos en una escala de 100. Ese efecto fue aproximadamente cuatro veces mayor que el medido en los anuncios políticos de 2016 y 2020. El modelo favorable a Trump movió a los simpatizantes de Harris 2,3 puntos hacia Trump. 

En experimentos similares realizados antes de las elecciones federales canadienses de 2025 y las presidenciales polacas del mismo año, el equipo halló un efecto aún mayor: los chatbots cambiaron la actitud de votantes opositores en unos 10 puntos. 

Las teorías clásicas sobre el razonamiento político motivado sostienen que los votantes partidistas son impermeables a hechos que contradicen sus creencias. Sin embargo, los investigadores comprobaron que los chatbots, que emplearon modelos como variantes de GPT y DeepSeek, fueron más persuasivos cuando se les indicó usar hechos y evidencias que cuando se les pidió no hacerlo. “La gente actualiza sus opiniones en función de la información que el modelo les proporciona”, explica Thomas Costello, psicólogo en la American University y miembro del proyecto. 

El problema es que parte de esas “evidencias” y “hechos” eran falsos. En los tres países analizados, los chatbots que defendían candidatos de derecha emitieron más afirmaciones inexactas que los que apoyaban a candidatos de izquierda. Los modelos subyacentes se entrenan con enormes cantidades de texto escrito por humanos, lo que implica que reproducen fenómenos reales, incluida la “comunicación política procedente de la derecha, que tiende a ser menos precisa”, según estudios sobre publicaciones partidistas en redes sociales, señala Costello. 

En el otro estudio, publicado la semana pasada en Science, un equipo parcialmente coincidente investigó qué hace tan persuasivos a estos chatbots. Para ello, desplegaron 19 LLM que interactuaron con casi 77.000 participantes en el Reino Unido sobre más de 700 cuestiones políticas, variando factores como la potencia computacional, las técnicas de entrenamiento y las estrategias retóricas. 

La forma más eficaz de aumentar la persuasión fue instruir a los modelos para que saturaran sus argumentos con hechos y evidencias, y luego darles entrenamiento adicional con ejemplos de conversaciones persuasivas. El modelo más convincente logró que participantes inicialmente en desacuerdo con una afirmación política se movieran 26,1 puntos hacia el acuerdo. “Son efectos de tratamiento realmente grandes”, afirma Kobi Hackenburg, científico del Instituto de Seguridad de IA del Reino Unido y coautor del estudio. 

Pero optimizar la persuasión tuvo un coste: la veracidad. A medida que los modelos se volvían más persuasivos, aumentaban las informaciones engañosas o falsas, y nadie sabe por qué. “Puede que, al aprender a desplegar más hechos, los modelos acaben recurriendo al fondo del barril de lo que saben, y la calidad de los hechos empeore”, sugiere Hackenburg. 

El poder persuasivo de los chatbots podría tener consecuencias profundas para el futuro de la democracia, advierten los autores. Las campañas políticas que utilicen IA podrían moldear la opinión pública de formas que comprometan la capacidad de los votantes para emitir juicios políticos independientes. 

Aún no está claro cuál será el alcance real de este impacto. “No sabemos cómo serán las campañas del futuro ni cómo incorporarán este tipo de tecnologías”, afirma Andy Guess, politólogo en la Universidad de Princeton. Competir por la atención de los votantes es costoso y complicado, y lograr que participen en largas conversaciones políticas con chatbots podría ser todo un reto. “¿Será esta la forma en que la gente se informe sobre política, o seguirá siendo una actividad más bien de nicho?”, se pregunta. 

Incluso si los chatbots llegan a desempeñar un papel más importante en las elecciones, no está claro si contribuirán más a amplificar la verdad o la ficción. Por lo general, la desinformación tiene ventaja en una campaña, por lo que la irrupción de las IA electorales “podría significar que vamos directos al desastre”, advierte Alex Coppock, politólogo en la Universidad Northwestern. “Pero también es posible que eso implique que ahora la información correcta sea escalable”. 

La pregunta entonces es quién tendrá la ventaja. “Si todo el mundo pone a sus chatbots a circular libremente, ¿significa que nos persuadiremos hasta quedar en tablas?”, plantea Coppock. Pero hay motivos para dudarlo. El acceso de los políticos a los modelos más persuasivos puede no estar distribuido de manera equitativa. Y los votantes, según su orientación política, podrían mostrar distintos niveles de interacción con los chatbots. Si “los seguidores de un candidato o partido son más expertos en tecnología que los del otro”, señala Guess, los efectos persuasivos podrían no compensarse. 

A medida que la gente recurre a la IA para orientarse en su vida diaria, también podría empezar a pedir consejos de voto a los chatbots, incluso sin que las campañas lo promuevan. Ese escenario sería inquietante para la democracia, salvo que existan fuertes mecanismos de control que mantengan estos sistemas bajo supervisión. Auditar y documentar la precisión de las respuestas de los LLM en conversaciones sobre política podría ser un primer paso.