Skip to main content

En enero de 2024, los teléfonos sonaron en hogares de todo New Hampshire (EE UU). Al otro lado de la línea, la voz de Joe Biden instaba a los demócratas a «guardar su voto» y saltarse las primarias. Sonaba auténtico, pero no lo era. La llamada era un fraude generado con inteligencia artificial. 

Hoy, la tecnología detrás de aquel engaño parece casi naíf. Herramientas como Sora de OpenAI permiten crear vídeos sintéticos convincentes con una facilidad asombrosa. La IA puede fabricar mensajes de políticos y celebridades, incluso piezas informativas completas, en cuestión de minutos. El temor a que las elecciones queden inundadas por falsificaciones realistas se ha instalado en el debate público, y con razón. 

Pero esa es solo la mitad de la historia. La amenaza más profunda no es que la IA imite a personas, sino que sea capaz de persuadirlas activamente. Investigaciones publicadas la semana pasada muestran hasta qué punto esa persuasión puede resultar poderosa. En dos estudios revisados por pares y de gran tamaño, chatbots lograron desplazar las opiniones de los votantes en márgenes significativos, muy por encima de lo que suele conseguir la publicidad política tradicional. 

En los próximos años veremos el auge de sistemas capaces de personalizar argumentos, probar qué funciona y remodelar de forma silenciosa las posiciones políticas a gran escala. Ese cambio, del simple mimetismo a la persuasión activa, debería preocuparnos seriamente. 

El reto es que la IA moderna no solo copia voces o rostros; mantiene conversaciones, detecta emociones y ajusta su tono para convencer. Y ahora puede coordinar a otras IAs, indicando a modelos de imagen, vídeo y voz que generen el contenido más persuasivo para cada destinatario. Puestas las piezas en su sitio, no cuesta imaginar una «máquina de persuasión» coordinada: una IA redacta el mensaje, otra crea los visuales, otra lo distribuye en plataformas y monitoriza qué funciona. Sin intervención humana.  

Hace una década, una campaña de influencia eficaz en internet exigía ejércitos de personas con cuentas falsas y fábricas de memes. Hoy, ese trabajo puede automatizarse de forma barata e invisible. 

La misma tecnología que impulsa los chatbots de atención al cliente y las aplicaciones de tutoría puede reorientarse para empujar opiniones políticas o amplificar el relato preferido por un gobierno. Y la persuasión no tiene por qué limitarse a anuncios o llamadas automatizadas. Puede entretejerse en las herramientas que la gente usa a diario: redes sociales, aplicaciones de aprendizaje de idiomas, plataformas de citas o incluso asistentes de voz desarrollados y vendidos por actores interesados en influir a la ciudadanía. Esa influencia podría llegar de actores maliciosos que aprovechen las APIs de sistemas populares, o de nuevas aplicaciones concebidas con la persuasión incorporada desde el inicio. 

Además, es asequible. Por menos de un millón de dólares, cualquiera puede generar mensajes personalizados y conversacionales para cada votante registrado en Estados Unidos. Las cuentas no son complicadas: 10 intercambios breves por persona (unos 2.700 ‘tokens’ de texto, es decir, unidades de conteo sobre fragmentos escritos) y precios a las tarifas actuales de la API de ChatGPT. Incluso con una población de 174 millones de votantes registrados, el total seguiría por debajo del millón. Los 80.000 votantes decisivos que inclinaron la balanza en 2016 podrían abordarse por menos de 3.000 dólares. 

Aunque este desafío afecta a elecciones en el mundo entero, las implicaciones para Estados Unidos son especialmente graves, por la escala de sus comicios y la atención que atraen de actores extranjeros. Si EE UU no actúa con rapidez, la próxima presidencial de 2028, o incluso las legislativas intermedias de 2026, podrían ganarlas quienes automaticen primero la persuasión. 

La amenaza de 2028 

Pese a indicios de que el riesgo de la IA en procesos electorales podría estar sobredimensionado, crece el número de estudios que apunta a un cambio de escenario. Investigaciones recientes han mostrado que GPT-4 supera la capacidad persuasiva de profesionales de la comunicación al generar argumentos sobre temas polarizados de la política estadounidense y que convence más que humanos no expertos en dos tercios de los casos cuando debate con votantes reales. 

Dos estudios importantes publicados la semana pasada extienden esas conclusiones a contextos electorales en Estados Unidos, Canadá, Polonia y el Reino Unido, y muestran que breves conversaciones con chatbots pueden cambiar la opinión de los votantes en hasta 10 puntos porcentuales con cambios entre participantes de EE UU casi cuatro veces superiores a los logrados por anuncios políticos probados de 2016 y 2020. Y cuando los modelos se optimizan explícitamente para persuadir, el desplazamiento asciende a 25 puntos, una diferencia casi inconcebible. 

Antes, el acceso a grandes modelos de lenguaje de última generación estaba restringido a empresas bien dotadas de recursos; ahora son cada vez más fáciles de usar. Los grandes proveedores de IA como OpenAI, Anthropic y Google envuelven sus modelos más avanzados en políticas de uso, filtros de seguridad automatizados y controles a nivel de cuenta, y en ocasiones suspenden usuarios que vulneran las normas. 

Pero esas restricciones solo se aplican al tráfico que pasa por sus plataformas; no alcanzan al ecosistema en rápido crecimiento de modelos de código abierto y de pesos abiertos que cualquiera puede descargar con conexión a internet. Aunque suelen ser más pequeños y menos capaces que sus equivalentes comerciales, la investigación ha demostrado que, con indicaciones cuidadosas y ajuste fino, pueden igualar el rendimiento de sistemas líderes.  

Todo ello traza un camino claro para desplegar la IA políticamente persuasiva a gran escala, ya sea desde organizaciones con recursos o desde colectivos de base. Ya hay pruebas. En las elecciones generales de India de 2024, se gastaron decenas de millones en segmentar electores, identificar votantes indecisos, y enviar mensajes personalizados mediante robocalls y chatbots, entre otros usos. En Taiwán, autoridades y expertos han documentado operaciones vinculadas a China que emplean IA generativa para producir desinformación más sutil, desde deepfakes hasta salidas de modelos de lenguaje sesgadas hacia mensajes aprobados por el Partido Comunista Chino. 

Es solo cuestión de tiempo que esta tecnología se incorpore de lleno a las elecciones en EE UU, si no lo ha hecho ya. Los adversarios extranjeros están bien posicionados para moverse primero. China, Rusia, Irán y otros países mantienen redes de granjas de trolls, cuentas automáticas y operadores de influencia encubiertos. Combinadas con modelos de lenguaje de código abierto capaces de generar contenido político fluido y localizado, esas operaciones pueden potenciarse al máximo. De hecho, ya no hace falta contar con operadores humanos que dominen el idioma o el contexto. Con un ajuste ligero, un modelo puede hacerse pasar por un organizador vecinal, un representante sindical o un padre frustrado sin que nadie ponga un pie en el país. Las propias campañas políticas probablemente irán detrás. Toda gran operación segmenta a sus votantes, prueba mensajes y optimiza la entrega. La IA abarata ese trabajo. En lugar de testear un eslogan en una encuesta, una campaña puede generar cientos de argumentos, entregarlos uno a uno y observar en tiempo real cuáles cambian opiniones. 

El hecho subyacente es sencillo: la persuasión se ha vuelto eficaz y barata. Campañas, comités de acción política, actores extranjeros, grupos de presión y oportunistas juegan hoy en el mismo terreno, y apenas existen reglas. 

El vacío normativo 

La mayoría de los legisladores no ha alcanzado el ritmo del problema. En los últimos años, el Congreso de EE UU se ha centrado en los deepfakes, pero ha ignorado la amenaza más amplia de la persuasión. 

Algunos gobiernos extranjeros han empezado a tomarse el asunto más en serio. La Ley de IA de la Unión Europea de 2024 clasifica la persuasión electoral como «de alto riesgo». Cualquier sistema diseñado para influir en el comportamiento de voto está ahora sujeto a requisitos estrictos. Las herramientas administrativas, como los sistemas de IA que planifican actos de campaña u optimizan la logística, quedan exentas. Sin embargo, las que buscan moldear creencias políticas o decisiones de voto no lo están. 

En contraste, Estados Unidos se ha negado hasta ahora a trazar líneas significativas. No hay normas vinculantes sobre qué constituye una operación de influencia política, ni estándares externos para guiar la aplicación, ni infraestructura compartida para rastrear la persuasión generada por IA en distintas plataformas. El Gobierno federal y los estados han hecho gestos hacia la regulación (la Comisión Federal Electoral aplica disposiciones antiguas contra el fraude, la Comisión Federal de Comunicaciones ha propuesto reglas limitadas de transparencia para anuncios televisivos, y algunos estados han aprobado leyes sobre deepfakes), pero son esfuerzos fragmentarios que dejan intacta la mayor parte de la campaña digital.  

En la práctica, la responsabilidad de detectar y desmantelar campañas encubiertas recae casi por completo en empresas privadas, cada una con sus propias normas, incentivos y puntos ciegos. Google y Meta exigen que se revele cuando los anuncios políticos se generan con IA. X guarda silencio, mientras TikTok prohíbe toda publicidad política pagada. Sin embargo, estas reglas, modestas como son, cubren solo la franja de contenido comprado y visible. Apenas dicen nada sobre las campañas privadas y no pagadas que podrían importar más. 

En su haber, algunas compañías han empezado a publicar informes periódicos sobre amenazas que identifican campañas de influencia encubiertas. Anthropic, OpenAI, Meta y Google han informado de cierres de cuentas falsas. Pero estos esfuerzos son voluntarios y no están sujetos a auditorías independientes. Lo más importante: nada de esto impide que actores decididos esquiven las restricciones de las plataformas mediante modelos de código abierto e infraestructuras externas. 

Cómo sería una estrategia real 

Estados Unidos no necesita prohibir la IA en la vida política. Algunas aplicaciones incluso podrían fortalecer la democracia. Un chatbot bien diseñado podría ayudar a los votantes a entender la posición de un candidato en temas clave, responder preguntas directamente o traducir políticas complejas a un lenguaje claro. La investigación incluso ha mostrado que la IA puede reducir la creencia en teorías conspirativas. 

Aun así, hay varias cosas que EE UU debería hacer para protegerse de la amenaza de la persuasión automatizada. Primero, blindarse frente a tecnología política extranjera con capacidades persuasivas integradas. Esa tecnología adversaria podría adoptar la forma de un videojuego producido en el extranjero donde los personajes repiten consignas políticas, una red social cuyo algoritmo de recomendación se incline hacia ciertos relatos, o una aplicación para aprender idiomas que introduzca mensajes sutiles en las lecciones diarias. 

Evaluaciones como el reciente análisis del Center for AI Standards and Innovation sobre DeepSeek deberían centrarse en identificar y evaluar productos de IA (sobre todo los procedentes de países como China, Rusia o Irán) antes de que se desplieguen masivamente. Este esfuerzo requeriría coordinación entre agencias de inteligencia, reguladores y plataformas para detectar y abordar riesgos.  

En segundo lugar, EE UU debería liderar la definición de reglas sobre persuasión impulsada por IA. Eso incluye restringir el acceso a potencia de cálculo para campañas extranjeras a gran escala, ya que muchos actores alquilarán modelos existentes o arrendarán capacidad de GPU para entrenar los suyos. También implica establecer estándares técnicos claros, a través de gobiernos, organismos de normalización y compromisos voluntarios de la industria, sobre cómo deben operar los sistemas capaces de generar contenido político, especialmente en periodos electorales sensibles. Y, en el ámbito interno, determinar qué tipo de transparencia debe aplicarse a los mensajes políticos generados por IA, sin vulnerar la Primera Enmienda. 

Por último, los adversarios extranjeros intentarán eludir estas salvaguardas mediante servidores en el extranjero, modelos abiertos o intermediarios en terceros países. Por eso EE UU necesita también una respuesta en política exterior. Los acuerdos multilaterales sobre integridad electoral deberían codificar una norma básica: los Estados que desplieguen sistemas de IA para manipular el electorado de otro país se arriesgan a sanciones coordinadas y a la exposición pública. 

Esto probablemente implicará construir infraestructuras compartidas de monitoreo, alinear estándares de transparencia y procedencia, y estar preparados para ejecutar cierres coordinados de campañas transfronterizas, porque muchas de estas operaciones ya se mueven en espacios opacos donde nuestras herramientas actuales de detección son débiles. EE UU debería además impulsar que la manipulación electoral forme parte de la agenda en foros como el G7 y la OCDE, garantizando que las amenazas relacionadas con la persuasión automatizada se traten no como problemas tecnológicos aislados, sino como desafíos colectivos de seguridad. 

En realidad, la tarea de blindar las elecciones no puede recaer solo en Estados Unidos. Un sistema eficaz de alerta frente a la persuasión por IA requerirá alianzas con socios y aliados. Las campañas de influencia rara vez respetan fronteras, y los modelos abiertos y los servidores externos siempre existirán. El objetivo no es eliminarlos, sino encarecer su uso indebido y reducir la ventana en la que pueden operar sin ser detectados. 

La era de la persuasión automatizada está a la vuelta de la esquina, y los adversarios de EE UU están preparados. En cambio, las leyes estadounidenses están desfasadas, las barreras son demasiado estrechas y la supervisión es en gran medida voluntaria. Si la última década estuvo marcada por mentiras virales y vídeos manipulados, la próxima lo estará por una fuerza más sutil: mensajes que suenan razonables, familiares y lo bastante persuasivos para cambiar corazones y mentes. 

Para China, Rusia, Irán y otros, explotar el ecosistema abierto de información estadounidense es una oportunidad estratégica. Necesitamos una estrategia que trate la persuasión por IA no como una amenaza lejana, sino como un hecho presente. Eso implica evaluar con rigor los riesgos para el discurso democrático, establecer estándares reales y construir una infraestructura técnica y legal en torno a ellos. Porque si esperamos a verlo suceder, ya será demasiado tarde. 

Tal Feldman es estudiante de Derecho en Yale y se especializa en tecnología y seguridad nacional. Antes de ingresar en la facultad, desarrolló modelos de IA para distintas agencias del Gobierno federal y fue becario Schwarzman y Truman. 

Aneesh Pappu cursa un doctorado en la Universidad de Stanford, donde también es becario Knight-Hennessy, y trabaja como investigador en Google DeepMind, centrado en agentic AI, seguridad en IA y políticas tecnológicas. Antes de llegar a Stanford, fue becario Marshall.