Cada pocos siglos, los cambios en cómo se mueve la información remodelan la forma en que las sociedades se gobie an. La imprenta extendió la alfabetización ve ácula, contribuyendo al surgimiento de la Reforma y, finalmente, del gobie o representativo. El telégrafo hizo posible administrar naciones vastas como EE. UU., acelerando el crecimiento del estado burocrático mode o. Los medios de comunicación de masas crearon audiencias nacionales compartidas, lo que a su vez impulsó la democracia de masas.
Ahora estamos en las primeras etapas de otro cambio similar. Más rápido de lo que muchos se dan cuenta, la IA se está convirtiendo en la interfaz principal a través de la cual formamos creencias y participamos en la autogobe anza democrática. Si no se controla, este cambio podría tensar aún más las ya frágiles instituciones de Estados Unidos. Pero también podría ayudar a abordar problemas de larga data, como la baja participación cívica y la creciente polarización. Lo que suceda a continuación depende de las decisiones de diseño que ya se están tomando, lo sepamos o no.
Empecemos por lo que podría denominarse la capa epistémica: cómo llegamos al conocimiento. La gente confía cada vez más en la IA para saber qué es verdad, qué está ocurriendo y en quién confiar. La búsqueda ya está sustancialmente mediada por la IA. La próxima generación de asistentes de IA sintetizará la información, la enmarcará y la presentará con autoridad. Para un número creciente de personas, preguntar a una IA se convertirá en la forma predeterminada de formarse una opinión sobre un candidato, una política o una figura pública. Quien controle lo que dicen estos modelos tendrá, por lo tanto, una influencia creciente sobre lo que la gente cree.
La tecnología siempre ha moldeado la forma en que los ciudadanos interactúan con la información. Pero un nuevo problema surgirá pronto en forma de agentes de IA personales, que podrán cambiar no solo cómo las personas reciben información, sino también cómo actúan en base a ella. Estos sistemas realizarán investigaciones, redactarán comunicaciones, destacarán causas y harán lobby en nombre de un usuario. Informarán decisiones como cómo votar en una medida electoral, qué organizaciones merecen apoyo o cómo responder a una notificación gube amental. En un sentido significativo, comenzarán a mediar la relación entre los individuos y las instituciones que los gobie an.
Ya hemos visto con las redes sociales lo que ocurre cuando los algoritmos optimizan para el engagement por encima de la comprensión. Las plataformas no necesitan tener una agenda política explícita para producir polarización y radicalización. Un agente que conoce tus preferencias y tus ansiedades —uno diseñado para mantenerte enganchado— plantea los mismos riesgos. Y en este caso los riesgos pueden ser aún más difíciles de detectar, porque un agente se presenta como tu defensor. Habla por ti, actúa en tu nombre y puede ganarse la confianza precisamente a través de esa intimidad.
Ahora, ampliemos la perspectiva al colectivo. Los agentes de IA y los humanos pronto podrían participar en los mismos foros, donde podría ser imposible distinguirlos. Aunque cada agente de IA individual estuviera bien diseñado y alineado con los intereses de su usuario, las interacciones de millones de agentes podrían producir resultados que ningún individuo deseara o eligiera. Por ejemplo, investigaciones demuestran que agentes que no muestran sesgos individuales pueden generar sesgos colectivos a gran escala. Y dejando a un lado lo que los agentes se hacen entre sí, está lo que hacen por sus usuarios. Una esfera pública en la que cada uno tiene un agente personalizado sintonizado con sus puntos de vista existentes no es, en conjunto, una esfera pública en absoluto. Es una colección de mundos privados, cada uno inte amente coherente pero colectivamente inhóspito para el tipo de deliberación compartida que la democracia requiere.
En conjunto, estas tres transformaciones —en cómo conocemos, cómo actuamos y cómo nos implicamos en la gobe anza colectiva— suponen un cambio fundamental en el tejido de la ciudadanía. En un futuro próximo, la gente formará sus puntos de vista políticos a través de filtros de IA, ejercerá su agencia cívica mediante agentes de IA y participará en instituciones y debates públicos que, a su vez, estarán moldeados por las interacciones de millones de agentes de este tipo.
La democracia actual no está preparada para esto. Nuestras instituciones fueron diseñadas para un mundo en el que el poder se ejercía de forma visible, la información viajaba lo suficientemente lento como para poder ser cuestionada y la realidad se sentía más compartida, aunque imperfectamente. Todo esto ya se estaba deshilachando mucho antes de la llegada de la IA generativa. Y sin embargo, esto no tiene por qué ser una historia de declive. Evitar ese resultado nos exige diseñar algo mejor.
En la capa informativa, las empresas de IA deben intensificar los esfuerzos existentes para asegurar que los resultados de los modelos sean veraces. También deberían explorar algunos hallazgos iniciales prometedores de que los modelos de IA pueden ayudar a reducir la polarización. Una reciente evaluación de campo de verificaciones de hechos generadas por IA en X descubrió que personas con una variedad de puntos de vista políticos consideraron las notas escritas por IA más útiles que las escritas por humanos. El estudio aún no ha sido revisado por pares, pero ese es un hallazgo potencialmente revolucionario: la verificación de hechos asistida por IA podría lograr el tipo de credibilidad transversal que ha eludido a la mayoría de los esfuerzos humanos manuales. Una mayor comprensión y transparencia sobre cómo los modelos hacen estas afirmaciones y priorizan las fuentes en el proceso podría ayudar a generar una mayor confianza pública.
En la capa agéntica, necesitamos formas de evaluar si los agentes de IA representan fielmente a sus usuarios. Un agente nunca debe tener una agenda propia ni tergiversar las opiniones de su usuario —un requisito técnicamente desalentador en ámbitos donde los usuarios quizás no hayan expresado explícitamente ninguna preferencia. Pero la representación fiel tampoco puede convertirse en un accesorio del razonamiento motivado. Un agente que se niega a presentar información incómoda, que protege a su usuario de cuestionar creencias previas o que no se adapta a un cambio de opinión, no está actuando en el mejor interés de la persona.
Finalmente, a nivel institucional, los responsables políticos deberían apresurarse a aprovechar el potencial de la IA para hacer que la gobe anza sea más receptiva y legítima. Varios estados y localidades ya están utilizando plataformas mediadas por IA para llevar a cabo la deliberación democrática a escala, basándose en investigaciones que demuestran que los mediadores de IA pueden ayudar a los ciudadanos a encontrar puntos en común. A medida que los agentes se conviertan en participantes cada vez más comunes en los procesos de aportación pública —y ya hay pruebas de que los bots están sesgando esos procesos— la verificación de identidad tanto para los humanos como para sus proxies agénticos debe integrarse desde el principio.
Lo que se necesita es una nueva generación de infraestructura democrática, tecnológica e institucional, construida para el mundo actual. No diseñar para resultados democráticos, en un ámbito de tal trascendencia, significa diseñar para otra cosa. Y la historia del poder sin rendición de cuentas no deja mucho margen para el optimismo sobre lo que esa otra cosa tiende a ser.
Andrew Sorota y Josh Hendler dirigen el trabajo sobre IA y democracia en la Oficina de Eric Schmidt.

