En un nuevo informe, Freedom House documenta el modo en que los gobiernos utilizan ahora la tecnología para amplificar la censura
En el último año, la inteligencia artificial ha acelerado los esfuerzos de los estados por reprimir las libertades en internet.
Gobiernos y actores políticos de todo el mundo, tanto en democracias como en autocracias, están utilizando la IA para generar textos, imágenes y vídeos con el fin de manipular la opinión pública a su favor y censurar los contenidos digitales más críticos. En un nuevo informe publicado por Freedom House, un grupo de defensa de los derechos humanos, los investigadores documentaron el uso de IA generativa en 16 países "para sembrar la duda, desprestigiar a los oponentes o influir en el debate público".
El informe anual Freedom on the Net (Libertad en la Red, en inglés) puntúa y clasifica a los países según su grado de libertad online, medido por una serie de factores como los cierres de internet, las leyes que limitan la libertad de expresión y las represalias por opinar en el mundo digital. La edición de 2023, publicada el 4 de octubre, reveló que la libertad en internet disminuyó en todo el mundo por decimotercer año consecutivo, debido en parte a la proliferación de la inteligencia artificial.
"La libertad en internet se encuentra en su punto más bajo, y los avances en IA empeoran aún más esta crisis", afirma Allie Funk, investigadora del informe. Funk afirma que uno de sus hallazgos más importantes de 2023 tiene que ver con los cambios en la forma en que los gobiernos utilizan la IA. Aunque solo empezamos a conocer cómo la tecnología impulsa la opresión digital.
Funk descubrió dos factores principales detrás de estos cambios: la asequibilidad y accesibilidad de la IA generativa reduce la barrera de entrada para las campañas de desinformación. Además, los sistemas automatizados permiten a los gobiernos llevar a cabo formas más precisas y sutiles de censura digital.
Desinformación y deepfakes
A medida que las herramientas de IA generativa se vuelven más sofisticadas, los actores políticos siguen desplegando la tecnología para amplificar la desinformación.
Por ejemplo, en Venezuela los medios de comunicación estatales difundieron mensajes progubernamentales a través de vídeos generados por IA de presentadores de noticias de un inexistente canal internacional en inglés. Estos fueron producidos por Synthesia, una empresa que produce deepfakes personalizados. Mientras en EE UU han circulado por redes sociales vídeos e imágenes de líderes políticos manipulados por IA como el vídeo donde aparecía el presidente Biden haciendo comentarios transfóbicos y una imagen de Donald Trump abrazando a Anthony Fauci.
Además de las herramientas de IA generativa, los gobiernos han continuado con tácticas tradicionales, como el uso de campañas híbridas de humanas y bots para manipular los debates online. Al menos 47 gobiernos desplegaron comentaristas para difundir propaganda en 2023, el doble que hace una década.
Aunque estos avances no son sorprendentes, Funk explica que una de las conclusiones más interesantes es que la accesibilidad generalizada de la IA generativa puede socavar la confianza en los hechos verificables. A medida que se normalicen los contenidos generados por IA en internet, "va a permitir que los actores políticos pongan en duda la fiabilidad de la información", afirma Funk. Es un fenómeno conocido como "lucro del mentiroso", cuando la desconfianza ante la falsificación consigue que el público sea más escéptico ante la información veraz, sobre todo, en tiempos de crisis o conflicto político cuando la información falsa puede proliferar.
Por ejemplo, en abril de 2023, unas grabaciones filtradas de Palanivel Thiagarajan, un destacado funcionario indio, desataron la polémica al mostrar al político menospreciando a compañeros de partido. Aunque Thiagarajan denunció que los clips de audio eran generados por máquinas, varios investigadores independientes determinaron que al menos una de las grabaciones era auténtica.
Chatbots y censura
En particular, los regímenes autoritarios utilizan la IA para que la censura sea más generalizada y eficaz.
Los investigadores de Freedom House documentaron 22 países que aprobaron leyes que exigen o incentivan a las plataformas de internet a utilizar el aprendizaje automático para eliminar el discurso digital desfavorable. En China, por ejemplo, se han programado chatbots para que no respondan a preguntas sobre la plaza de Tiananmen. En India, las autoridades del gobierno del primer ministro Narendra Modi ordenaron a YouTube y Twitter restringir el acceso a un documental sobre la violencia durante el mandato de Modi como ministro jefe del estado de Gujarat. A su vez, esto anima a las empresas tecnológicas a filtrar contenidos mediante herramientas de moderación basadas en IA.
En total, 41 gobiernos bloquearon webs por motivos políticos, sociales y religiosos durante 2022, lo que "pone de manifiesto la intensificación de la censura en todo el mundo", afirma Funk.
Irán sufrió la mayor caída anual en la clasificación de Freedom House después de que las autoridades cerraran el acceso a internet, bloquearan WhatsApp e Instagram, y aumentaran la vigilancia tras las históricas protestas antigubernamentales en otoño de 2022. Según el informe, Birmania y China tienen la censura de internet más restrictiva, un título que China ha mantenido durante nueve años consecutivos.