Skip to main content

¿Qué haría falta para convencerte de que la era de la decadencia de la verdad, aquella sobre la que tanto se nos advirtió (donde el contenido creado por IA nos engaña, moldea nuestras creencias incluso cuando detectamos la mentira y erosiona la confianza social en el proceso), ya ha llegado? Una historia que publiqué la semana pasada fue lo que me hizo cruzar ese umbral. También me hizo darme cuenta de que las herramientas que se nos vendieron como cura para esta crisis están fracasando estrepitosamente. 

Hace dos semanas informé de la primera confirmación de que el Departamento de Seguridad Nacional de EE UU, que alberga a las agencias de inmigración, está utilizando generadores de vídeo con IA de Google y Adobe para crear contenido que comparte con el público. La noticia llega en un momento en que las agencias de inmigración han inundado las redes sociales con contenido destinado a respaldar la agenda de deportaciones masivas del presidente Trump (contenido que, en algunos casos, parece haber sido generado con IA, como un vídeo sobre la “Navidad después de las deportaciones masivas”). 

Pero recibí dos tipos de reacciones de los lectores que pueden explicar casi tanto como la propia crisis epistémica que estamos viviendo. 

Una de las reacciones vino de personas que no se sorprendieron, porque el 22 de enero la Casa Blanca había publicado una foto digitalmente alterada de una mujer arrestada en una protesta contra ICE, una imagen que la hacía parecer histérica y llorando. Kaelan Dorr, director adjunto de comunicaciones de la Casa Blanca, no respondió a las preguntas sobre si la Casa Blanca había modificado la foto, pero escribió: “Los memes continuarán”. 

La segunda reacción vino de lectores que no veían sentido en informar de que el Departamento de Seguridad Nacional estaba usando IA para editar contenido que comparte con el público, porque los medios aparentemente estaban haciendo lo mismo. Señalaron el hecho de que la cadena de noticias MS Now (antes MSNBC) compartió una imagen de Alex Pretti editada con IA que parecía hacerlo lucir más atractivo, un hecho que generó numerosos clips virales esta semana, incluido uno en el pódcast de Joe Rogan. ¿Combatir fuego con fuego, en otras palabras? Un portavoz de MS Now dijo a Snopes que la cadena emitió la imagen sin saber que había sido editada. 

No hay motivo para meter estos dos casos de contenido alterado en la misma categoría, ni para interpretarlos como prueba de que la verdad ya no importa. Uno implicó que el Gobierno de EE UU compartiera con el público una foto claramente modificada y se negara a responder si había sido manipulada intencionadamente; el otro implicó a un medio que emitió una imagen que debería haber sabido que estaba alterada, pero que dio ciertos pasos para reconocer el error. 

Lo que estas reacciones revelan, más bien, es un fallo en la forma en que nos preparamos colectivamente para este momento. Las advertencias sobre la crisis de la verdad provocada por la IA giraban en torno a una tesis central: que no poder distinguir qué es real nos destruiría, y que, por tanto, necesitamos herramientas para verificar la verdad de forma independiente. Mis dos sombrías conclusiones son que estas herramientas están fallando y que, aunque comprobar la verdad sigue siendo esencial, ya no basta por sí solo para generar la confianza social que se nos prometió. 

Por ejemplo, en 2024 hubo mucho revuelo en torno a la Content Authenticity Initiative, cofundada por Adobe y adoptada por grandes empresas tecnológicas, que adjuntaría etiquetas al contenido indicando cuándo se creó, por quién y si intervino la IA. Pero Adobe aplica etiquetas automáticas solo cuando el contenido es íntegramente generado por IA. En cualquier otro caso, las etiquetas dependen de que el creador decida activarlas. 

Y plataformas como X, donde se publicó la foto alterada del arresto, pueden eliminar esas etiquetas de todos modos (los usuarios añadieron una nota indicando que la foto había sido modificada). Las plataformas también pueden simplemente optar por no mostrar la etiqueta. 

Al observar la enorme difusión que alcanzó la foto de la Casa Blanca incluso después de que se demostrara que había sido alterada con IA, me llamaron la atención los resultados de un nuevo estudio muy pertinente publicado en la revista Communications Psychology. En el estudio, los participantes veían una “confesión” deepfake de un delito, y los investigadores descubrieron que, incluso cuando se les decía explícitamente que la prueba era falsa, los participantes seguían basándose en ella para juzgar la culpabilidad de una persona. En otras palabras: incluso cuando la gente descubre que el contenido que está viendo es completamente falso, sigue dejándose influir emocionalmente por él. 

“La transparencia ayuda, pero no basta por sí sola”, escribió recientemente el experto en desinformación Christopher Nehring sobre las conclusiones del estudio. “Tenemos que desarrollar un nuevo plan maestro sobre qué hacer con los deepfakes”. 

Las herramientas de IA para generar y editar contenido son cada vez más avanzadas, más fáciles de usar y más baratas de ejecutar; todas ellas razones por las que el Gobierno de EE UU está pagando cada vez más por utilizarlas. Estábamos bien advertidos de ello, pero respondimos preparándonos para un mundo en el que el principal peligro era la confusión. En cambio, estamos entrando en un mundo en el que la influencia sobrevive a la exposición, la duda se convierte fácilmente en un arma y establecer la verdad no funciona como un botón de reinicio. Y los defensores de la verdad ya van muy por detrás.