.

Ms Tech | Unsplash

Tecnología y Sociedad

Los 'deepfake' no han roto la democracia en 2020; los 'cheapfake', sí

1

Aunque los expertos llevan años avisando de la amenaza de las ultrafalsificaciones con IA para desestabilizar nuestra forma de entender la realidad, el verdadero motor de la desinformación este año han sido las falsificaciones baratas, es decir, contenidos adulterados de bajísima calidad

  • por Nina Schick | traducido por Ana Milutinovic
  • 28 Diciembre, 2020

El 30 de noviembre, el portavoz del Ministerio de Asuntos Exteriores de China, Lijian Zhao, publicó una imagen en su perfil de Twitter. En ella, un soldado sonríe maniáticamente mientras sostiene un cuchillo ensangrentado en la garganta de un niño sobre la bandera australiana. El niño, cuyo rostro está cubierto por un velo semitransparente, lleva un cordero. Junto a la imagen, Zhao tuiteó: "Conmocionado por el asesinato de civiles y prisioneros afganos por parte de los soldados australianos. Condenamos enérgicamente tales actos y pedimos [sic] que se les haga responsables".

El tuit hace referencia a un comunicado reciente de las Fuerzas de Defensa de Australia, en el que afirmó haber encontrado "información creíble" sobre que 25 soldados australianos habían estado involucrados en el asesinato de 39 civiles y prisioneros afganos entre 2009 y 2013. La imagen pretende mostrar a un soldado australiano a punto de cortarle el cuello a un niño afgano inocente. Muy impactante.

Pero, la imagen es falsa. Si se observa de forma detenida, ni siquiera es muy convincente. Podría haber sido elaborada por cualquier novato en Photoshop. Esta imagen es una falsificación barata o cheapfake, un contenido vulgarmente manipulado, editado, etiquetado incorrectamente o contextualizado inadecuadamente para difundir desinformación.

Este cheapfake se encuentra ahora en el centro de un importante incidente internacional. El primer ministro de Australia, Scott Morrison, declaró que China debería estar "totalmente avergonzada" y exigió una disculpa por esa imagen "repugnante". Pekín (China) se ha negado, acusando a Australia de "barbarie" y de intentar "desviar la atención del público" de los supuestos crímenes de guerra de sus fuerzas armadas en Afganistán.

Hay dos importantes lecciones políticas que sacar de este incidente. La primera es que Pekín autorizó el uso de cheapfake por parte de uno de sus principales diplomáticos para difundir desinformación de forma activa en redes sociales occidentales. Tradicionalmente, China ha actuado con cautela en estos asuntos, teniendo como objetivo presentarse como una superpotencia benigna y responsable. Este nuevo enfoque supone un cambio importante.

Este 'cheapfake' se encuentra ahora en el centro de un importante incidente internacional.

No obstante, en términos más generales, esta escaramuza también demuestra la creciente importancia de la desinformación visual como herramienta política. Durante la última década, la proliferación de contenidos manipulados ha transformado las realidades políticas. (Por ejemplo, los cheapfakes que catalizaron el genocidio contra los musulmanes rohingya en Birmania, o ayudaron a difundir la desinformación relacionada con la COVID-19.) Ahora que las superpotencias globales están compartiendo cheapfakes abiertamente en las redes sociales, ¿qué les impide (a ellas o a cualquier otro actor) usar la desinformación visual más sofisticada cuando aparece?

Periodistas y tecnólogos llevan años advirtiendo sobre los peligros de las ultrafalsificaciones o deepfakes. En general, un deepfake es un tipo de "contenido sintético" que ha sido manipulado o creado por inteligencia artificial. También podría entenderse como el sucesor premium del cheapfake.

Los avances tecnológicos están mejorando al mismo tiempo que la calidad de la desinformación visual y las facilidades para que cualquiera la genere. Como ya es posible crear deepfakes a través de simples apps, casi cualquier persona podrá crear desinformación visual sofisticada casi sin coste.

Falsa alarma

Las advertencias sobre los deepfakes alcanzaron un punto álgido antes de las elecciones presidenciales de Estados Unidos de este año. Durante meses, políticos, periodistas y expertos debatieron cómo contrarrestar la amenaza percibida. En el período previo a la votación, los parlamentos estatales de Texas y California (ambos en EE. UU.) incluso prohibieron de forma preventiva el uso de los deepfakes para no influir en las elecciones.

Mirando atrás, estos temores fueron exagerados. Aparte de algunos desarrollos interesantes, incluida una creación irónica de la cadena estatal rusa Russia Today (RT) en la que un falso Donald Trump derrotado admite ser el peón del presidente ruso Vladimir Putin, no se identificaron demasiados deepfakes relacionados con las elecciones. La verdad es que no se materializó nada que pudiera decirse objetivamente que haya influido en el resultado. En vez de usarse para sabotear o provocar a los políticos, los deepfakes todavía se destinan principalmente a crear contenido pornográfico sin consentimiento.

Aunque los deepfakes aún no se han convertido en las armas de desinformación masiva que algunos predijeron, no es momento para la autocomplacencia. El posible peligro todavía esté mitigado por las limitaciones técnicas. A medida que mejoren las tecnologías de creación de deepfake, se abrirán las compuertas.

E incluso antes de eso, la mera conciencia de los deepfakes ya crea un efecto dañino. En un futuro cercano, los malos podrán generar ultrafalsificaciones sobre cualquier cosa y señalar cualquier contenido auténtico como falso. Este "doble valor" para los malos se conoce como el "dividendo del mentiroso". Aunque el término se acuñó en un artículo fundacional de 2018 sobre los deepfakes, no se refiere solo a los deepfakes. El concepto se extiende a toda la desinformación, incluidos los cheapfakes.

Los 'cheapfakes' están en todas partes

Desde que apareció el infame vídeo manipulado de la presidenta de la Cámara de Representantes de EE. UU., Nancy Pelosi, en 2019, los cheapfakes se han convertido en algo habitual en la vida política de Estados Unidos. Este año, han ayudado a sostener una operación de desinformación de alto nivel fomentada por el anterior presidente, Donald Trump, y sus asociados más cercanos. La falsa afirmación de que las elecciones estuvieron marcadas por un fraude electoral generalizado se reforzaba constantemente mediante cheapfakes.

Un gran ejemplo es el vídeo viral del presidente electo, Joe Biden, en el que dice: "Creo que hemos formado la más extensa e inclusiva organización de fraude electoral en la historia de la política estadounidense". Cuando se contextualizan adecuadamente, los comentarios de Biden se pueden entender como la descripción de un programa para proteger a los votantes en caso de litigio infundado con respecto al resultado de las elecciones. No obstante, tanto Trump como la secretaria de prensa Kayleigh McEnany compartieron ese vídeo y lo presentaron como una prueba de fraude.

Incluso cuando todavía se estaban contando los votos, personas como el propio Trump compartían vídeos auténticos de trabajadores electorales transcribiendo los votos y recogiendo las papeletas de manera rutinaria como "prueba" de la manipulación del voto y de la eliminación de las papeletas. Mientras tanto, el cheapfake viral que mostraba a un hombre "rompiendo" las papeletas resultó ser obra de un bromista de TikTok.

Las acusaciones de fraude electoral generalizado no tienen fundamento, y los tribunales de Estados Unidos están desestimando todos los intentos del equipo jurídico de Trump de disputar el resultado de las elecciones. A principios de este mes, el Fiscal General Bill Barr (quien deja su cargo el 23 de diciembre) finalmente admitió que el Departamento de Justicia de Estados Unidos no había descubierto evidencia de fraude.

Pero, parece que los cheapfakes han tenido grandes consecuencias en el mundo real: a principios de diciembre, el encargado de la implementación del sistema de votación en Georgia (EE. UU.), Gabriel Sterling, mencionó los casos de intimidación y amenazas de muerte contra los trabajadores electorales, alegando: "¡Todo ha ido demasiado lejos! ¡Tiene que parar!" Un trabajador electoral de Georgia tuvo que esconderse después de que un cheapfake de 34 segundos que lo acusara falsamente de tirar una papeleta de voto por correo se volviera viral.

La creencia en la idea de las "elecciones amañadas" está muy marcada en las líneas partidistas. La encuesta de Politico / Morning Consult realizada después de las elecciones encontró que el 70 % de los votantes republicanos había dicho que no creía que hubieran sido "libres y justas". La cantidad de votantes republicanos que expresaron una desconfianza similar en el proceso antes de las elecciones había sido del 35 %. Por el contrario, solo la mitad de los votantes demócratas (52 %) dijo que creía que las elecciones serían "libres y justas" antes del 3 de noviembre. En las encuestas realizadas después de la victoria de Biden, la cifra se disparó al 90 %.

¿En qué creer?

La creciente prevalencia de la desinformación visual parece estar afectando a la política de dos formas distintas. Primero, fomenta la proliferación de todo tipo de desinformación. Los malos actúan con más impunidad, confiados de que pueden evitar el control y la responsabilidad. En el momento de escribir este artículo, el cheapfake compartido por Lijian Zhao todavía estaba publicado en su perfil de Twitter.

Los 'cheapfakes' ofrecen valiosas lecciones sobre los 'deepfakes' del futuro.

En segundo lugar, la creciente prevalencia de la desinformación visual nos hace más susceptibles a todo tipo de desinformación. A medida que la sociedad se vuelva más consciente de las muchas formas en las que se pueden manipular los medios, empezará a dudar más de todos los medios, incluidos los auténticos.

Este escepticismo facilita aún más a que los malos actores proclamen como falsos algunos acontecimientos reales. También puede llevar a interpretaciones cada vez más subjetivas y partidistas de los hechos por parte del propio público. Un ejemplo es la creencia generalizada entre los votantes republicanos de que las elecciones estadounidenses de 2020 no fueron libres y justas. Esto es demostrablemente falso, pero, como sugieren los datos de la opinión pública, no solo los votantes republicanos desconfían del proceso electoral. Antes de la victoria, los votantes demócratas también se habían mostrado escépticos. Si un candidato republicano gana en 2024, ¿volverá la opinión pública a inclinarse por las líneas partidistas?

Aunque las predicciones más terribles sobre los deepfakes políticos no se ha hecho realidad en 2020, debemos analizar su evolución en el contexto de los cheapfakes y otras formas de desinformación política. Los cheapfakes ofrecen valiosas lecciones sobre los deepfakes del futuro. La pregunta, por eso, no debería ser "¿Cuándo surgirán los deepfakes políticos?" sino "¿Cómo podemos mitigar las muchas formas en las que la desinformación visual está modificando nuestra realidad política?"

*Nina Schick es la autora de 'Deepfakes: The Coming Infocalypse'.

Tecnología y Sociedad

Los avances tecnológicos están cambiando la economía y proporcionando nuevas oportunidades en muchas industrias.

  1. El éxodo a Bluesky marca el inicio de la era de las redes sociales descentralizadas

    Bluesky ha ganado terreno como alternativa a X, especialmente tras las últimas elecciones en EE UU. Sin embargo, este fenómeno no refleja el ascenso de un servicio ni el declive de otro, sino una tendencia hacia la descentralización

    Una persona entra a Bluesky desde su teléfono móvil
  2. La herramienta de Google DeepMind para "leer la mente" de la inteligencia artificial

    Un equipo de Google DeepMind ha creado Gemma Scope, una herramienta diseñada para desentrañar los procesos internos de una IA y comprender cómo llega a sus conclusiones. Este avance abre la puerta a algoritmos más transparentes y alineados con las expectativas humanas

    Google DeepMind tiene una nueva herramienta para explorar la IA
  3. El fundador de Oculus habla sobre la apuesta de EE UU por la realidad mixta en el campo de batalla

    El proyecto norteamericano de gafas militares está cuestionado, pero Palmer Luckey cree que los cascos dotados con IA y realidad aumentada serán clave en los ejércitos del futuro