El sistema analiza la huella biométrica suave de cada persona, como la forma de sonreír tras una pregunta, para identificar si el vídeo en el que aparece es real o una falsificación. Para evitar que los falsificadores aprendan a superarlo, sus creadores no han hecho público el sistema, de momento
Un vídeo creado por inteligencia artificial (IA) podría hacer que cualquiera aparezca diciendo o haciendo algo extremadamente escandaloso e incendiario. Y dado que, gracias a la tecnología, el vídeo sería increíblemente realista, en el peor de los casos, podría llegar a influir en unas elecciones, desencadenar disturbios o incluso provocar un conflicto armado internacional.
Afortunadamente, una nueva técnica forense digital promete proteger los líderes mundiales y a las celebridades contra ese tipo de deepfakes, al menos por ahora. El nuevo método utiliza el aprendizaje automático para analizar la forma de hablar y los movimientos de una persona específica, lo que los investigadores llaman "firma biométrica débil".
El equipo, formado por investigadores de la Universidad de California en Berkeley y de la Universidad del Sur de California (ambas en EE. UU.), utilizó una herramienta existente para extraer los movimientos de la cara y de la cabeza de algunas personas. Después, crearon sus propios deepfakes para Donald Trump, Barack Obama, Bernie Sanders, Elizabeth Warren y Hillary Clinton utilizando redes generativas antagónicas (GAN, por sus siglas en inglés).
Luego, el equipo utilizó el aprendizaje automático para distinguir los movimientos de la cabeza y de la cara típicos de cada persona real. Estas señales sutiles, como por ejemplo la forma en la que Bernie Sanders asiente con la cabeza mientras pronuncia alguna palabra concreta, o la forma en la que Trump sonríe después de una reaparición, actualmente no están modeladas por los algoritmos de deepfake.
En los experimentos, la técnica alcanzó una precisión de al menos 92 % para detectar distintas variaciones de deepfakes, incluidos los intercambios de caras. También podrá analizar los objetos en los archivos que provienen de la compresión de vídeos, que puede confundir a otras técnicas de detección. Los investigadores planean mejorar esta técnica mediante el análisis las características de la forma de hablar de cada persona. El estudio, que se presentó recientemente en una conferencia de visión artificial, fue financiado por Google y DARPA, el ala del Pentágono dedicado a la investigación. DARPA está financiando un programa para diseñar mejores técnicas de detección.
El problema al que se enfrentan los líderes mundiales (y todos nosotros) es que generar vídeos falsos con inteligencia artificial se ha vuelto ridículamente sencillo. Las noticias falsas, las cuentas de las redes sociales falsas y los vídeos falsos ya forman parte de la agenda informativa y política. A los políticos les preocupa especialmente que los medios de comunicación falsos se puedan utilizar para sembrar la desinformación durante las elecciones presidenciales de 2020.
Ya se habían creado algunas herramientas para identificar vídeos deepfake, pero los falsificadores se adaptan a ellas rápidamente. Por ejemplo, durante un tiempo fue posible detectar un deepfake solo con mirar a los ojos del protagonista, que tendían a ser poco naturales puesto que no parpadeaban. Poco después de que se identificara este método, los algoritmos de deepfake se modificaron para incluir un mejor parpadeo.
El profesor de la Universidad del Sur de California Hao Li, quien ayudó a desarrollar esta nueva técnica, afirma: "Estamos viviendo una carrera armamentística entre las manipulaciones digitales y la capacidad de detectarlas, y los avances en de la IA catalizan ambos bandos". Por esta razón, su equipo aún no ha publicado el código de su técnica.
Asegura que a los creadores de deepfakes les costará bastante engañar a su técnica, pero admite que probablemente lo acabarán logrando. "El siguiente paso para ir desarrollando esta forma de detección sería sintetizar los movimientos y comportamientos basados en observaciones anteriores de una persona en concreto", afirma.
Li también destaca que a medida que los deepfake se vuelven más fáciles de usar y más poderosos, es posible que todos empecemos a plantearnos que necesitamos un seguro anti-deepfakes. El investigador concluye: "Las celebridades y las figuras políticas han sido los principales objetivos hasta ahora. Pero no me sorprendería que dentro de un año dos, los usuarios artificiales indistinguibles de los reales acaben siendo sintetizados por cualquiera".