.

El de arriba a la izquierda soy yo

Inteligencia Artificial

'Deepfakes' virales: la fina línea que separa el humor del abuso

1

Cada vez es más fácil crear contenidos ultrafalsificados, y ya hay tutoriales que enseñan a cualquiera a crearlos. De momento, su baja calidad sigue haciendo que sean muy fáciles de reconocer, pero el rápido avance de la tecnología amenaza con convertirla en una potente arma de manipulación

  • por Karen Hao | traducido por Ana Milutinovic
  • 03 Septiembre, 2020

Grace Windheim ya había oído hablar de las ultrafalsificaciones o deepfakes. Pero nunca se había planteado crear uno. Decidió intentarlo a raíz de un meme viral creado con esta tecnología, y así fue como descubrió lo fácil que era, y gratis.

En un solo día, creó un tutorial de YouTube paso a paso para guiar a la gente a través del proceso. "Generar uno de estos deepfakes y superponer audio no es tan complicado como parece", afirma en el vídeo, publicado el 4 de agosto, y que, desde entonces, ha sido visto más de 360.000 veces.

Windheim forma parte de un nuevo grupo de creadores online que juegan con los deepfakes ya que la tecnología se ha vuelto cada vez más accesible y se ha filtrado en la cultura de internet. El fenómeno no es nada sorprendente; las herramientas de manipulación de medios a menudo ganaban fuerza a través del juego y la parodia. Pero eso también genera nuevas preocupaciones sobre su potencial de abuso.

Los deepfakes ya se habían utilizado para acosar a mujeres al insertar sus caras en vídeos pornográficos sin su consentimiento. A los expertos también les preocupa su capacidad para influir en procesos electorales. Aunque los deepfakes creados para memes siguen resultando claramente falsos y relativamente inofensivos, es posible que no permanezcan así por mucho tiempo.

Windheim detalla: "Existe una fina línea entre crear los deepfakes para entretener y generar memes, y usarlos para hacer daño. En este tutorial, explico, 'Así es como se hace este deepfake en concreto'. Lo que asusta es que es posible aplicarlo para generar cualquier tipo de deepfake".

La canción estrella

Windheim, recién licenciada universitaria, trabaja como creadora de contenido en Kapwing, una start-up de San Francisco (EE. UU.). La empresa, que comenzó como productora de memes, ofrece un conjunto gratuito de herramientas de software de edición de vídeo basadas en un navegador. Como parte de su trabajo, Windheim gestiona el canal de YouTube y produce vídeos de marketing de contenido para mostrar las capacidades de los productos.

A principios de agosto, se encontró con un término de búsqueda especialmente viral en Google Trends. Tres de las cinco búsquedas principales se referían a un "meme deepfake de Baka Mitai". La creadora recuerda: "Creo que nunca he visto que una búsqueda aparezca con tanta frecuencia".

Resulta que ese meme se basó en un vídeo de un YouTuber moviendo los labios con una canción japonesa de videojuego titulada Baka Mitai (traducción: "He sido un tonto"). Varios usuarios de internet habían usado ese vídeo para crear deepfakes de mucha gente, desde Barack Obama hasta Thanos, cantando esa canción. Sin embargo, a pesar de su popularidad, Windheim descubrió que no había demasiada información sobre cómo se creaban. Ahí fue donde vio su oportunidad.

El algoritmo deepfake específico que usaba la gente proviene de un artículo de investigación de 2019 presentado en NeurIPS, la mayor conferencia anual de investigación de inteligencia artificial. A diferencia de otros algoritmos más complejos, este permite al usuario tomar cualquier vídeo de la cara de una persona y usarlo para animar una foto de la cara de otra persona con solo unas pocas líneas de código.

Windheim encontró el algoritmo de código abierto en un tutorial de YouTube y lo transfirió al Google Colab, el servicio gratuito para ejecutar código en la nube. Después de algunos intentos, gracias a las habilidades que había adquirido en las clases de codificación en la universidad, consiguió la fórmula para un vídeo deepfake. Luego sincronizó la canción con el vídeo de las herramientas de Kapwing, creando una nueva versión del meme.

Desde que publicó su tutorial en el canal de YouTube de Kapwing, varios YouTubers también han creado tutoriales utilizando el mismo algoritmo de copiar y pegar. La diferencia: muchos de ellos enseñan a su público cómo hacer cualquier tipo de meme deepfakeIncluso se enseña a la gente cómo crearlos en dispositivos móviles.

Estos memes ya están por todas partes en las redes sociales: Twitter, Instagram y especialmente en TikTok. Los vídeos cortos de la plataforma, que suelen presentar una coreografía ágil con música pegadiza, son especialmente adecuados para usar los deepfakes y producir efectos fascinantes. El hashtag #deepfake en esta app ya acumula más de 120 millones de visitas.

Los rostros de los vídeos hechos con este algoritmo revelan cierta torpeza, lo que provoca que la manipulación resulte fácil de reconocer. Además, esa es parte de la gracia de los deepfakes. Estas imperfecciones, y la calidad surrealista de los memes, evitarán que se confundan con la realidad. En este momento, la creación de los deepfakes hiperrealistas es mucho más desafiante técnicamente y costosa computacionalmente.

Pero al ritmo que avanza la tecnología, los deepfakes fáciles de hacer y casi indistinguibles de la realidad podrían estar muy cerca. Algunas empresas, como el gigante tecnológico chino Tencent, propietario de WeChat, han anunciado públicamente sus intenciones de invertir más recursos en el avance de última generación para aplicaciones comerciales para crear deepfakes.

Los deepfakes no son inherentemente malos. La tecnología ya ha sido utilizada por artistas, educadores y otros como una nueva y poderosa herramienta para la expresión creativa. En febrero, por ejemplo, la revista Time utilizó deepfakes para recrear la experiencia de Martin Luther King Jr. pronunciando su discurso "Tengo un sueño" en realidad virtual. En última instancia, los reguladores deben definir el uso apropiado y el que podría provocar daños.

Por ahora, Windheim confía en su propio criterio para tomar esa decisión. Antes de publicar su vídeo, estuvo leyendo sobre las consecuencias de los deepfakes y tuvo una conversación con sus colegas. Asegura: "Nunca hemos querido que nuestros productos ayuden a los usuarios a difundir desinformación, solo queríamos comprobar nuestro buen juicio".

Al final, decidieron llevarlo a cabo con algunas reglas básicas: centrarían sus tutoriales en crear memes específicos, nunca en generar deepfakes fuera de ese contexto. Siempre que sea entretenimiento y manteniéndose dentro de la cultura de los memes, Windheim cree que "estarán en una zona segura".

Inteligencia Artificial

 

La inteligencia artificial y los robots están transformando nuestra forma de trabajar y nuestro estilo de vida.

  1. La "sustancia" del algoritmo: la IA cada vez está más cerca de actuar por nosotros

    En un futuro cercano, la IA no solo será capaz de imitar nuestra personalidad, sino también de actuar en nuestro nombre para llevar a cabo tareas humanas. Sin embargo, esto da lugar a nuevos dilemas éticos que aún deben ser resueltos

    Agentes de IA, hacia un futuro con algoritmos humanos y dilemas éticos complejos
  2. Por qué medir la IA sigue siendo un desafío pendiente

    Los benchmarks, diseñados para evaluar el rendimiento de una IA, a menudo están basados en criterios opacos o en parámetros que no reflejan su impacto real. No obstante, hay enfoques que buscan ofrecer evaluaciones más precisas y alineadas con desafíos prácticos

    Los benchmarks, diseñados para evaluar el rendimiento de una IA, a menudo se fundamentan en criterios opacos o en parámetros que no reflejan su impacto real
  3. Qué es el 'red-teaming', el proceso que permite a OpenAI detectar fallos en ChatGPT

    A través del red-teaming, un proceso en el que se simulan ataques para buscar fallos en los sistemas, OpenAI identifica vulnerabilidades en sus herramientas. Sin embargo, la amplia variedad de situaciones en las que se pueden utilizar estos modelos dificulta su control

    El 'red-teaming' es un proceso usado por OpenAI para detectar fallos en sus modelos