.

La tecnología actual permite que cualquiera haga vídeos falsos de otras personas, como políticos y personajes famosos. Esto complica aun más el futuro de las noticias falsas

Inteligencia Artificial

La IA es la única opción contra las noticias falsas que ella misma crea

1

El Gobierno de EE. UU. está financiando una iniciativa para entrenar a sistemas de inteligencia artificial para que aprendan a detectar de forma automática audios, imágenes y vídeos falsos creados por otas máquinas. Pero sus propios responsables admiten que podría ser una batalla perdida.

  • por Will Knight | traducido por Mariana Díaz
  • 29 Mayo, 2018

¿Cree que la inteligencia artificial (IA) pondrá freno a las noticias falsas? El ejército de Estados Unidos no está tan seguro.

El Departamento de Defensa de EE. UU. está financiando un proyecto para determinar si los vídeos y audio falsos, que cada vez son más reales, generados por sistemas de inteligencia artificial (IA) llegarán a ser imposibles de distinguir de los reales, incluso para otro sistema de IA.

La iniciativa, financiada por la Agencia de Proyectos de Investigación Avanzados de Defensa (DARPA, por sus siglas en inglés), reunirá este verano a los mejores expertos forenses digitales del mundo para participar en un concurso de falsificaciones mediante IA. Competirán para generar los vídeos, las imágenes y los audios falsos más convincentes mediante una IA. Pero también intentarán desarrollar herramientas que capaces de identificar estas falsificaciones de forma automática.

El concurso incluirá los llamados vídeos "deepfake" o falsificaciones automáticas, en los que la cara de una persona se superpone en el cuerpo de otra. De manera bastante predecible, la tecnología ya se ha utilizado para generar falsificaciones de vídeos pornográficos en los que se inserta la cara de una persona famosa. Pero el método también puede utilizarse para producir un vídeo de un político diciendo o haciendo algo escandaloso.

A los técnicos del DARPA les preocupa especialmente una nueva técnica de IA que podría lograr que las falsificaciones hechas con inteligencia artificial sean casi imposibles de detectar de forma automática. Esta técnica utiliza lo que se conoce como redes generativas antagónicas, o GAN (por sus siglas en inglés de generative adversial network) para generar imágenes artificiales increíblemente realistas. De hecho, este potencial la ha convertido en una de las 10 Tecnologías Emergentes de 2018 de MIT Technology Review.

Vídeo: En este vídeo, el actor y cineasta Jordan Peele manipula el rostro del expresidente Barack Obama para transmitir noticias falsas. Crédito: Buzzfeedvideo | YouTube.

El administrador del programa DARPA responsable del proyecto, David Gunning, señala: "En teoría, si se entrena a una GAN con todas las técnicas conocidas para detectar las falsificaciones, podría transmitirlas todas. No sabemos si hay un límite. No está claro".

Una GAN consta de dos componentes. El primero, conocido como "el actor" o "el generador", intenta aprender los patrones estadísticos de un conjunto de datos, como un conjunto de imágenes o vídeos, para generar datos artificiales convincentes. El segundo, llamado "el crítico" o "el discriminador", intenta distinguir entre ejemplos reales y los falsos generados por su adversario. Los comentarios del sistema crítico permiten al actor producir ejemplos cada vez más realistas. Así que dado que las GAN están diseñadas para aprender engañar a un sistema de inteligencia artificial, no está claro si otro sistema podría identificar sus falsificaciones de forma automática.

Aunque las GAN son relativamente nuevas, no han tardado en ganar popularidad en el campo del aprendizaje automático (ver El señor de las GAN: el hombre que dio imaginación a las máquinas). Las redes generativas antagónicas ya se pueden utilizar para crear celebridades imaginarias de forma realista y para modificar imágenes de manera convincente cambiando un ceño fruncido por una sonrisa o convirtiendo la noche en día.

Por lo general, para detectar una falsificación digital hacen falta tres pasos. El primero consiste en examinar el archivo digital en busca de indicios de solapamiento entre dos imágenes o vídeos. El segundo es analizar la iluminación y otras propiedades físicas de las imágenes en busca de señales de que algo anda mal. Y el tercero, que es el más difícil de hacer de forma automática, y probablemente el más difícil de vencer, requiere analizar las inconsistencias lógicas, como un clima que no encaja con la fecha de grabación o un fondo incorrecto para la supuesta ubicación.

El experto forense digital de la Universidad de Notre Dame (EE. UU.) Walter Scheirer, que participa en el proyecto DARPA, dice que la tecnología ha avanzado muchísimo desde que se lanzó la iniciativa hace un par de años: "Definitivamente estamos en una carrera armamentista".

A pesar de que ya hace tiempo que cualquier experto en gráficos con maña podía generar falsificaciones de apariencia convincente, la inteligencia artificial está poniendo la tecnología al alcance de más personas. El profesor de la Universidad de Dartmouth (EE. UU.) Hany Farid, que se especializa en medicina forense digital, confirma: "La técnica ha dejado de estar limitada a las manos de personas apoyadas por gobiernos y Hollywood para estar a disposición de cualquier usuario de Reddit. Creemos que proteger la democracia es un tema urgente".

Las falsificaciones automáticas utilizan una popular técnica de aprendizaje automático conocida como aprendizaje profundo para incorporar una nueva cara en un vídeo existente de forma automática. Cuando se ingresan grandes cantidades de datos en una red neuronal artificial muy grande o "profunda", un ordenador puede aprender a realizar todo tipo de tareas útiles, como reconocer rostros con precisión. Pero el mismo enfoque también permite manipular vídeos de forma maliciosa. Una herramienta disponible online permite a cualquier persona con un poco de conocimiento técnicos modesto generar nuevos deepfakes. El creador de esa herramienta le comentó a Motherboard que ya está trabajando en una versión más fácil de usar.

El problema va mucho más allá del simple intercambio de rostros. Los expertos creen que no faltará mucho para que sea mucho más difícil identificar una foto, un vídeo o un audio generado por una máquina (ver La tecnología para manipular contenidos amenaza con devolvernos a las noticias del siglo XX). Google incluso ha desarrollado una herramienta llamada Duplex que usa inteligencia artificial para simular una llamada telefónica.

Al tecnólogo jefe del Centro de Responsabilidad de Medios Sociales de la Universidad de Michigan (EE. UU.), Aviv Ovadya, le preocupa que las tecnologías de inteligencia artificial que se están desarrollando puedan usarse para dañar la reputación de alguien, influir en unas elecciones o algo peor. "Estas tecnologías se pueden utilizar de forma maravillosa para el entretenimiento, pero también de formas muy aterradoras", dijo Ovadya en un evento de Bloomberg celebrado el 15 de mayo. Y advirtió: "Ya se han usado imágenes falsas para causar violencia real en todo el mundo en desarrollo. Es un peligro real con el que ya vivimos".

Si la tecnología no logra detectar falsificaciones y desinformación, puede que sea necesario endurecer las leyes. De hecho, el pasado abril Malasia introdujo leyes contra los bulos. Pero Farid cree que esto puede resultar problemático porque la verdad es, en sí misma, un tema complejo: "¿Cómo define qué es una noticia falsa? No es tan fácil como parece. Puedo recortar una imagen y, básicamente, estaría cambiándola. Y, ¿qué hacemos con las plataformas que publican noticias falsas a modo de sátira como El Mundo Today?".

Inteligencia Artificial

 

La inteligencia artificial y los robots están transformando nuestra forma de trabajar y nuestro estilo de vida.

  1. La IA llega a los videojuegos: la versión de Minecraft que presenta un mundo generado automáticamente en tiempo real

    Esta versión del popular videojuego de construcción, desarrollada por las empresas Decart y Etched, es un experimento que demuestra cómo la IA puede generar mundos sin necesidad de que un humano escriba una sola línea de código

    La IA llega a los videojuegos: la versión de Minecraft que presenta un mundo generado automáticamente en tiempo real
  2. Así funciona el oligopolio de los datos que entrenan los modelos de IA

    Un estudio revela que los datos empleados para entrenar la IA están concentrando el poder en manos de unas pocas empresas, creando un oligopolio alineado con los intereses y objetivos de corporaciones con fines lucrativos

    Tras el telón de la IA: de dónde salen los datos que la construyen
  3. El gobierno de EE UU pone bajo la lupa a las empresas de IA por publicidad engañosa

    La Comisión Federal de Comercio (FTC) de Estados Unidos ha tomado medidas contra varias empresas de IA por mentir y realizar publicidad engañosa, una lucha que continuará durante el próximo mandato de Donald Trump

    La Comisión Federal de Comercio (FTC) de Estados Unidos ha tomado medidas contra varias empresas de IA