.

Facebook

Inteligencia Artificial

(Por fin) Facebook toma medidas para combatir la plaga de 'deepfakes'

1

La red social creará sus propias ultrafalsificaciones y las usará para desarrollar sistemas capaces de detectarlas automáticamente. Cada vez más empresas, políticos y expertos alertan del enorme problema que supondrán cuando se masifiquen, ya que incluso podrían usarse para el acoso escolar

  • por Will Knight | traducido por Ana Milutinovic
  • 12 Septiembre, 2019

Facebook teme que los vídeos "deepfake", o ultrafalsificaciones, generados con inteligencia artificial (IA) se conviertan en la próxima gran fuente de desinformación viral, propagándose entre sus usuarios con consecuencias potencialmente catastróficas para las próximas elecciones presidenciales de Estados Unidos.

¿Su solución? Crear muchos deepfakes propios para ayudar a los investigadores a elaborar y perfeccionar herramientas de detección.

La red social ha pedido a su equipo de investigadores de IA que produzca una serie de vídeos ultrafalsos muy realistas con actores haciendo y diciendo cosas rutinarias. Estos contenidos servirán como conjunto de datos para probar y comparar distintas herramientas de detección de deepfakes. Facebook presentará sus deepfakes en una gran conferencia de inteligencia artificial a finales de este año.

El aumento de los deepfakes ha estado impulsado por algunos recientes avances del aprendizaje automático. Los estudios de cine llevan mucho tiempo manipulando imágenes y vídeos con software y ordenadores, y ya utilizaban algoritmos capaces de capturar y recrear la imagen de una persona para elaborar herramientas para colocar la cara de una persona sobre el cuerpo de otra.

Existen métodos para detectar estas falsificaciones, pero suelen requerir un minucioso análisis de expertos. Sin embargo, las herramientas para detectar ultrafalsificaciones de forma automática todavía están en desarrollo.

El CTO de Facebook, Mike Schroepfer, afirma que los deepfakes están evolucionando muy deprisa, así que resulta vital idear mejores formas de descubrirlas o bloquearlas. El experto detalla: "Todavía no figura como un gran problema en nuestras plataformas, pero supongo que si vuelven más baratos, más fáciles y más rápidos de crear, el riesgo de que se use de manera maliciosa aumentará claramente. No me gustaría que se convierta en un problema masivo porque no hayamos invertido suficiente en I+D".

Al comparar esta iniciativa con la pasada lucha contra los correos basura (spam), Schroepfer destaca que Facebook quizás no sea capaz de identificar los deepfakes más sofisticados. El responsable señala encontrarán "las obvias", pero subraya que Facebook aún no está usando ninguna estrategia concreta porque las ultrafalsificaciones están mejorando muy rápido.

La red social va a invertir nueve millones de euros para financiar la tecnología de detección a través de subvenciones y premios de competiciones. Junto con Microsoft, Partnership on AI y expertos de las instituciones como MIT, la Universidad de California Berkeley (todos en EE. UU.) y la Universidad de Oxford (Reino Unido), la compañía lanzará el Deepfake Detection Challenge, que ofrecerá recompensas económicas para los mejores métodos de detección.

Crear un deepfake suele requerir dos videoclips. Los algoritmos aprenden el aspecto de cada cara para pegar una sobre la otra mientras mantienen cada sonrisa, parpadeo y movimiento. También se pueden usar diferentes técnicas de IA para recrear la voz de una persona específica. El término "deepfake" fue acuñado por usuario de Reddit que bautizó técnica en 2017 en referencia al aprendizaje profundo (deep learning), la técnica de IA empleada.

Una de las grandes preocupaciones reside en que los deepfakes se usen para difundir bulos y desinformación viral durante las elecciones estadounidenses del próximo año, algo que podría incluso influir en el resultado. Varios senadores estadounidenses han dado la voz de alarma sobre esta amenaza y el senador republicano de Nebraska Ben Sasse ha presentado un proyecto de ley para ilegalizar la creación y distribución de ultrafalsificaciones con intenciones maliciosas. Un reciente informe sobre la desinformación electoral describe a las ultrafalsificaciones como uno de los varios desafíos clave de las elecciones presidenciales de EE. UU. de 2020.

Los deepfake ya se están extendiendo por las redes plataformas sociales. A principios de este año, un clip que parecía mostrar a la presidenta de la Cámara de Representantes de EE. UU., Nancy Pelosi, pronunciando mal su discurso (algo que se hizo simplemente a cámara lenta) se difundió rápidamente por Facebook. La compañía se negó a eliminar la publicación, y lo mismo pasó con un deepfake de Mark Zuckerberg. En lugar de eso, se limitó a marcar los contenidos como falsos en colaboración con organizaciones de verificación.

Tiene sentido que Facebook intente crear avances en este tema, especialmente después de las consecuencias de las últimas elecciones presidenciales de EE.UU. A medida que surgían los detalles de las campañas de desinformación política que se llevaron a cabo, Facebook fue fuertemente criticada por haber permitido que se difundiera esa propaganda.

Sin embargo, promover el reto de detección de deepfakes también podría tener consecuencias no deseadas. El analista de Deeptrace Henry Ajder, cuya compañía se dedica a crear herramientas para detectar ultrafalsificaciones, señala que el discurso sobre los deepfakes podría convertirse en una herramienta para que los políticos eludan la responsabilidad, tachando como falsificación la información real (ver Crear noticias falsas, al alcance de cualquiera gracias a la IA). "El simple concepto de deepfake ya está creando muchos problemas. Es un virus en la esfera política que ha infectado las mentes de los políticos y de los ciudadanos", Ajder.

Pero, a pesar de la alarma, Ajder, que busca ultrafalsificaciones en todas partes, duda de que la tecnología se centre en fines políticos durante mucho tiempo. Cree que no tardará en convertirse en una potente herramienta de ciberacoso y acoso escolar.

Ya existen algunos métodos para detectar ultrafalsificaciones. Las técnicas más simples consisten en analizar los datos en un archivo de vídeo o buscar movimientos reveladores de la boca y el pestañeo, que son los elementos más difíciles de capturar y recrear para un algoritmo.

Otro método desarrollado recientemente por un grupo de los principales expertos del campo consiste en entrenar un algoritmo de aprendizaje profundo para que reconozca el movimiento específico de la cabeza de una persona, ya que es algo en lo que los algoritmos no se suelen centrar. Este enfoque surgió a partir de otro esfuerzo para desarrollar herramientas de detección, financiado por la Agencia de Proyectos de Investigación Avanzada de Defensa (DARPA, por sus siglas en inglés).

Muchos expertos se han sorprendido y alarmado por la velocidad a la que progresan las falsificaciones de IA. La semana pasada, la aplicación china Zao provocó un debate al publicar vídeos deepfake supuestamente creados a partir de una imagen fija. El artista audiovisual y profesor asociado de la Universidad del Sur de California (EE. UU.), Hao Li advierte de que pronto será posible producir deepfakes indetectables de forma masiva (ver El padre de los 'deepfakes' lucha contra el monstruo en el que se han convertido).

Inteligencia Artificial

 

La inteligencia artificial y los robots están transformando nuestra forma de trabajar y nuestro estilo de vida.

  1. Esta IA ayuda a que los profesores enseñen mejor matemáticas a los niños

    La herramienta, llamada Tutor CoPilot, demuestra cómo la IA podría mejorar, en lugar de sustituir, el trabajo de los educadores

  2. Meta ofrece gratis un gran conjunto de datos para acelerar el descubrimiento de nuevos materiales mediante IA

    Open Materials 2024 (OMat24) es uno de los mayores conjuntos de datos de entrenamiento de IA para la ciencia de materiales y está disponible de forma abierta y gratuita

  3. ChatGPT discrimina por raza y género según el nombre de usuario en el 0,1% de las interacciones

    MIT Technology Review accede en exclusiva a la investigación sobre estereotipos negativos en los grandes modelos lingüísticos de la empresa