Las imágenes y vídeos falsos pero increíblemente realistas creados con inteligencia artificial empiezan a impedir que confiemos en todo lo que vemos y amenaza con atacar la reputación de la gente. En EE. UU. por fin han empezado a trabajar para regular el problema
La reciente y rápida difusión de un vídeo manipulado de la política estadounidense Nancy Pelosi ha asustado a los legisladores del país (EE. UU.). El vídeo, editado para que parezca borracha, es solo uno de los muchos ejemplos que hemos visto en el último año de que los contenidos manipulados han conseguido penetrar en el discurso público general. En enero, un otro vídeo manipulado del presidente del país, Donald Trump, acabó transmitiéndose en la televisión de Seattle (EE. UU.). Y la semana pasada, un vídeo de Mark Zuckerberg generado por inteligencia artificial (IA) fue subido a Instagram. (Facebook ha prometido no quitarlo).
A medida que se acercan las elecciones presidenciales de 2020 en EE. UU., el Congreso parece estar cada más preocupado de que la rápida y fácil capacidad de manipular a los medios haga que las campañas electorales se vuelvan vulnerables a los ataques de agentes extranjeros y pongan en riesgo la confianza de los votantes.
En respuesta, la Cámara de Representantes de EE. UU. celebró la semana pasada su primera audiencia sobre deepfakes, esa especie de noticias artificiales generadas por IA. En paralelo, la congresista Yvette Clarke presentará un proyecto de ley sobre el mismo tema. Un nuevo informe de investigación publicado por una organización sin ánimo de lucro también destaca una estrategia de actuación ante la proliferación de vídeos deepfake y otros contenidos manipulados.
No es la primera vez que los legisladores de EE. UU. intentan tomar medidas sobre este tema. En diciembre de 2018, el senador Ben Sasse presentó otro proyecto de ley que intentaba prohibir los vídeos deepfake maliciosos. El senador Marco Rubio también se pasó años alertando repetidamente sobre la tecnología. Pero esta es la primera vez que los legisladores estadounidenses se centran tanto en el tema.
El proyecto de ley deepfake
El proyecto de ley, fruto de varios meses de consultas con informáticos, expertos en desinformación y defensores de los derechos humanos, incluirá tres disposiciones. La primera obligará a compañías e investigadores a crear herramientas para hacer deepfakes que agreguen automáticamente marcas de agua a las creaciones manipuladas.
La segunda requerirá que las empresas de medios sociales desarrollen mejores sistemas de detección de contenidos manipulados en sus plataformas. Finalmente, la tercera disposición se refiere a las sanciones, como multas o incluso penas de cárcel, para castigar a los infractores por crear los vídeos de deepfake maliciosos que perjudiquen a personas concretas o amenacen a la seguridad nacional. En particular, intentará introducir un nuevo mecanismo legal si la reputación de las personas se ve dañada por estos medios artificiales.
"Este problema no solo afecta a los políticos", asegura la experta del Instituto de Investigación de Datos y Sociedad y asesora en este proyecto de ley Mutale Nkonde. La investigadora añade: "Es mucho más probable que los vídeos de deepfake se usen contra las mujeres, minorías, personas de la comunidad LGBT y la gente pobre. Y esas personas no van a tener los recursos para luchar contra lo que afecta su reputación".
El objetivo del proyecto de ley no se limita a buscar la aprobación Congreso. Nkonde opina que el texto también está pensado para iniciar un debate más profundo sobre cómo abordar este tema en la ley proponiendo recomendaciones específicas que se podrían criticar y refinar. La experta detalla: "Lo que realmente buscamos es que la idea de que la manipulación audiovisual es inaceptable conste en el registro del Congreso".
El estado actual de los deepfakes
Por casualidad, la organización sin ánimo de lucro de los derechos humanos Witness publicó la semana una nueva investigación que documenta el estado actual de la tecnología deepfake. Los deepfakes todavía no se usan de forma generalizada: aún requieren habilidades técnicas especializadas para su creación, y suelen dejar detalles, como errores y el pixelado, que hacen que la manipulación sea obvia.
Pero la tecnología está avanzando muy rápido, y la cantidad de datos necesarios para manipular un vídeo se ha reducido drásticamente. Hace tres semanas, Samsung demostró que era posible crear un vídeo completo a partir de una sola foto; la semana pasada, un equipo de universitarios y científicos demostró una nueva herramienta que permite a los usuarios editar las palabras de alguien escribiendo lo que quieren que diga esa persona.
Por lo tanto, es solo cuestión de tiempo antes de que los deepfakes se vuelvan masivos, opina el director del programa de Witness, Sam Gregory. El responsable añade: "Muchas de las formas en las que la gente consideraría usar los deepfakes (para atacar a los periodistas, para mostrar la corrupción de los políticos, para manipular evidencias) son claramente evoluciones tecnológicas de problemas ya existentes, por lo que deberíamos esperar que las personas utilicen las opciones más modernas de hacerlo".
El informe describe una estrategia sobre cómo prepararse para un futuro tan inminente. Muchas de las recomendaciones y gran parte de las evidencias de apoyo van en línea con las propuestas del proyecto de ley de esta Cámara.
El informe descubrió que las inversiones actuales de los investigadores y las empresas de tecnología en la generación de los deepfakes superan con creces a las de la detección de los mismos. Adobe, por ejemplo, ha creado muchas herramientas para facilitar la edición de contenidos, incluida una reciente posibilidad de eliminar objetos en los vídeos; sin embargo, no ha creado nada para detenerlos.
El resultado es un desajuste entre la naturaleza real de la manipulación informativa y las herramientas disponibles para combatirla. Gregory afirma: "Si alguien crea una herramienta para la manipulación o falsificación perfecta para el ojo o el oído humano, debería crear herramientas diseñadas específicamente para detectar esa falsificación". La pregunta es cómo obligar a los fabricantes de herramientas a arreglar ese desequilibrio.
Al igual que el proyecto de ley de la Cámara, el informe también recomienda que las empresas de redes sociales y los buscadores mejoren su funcionamiento integrando herramientas de detección de manipulación en sus plataformas. Facebook podría invertir en la detección de la eliminación de objetos, por ejemplo, para contrarrestar esa función de Adobe, así como otras técnicas de edición no apropiadas.
Además, los vídeos e imágenes que se muestran a los usuarios deberían estar señalizados para destacar que han sido editados de manera invisible para el ojo humano. Google, por ejemplo, debería invertir en la búsqueda de vídeos para ayudar a los periodistas y espectadores a identificar rápidamente la fuente original de un clip.
Mas allá del Congreso
A pesar de la estrecha concordancia entre el informe y el proyecto de ley, Gregory advierte que el Congreso de EE. UU. debería pensárselo dos veces antes de aprobar leyes sobre deepfakes. "Es pronto para regular los deepfakes y los contenidos artificiales", señala el experto, aunque hace excepciones para aplicaciones muy limitadas, como su uso para producir imágenes sexuales sin consentimiento. Y añade: "No creo que tengamos demasiada información sobre cómo la sociedad y las plataformas manejarán los deepfakes y los contenidos artificiales para establecer las regulaciones vigentes".
Le preocupa que el debate político actual dé lugar a decisiones con repercusiones negativas en el futuro. Las regulaciones de EE. UU. podrían influir mucho en otros países, por ejemplo. Y es fácil imaginar que los gobiernos más autoritarios aprovechen las regulaciones de protección de los políticos para justificar la eliminación de cualquier contenido que resulte polémico o que critique a los líderes políticos.
Nkonde coincide en que el Congreso debe adoptar un enfoque medido y reflexivo sobre este tema y considerar su impacto en la política. Y concluye: "Realmente espero que hablen [durante la audiencia] sobre la cantidad de personas afectadas por esta tecnología y sobre el impacto psicológico de no poder creer en lo que vemos y escuchamos".