.

SARAH ROGERS / MITTR | GETTY

Inteligencia Artificial

Tres lecciones a partir de los 'deepfakes' porno de Taylor Swift

1

Taylor Swift fue objeto recientemente de una despiadada campaña de pornografía 'deepfake' no consentida. Estas herramientas y políticas podrían ayudarnos a evitar que vuelva a ocurrir.

  • por Melissa Heikkilä | traducido por
  • 31 Enero, 2024

La semana pasada, imágenes sexualmente explícitas de Taylor Swift, una de las mayores estrellas del pop mundial, se hicieron virales en Internet. Millones de personas vieron porno deepfake no consentido de Swift en la red social X, antes conocida como Twitter. Desde entonces, X ha tomado la drástica medida de bloquear todas las búsquedas de Taylor Swift para intentar controlar el problema.

No se trata de un fenómeno nuevo: los deepfakes existen desde hace años. Sin embargo, el auge de la IA generativa ha hecho que sea más fácil que nunca crear pornografía deepfake y acosar sexualmente a las personas utilizando imágenes y vídeos generados por IA.

De todos los perjuicios relacionados con la IA generativa, los deepfakes no consentidos afectan al mayor número de personas, siendo las mujeres la gran mayoría de las víctimas, afirma Henry Ajder, experto en IA generativa y contenido sintético.

Afortunadamente, hay algo de esperanza. Nuevas herramientas y leyes podrían dificultar a los agresores el uso de las fotos de las personas como arma, y podrían ayudarnos a responsabilizar a los autores.

He aquí tres formas de combatir la pornografía deepfake no consentida.

MARCAS DE AGUA

Las plataformas de redes sociales examinan las publicaciones que se suben a sus sitios y retiran el contenido que va en contra de sus políticas. Pero este proceso es irregular en el mejor de los casos y pasa por alto muchos contenidos nocivos, como demuestran los vídeos de Swift en X. También es difícil distinguir entre el contenido auténtico y el generado por la IA.

Una solución técnica podrían ser las marcas de agua. Las marcas de agua ocultan una señal invisible en las imágenes que ayuda a los ordenadores a identificar si han sido generadas por IA. Por ejemplo, Google ha desarrollado un sistema llamado SynthID, que utiliza redes neuronales para modificar los píxeles de las imágenes y añade una marca de agua invisible al ojo humano. Esa marca está diseñada para ser detectada incluso si la imagen se edita o se hace una captura de pantalla. En teoría, estas herramientas podrían ayudar a las empresas a mejorar la moderación de sus contenidos y agilizar la detección de contenidos falsos, incluidos los deepfakes no consentidos.

Ventajas: Las marcas de agua podrían ser una herramienta útil que facilite y agilice la identificación de contenidos generados por IA y de publicaciones tóxicas que deban ser eliminadas. Incluir marcas de agua en todas las imágenes por defecto también dificultaría a los atacantes la creación de deepfakes no consentidos, afirma Sasha Luccioni, investigadora de la start-up de IA Hugging Face, que ha estudiado el sesgo en los sistemas de IA.

Contras: estos sistemas aún son experimentales y no se utilizan de forma generalizada. Y un atacante decidido aún puede manipularlos. Las empresas tampoco están aplicando la tecnología a todas las imágenes. Por ejemplo, los usuarios del generador de imágenes Imagen AI de Google pueden elegir si quieren que sus imágenes generadas por IA lleven la marca de agua. Todos estos factores limitan su utilidad en la lucha contra el deepfake porn.

ESCUDOS PROTECTORES

Por el momento, todas las imágenes que publicamos en Internet son terreno libre para que cualquiera pueda utilizarlas y crear un deepfake. Y como los últimos sistemas de IA para crear imágenes son tan sofisticados, cada vez es más difícil demostrar que el contenido generado por IA es falso.

Pero una serie de nuevas herramientas defensivas permiten a los usuarios proteger sus imágenes de la explotación de la IA haciendo que parezcan deformadas o distorsionadas en los sistemas de IA.

Una de estas herramientas, llamada PhotoGuard, ha sido desarrollada por investigadores del MIT. Funciona como un escudo protector que altera los píxeles de las fotos de forma invisible para el ojo humano. Cuando alguien utiliza una aplicación de IA como el generador de imágenes Stable Diffusion para manipular una imagen que ha sido tratada con PhotoGuard, el resultado parecerá poco realista. Fawkes, una herramienta similar desarrollada por investigadores de la Universidad de Chicago, cubre las imágenes con señales ocultas que dificultan el reconocimiento facial.

Otra nueva herramienta, llamada Nightshade, podría ayudar a las personas a defenderse de ser utilizadas en sistemas de IA. La herramienta, desarrollada por investigadores de la Universidad de Chicago, aplica una capa invisible de "veneno" a las imágenes. La herramienta se desarrolló para proteger a los artistas de que las empresas tecnológicas extrajeran sus imágenes protegidas por derechos de autor sin su consentimiento. Sin embargo, en teoría, podría utilizarse con cualquier imagen que su propietario no quiera que acabe en manos de sistemas de inteligencia artificial. Cuando las empresas tecnológicas se apropian de material de entrenamiento en línea sin su consentimiento, estas imágenes envenenadas romperán el modelo de IA. Las imágenes de gatos podrían convertirse en perros, y las imágenes de Taylor Swift también podrían convertirse en perros.

Ventajas: Estas herramientas dificultan que los atacantes utilicen nuestras imágenes para crear contenidos dañinos. Resultan prometedoras para proteger a los particulares contra el abuso de imágenes de IA, sobre todo si las aplicaciones de citas y las empresas de redes sociales las aplican por defecto, afirma Ajder.

"Todos deberíamos utilizar Nightshade para cada imagen que publicamos en Internet", afirma Luccioni.

Contras: estos escudos defensivos funcionan en la última generación de modelos de IA. Pero no hay garantías de que futuras versiones no puedan anular estos mecanismos de protección. Tampoco funcionan con imágenes que ya están en línea y son más difíciles de aplicar a imágenes de famosos, ya que los famosos no controlan qué fotos suyas se suben a Internet.

"Va a ser un gigantesco juego del gato y el ratón", dice Rumman Chowdhury, que dirige la empresa de consultoría y auditoría ética Parity Consulting.

REGULACIÓN

Las soluciones técnicas tienen un límite. Lo único que conducirá a un cambio duradero es una regulación más estricta, afirma Luccioni.

Los deepfakes virales de Taylor Swift han dado un nuevo impulso a los esfuerzos por acabar con el porno deepfake. La Casa Blanca calificó el incidente de "alarmante" e instó al Congreso a tomar medidas legislativas. Hasta ahora, EE UU ha regulado esta tecnología de forma fragmentaria, estado por estado. Por ejemplo, California y Virginia han prohibido la creación de deepfakes pornográficos creados sin consentimiento. Nueva York y Virginia también prohíben la distribución de este tipo de contenidos.

Sin embargo, por fin podríamos ver medidas a nivel federal. Recientemente se ha vuelto a presentar en el Congreso de EE UU un nuevo proyecto de ley bipartidista que convertiría en delito federal el hecho de compartir imágenes falsas de desnudos. Un escándalo de pornografía deepfake en un instituto de Nueva Jersey también ha empujado a los legisladores a responder con un proyecto de ley llamado Preventing Deepfakes of Intimate Images Act (Ley para la prevención de los deepfakes de imágenes íntimas). La atención que ha suscitado el caso de Swift podría suscitar un mayor apoyo bipartidista.

Legisladores de todo el mundo también están impulsando leyes más estrictas para esta tecnología. La Ley de Seguridad en Internet del Reino Unido, aprobada el año pasado, prohíbe compartir material pornográfico falso, pero no su creación. Los autores pueden enfrentarse a penas de hasta seis meses de cárcel.

En la Unión Europea, varios proyectos de ley abordan el problema desde distintos ángulos. La Ley de Inteligencia Artificial exige a los creadores de deepfakes que indiquen claramente que el material ha sido creado por inteligencia artificial, y la Ley de Servicios Digitales exigirá a las empresas tecnológicas que eliminen los contenidos nocivos mucho más rápidamente.

La ley china sobre deepfakes, que entró en vigor en 2023, es la que va más lejos. En China, los creadores de deepfakes tienen que tomar medidas para evitar el uso de sus servicios con fines ilegales o dañinos, pedir el consentimiento de los usuarios antes de convertir sus imágenes en deepfakes, autentificar las identidades de las personas y etiquetar el contenido generado por IA.

Ventajas: La regulación ofrecerá recursos a las víctimas, responsabilizará a los creadores de pornografía deepfake no consentida y creará un poderoso elemento disuasorio. También envía un mensaje claro de que la creación no consentida de deepfakes no es aceptable. Las leyes y las campañas de concienciación pública que dejan claro que las personas que crean este tipo de pornografía deepfake son delincuentes sexuales podrían tener un impacto real, dice Ajder. "Eso cambiaría la actitud ligeramente indiferente que algunas personas tienen hacia este tipo de contenido, que consideran que no es dañino o que no es una forma real de abuso sexual", afirma.

Contras: Será difícil hacer cumplir este tipo de leyes, dice Ajder. Con las técnicas actuales, a las víctimas les resultará difícil identificar a la persona que las ha agredido y construir una acusación contra ella. Además, la persona que crea los deepfakes puede estar en otra jurisdicción, lo que dificulta el enjuiciamiento.

Inteligencia Artificial

 

La inteligencia artificial y los robots están transformando nuestra forma de trabajar y nuestro estilo de vida.

  1. El gobierno de EE UU pone bajo la lupa a las empresas de IA por publicidad engañosa

    La Comisión Federal de Comercio (FTC) de Estados Unidos ha tomado medidas contra varias empresas de IA por mentir y realizar publicidad engañosa, una lucha que continuará durante el próximo mandato de Donald Trump

    La Comisión Federal de Comercio (FTC) de Estados Unidos ha tomado medidas contra varias empresas de IA
  2. Las emisiones de la IA están a punto de dispararse aún más

    Las emisiones de los centros de datos se han triplicado desde 2018. A medida que modelos de IA más complejos como Sora de OpenAI comiencen a generalizarse, es probable que esas cifras se disparen

    Ordenador portátil echando humo
  3. La IA llega al campo de batalla para redefinir la toma de decisiones en la guerra moderna

    Anduril, fabricante de drones y misiles con IA, ha firmado un acuerdo con el Pentágono de EE UU para integrar sus sistemas en conflictos armados y optimizar la toma de decisiones, un aspecto que ya ha generado preocupación en organismos internacionales como Human Rights Watch

    La IA llega al campo de batalla