Skip to main content

La decepción habilitada por IA ya impregna nuestra vida en línea. Hay casos muy visibles que se detectan con facilidad, como cuando funcionarios de la Casa Blanca compartieron recientemente una imagen manipulada de una manifestante en Minnesota (Minnesota, EE UU) y luego se burlaron de quienes pedían explicaciones. Otras veces, la manipulación se cuela de forma silenciosa en los feeds de redes sociales y acumula visualizaciones, como los vídeos que campañas de influencia rusas están difundiendo actualmente para desanimar a los ucranianos a alistarse. 

En medio de este desorden, Microsoft ha presentado un plan, compartido con MIT Technology Review, sobre cómo demostrar qué es real en Internet. 

Un equipo de investigación en seguridad de IA de la compañía evaluó recientemente cómo están funcionando los métodos para documentar la manipulación digital frente a algunos de los desarrollos de IA más preocupantes de hoy, como los deepfakes interactivos y los modelos hiperrealistas ampliamente accesibles. A continuación, recomendó estándares técnicos que pueden adoptar las empresas de IA y las plataformas de redes sociales. 

Para comprender el estándar de referencia que Microsoft está impulsando, imagina que tienes un cuadro de Rembrandt y estás tratando de documentar su autenticidad. Podrías describir su procedencia con un manifiesto detallado sobre el origen de la obra y todos los cambios de propietario. Podrías aplicar una marca de agua invisible a simple vista pero legible por máquinas. Y podrías escanear digitalmente la pintura y generar una firma matemática, como una huella dactilar, basada en las pinceladas. Si expusieras la obra en un museo, un visitante escéptico podría examinar estas pruebas para verificar que se trata de un original. 

Todos estos métodos ya se están utilizando, en distintos grados, en los esfuerzos por verificar contenido en línea. Microsoft evaluó 60 combinaciones diferentes de estas técnicas, modelando cómo cada configuración resistiría distintos escenarios de fallo: desde metadatos eliminados hasta contenido ligeramente alterado o manipulado deliberadamente. Luego, el equipo identificó qué combinaciones producen resultados sólidos que las plataformas pueden mostrar con confianza a los usuarios, y cuáles son tan poco fiables que podrían generar más confusión que claridad. 

El director científico de la compañía, Eric Horvitz, señala que el trabajo estuvo motivado por legislación (como la Ley de Transparencia de IA de California, que entrará en vigor en agosto) y por la velocidad a la que la IA ha evolucionado para combinar vídeo y voz con una fidelidad sorprendente. 

“Podrías llamarlo autorregulación”, dijo Horvitz a MIT Technology Review. Pero también deja claro que ve esta labor como una forma de reforzar la imagen de Microsoft: “También intentamos ser un proveedor deseado por quienes quieren saber qué está ocurriendo en el mundo”. 

Aun así, Horvitz evitó comprometerse a que Microsoft adopte su propia recomendación en todas sus plataformas. La empresa está en el centro de un enorme ecosistema de contenido generado por IA: ejecuta Copilot, que puede generar imágenes y texto; opera Azure, el servicio en la nube desde el cual los clientes acceden a OpenAI y a otros modelos avanzados de IA; es propietaria de LinkedIn, una de las plataformas profesionales más grandes del mundo; y tiene una participación significativa en OpenAI. Pero cuando se le preguntó sobre la implementación interna, Horvitz afirmó en un comunicado: “Los grupos de productos y líderes de toda la compañía participaron en este estudio para informar hojas de ruta e infraestructura, y nuestros equipos de ingeniería ya están actuando según los hallazgos del informe”. 

Es importante tener en cuenta que estas herramientas tienen límites inherentes: al igual que no te dirían qué significa tu Rembrandt, no están diseñadas para determinar si un contenido es exacto o no. Solo revelan si ha sido manipulado. Es un punto que Horvitz dice que debe explicar a legisladores y otras personas que desconfían de que las grandes tecnológicas actúen como árbitros de la verdad. 

“No se trata de tomar decisiones sobre lo que es verdad y lo que no lo es”, afirma. “Se trata de ofrecer etiquetas que simplemente indiquen de dónde vienen las cosas”. 

Hany Farid, profesor en UC Berkeley especializado en forense digital (y que no participó en la investigación de Microsoft), sostiene que si la industria adoptara el plan de la compañía, resultaría significativamente más difícil engañar al público con contenido manipulado. Los individuos o gobiernos con capacidades avanzadas pueden intentar burlar estas herramientas, dice, pero el nuevo estándar podría eliminar una porción importante del material engañoso. 

“No creo que resuelva el problema, pero sí creo que reduce una buena parte de él”, afirma. 

Aun así, hay motivos para ver el enfoque de Microsoft como un caso de tecno‑optimismo algo ingenuo. Cada vez hay más pruebas de que las personas pueden dejarse influenciar por contenido generado con IA incluso cuando saben que es falso. Y en un estudio reciente sobre vídeos pro‑rusos generados con IA acerca de la guerra en Ucrania, los comentarios que señalaban que se trataba de vídeos hechos con IA obtuvieron mucha menos interacción que aquellos que los trataban como genuinos. 

“¿Hay personas que, sin importar lo que les digas, van a creer lo que quieran creer?”, pregunta Farid. “Sí.”, pero añade que “hay una gran mayoría de estadounidenses, y de ciudadanos de todo el mundo, que sí quieren conocer la verdad”. 

Ese deseo no ha provocado precisamente una acción urgente por parte de las tecnológicas. Google comenzó a añadir una marca de agua al contenido generado por sus herramientas de IA en 2023, algo que Farid afirma que ha sido útil en sus investigaciones. Algunas plataformas usan C2PA, un estándar de procedencia que Microsoft ayudó a lanzar en 2021. Pero el conjunto completo de cambios que Microsoft propone, por potentes que sean, podría quedarse en simples recomendaciones si amenazan los modelos de negocio de las empresas de IA o de las plataformas sociales. 

“Si los Mark Zuckerberg y los Elon Musk del mundo creen que poner etiquetas de «generado por IA» en algo reducirá la interacción, entonces, por supuesto, están incentivados a no hacerlo”, afirma Farid. Plataformas como Meta y Google ya han dicho que incluirán etiquetas para contenido generado por IA, pero una auditoría realizada por Indicator el año pasado descubrió que solo el 30% de sus publicaciones de prueba en Instagram, LinkedIn, Pinterest, TikTok y YouTube estaban correctamente etiquetadas como generadas con IA. 

Movimientos más contundentes hacia la verificación de contenido podrían llegar de los numerosos proyectos de regulación de IA que están pendientes en todo el mundo. La Ley de IA de la Unión Europea, así como propuestas normativas en India y otros países, obligarían a las compañías de IA a requerir algún tipo de divulgación de que un contenido ha sido generado con IA. 

Una de las prioridades de Microsoft es, previsiblemente, desempeñar un papel en la definición de estas normas. La empresa realizó una campaña de presión durante la redacción de la Ley de Transparencia de IA de California, que, según Horvitz, hizo que los requisitos legales sobre cómo las tecnológicas deben revelar contenido generado por IA fueran “un poco más realistas”. 

Pero también existe una preocupación muy real por lo que podría ocurrir si la implantación de esta tecnología de verificación de contenido se hace de forma deficiente. Los legisladores exigen herramientas que puedan verificar qué es real, pero esas herramientas son frágiles. Si los sistemas de etiquetado se lanzan con prisas, se aplican de forma inconsistente o fallan con frecuencia, la gente podría dejar de confiar en ellos por completo y todo el esfuerzo saldría mal. Por eso los investigadores sostienen que, en algunos casos, puede ser mejor no mostrar ninguna etiqueta que mostrar un veredicto que podría ser erróneo. 

Las herramientas inadecuadas también podrían crear nuevas vías para lo que los investigadores denominan ataques sociotécnicos. Imagina que alguien toma una imagen real de un evento político delicado y usa una herramienta de IA para cambiar únicamente una porción irrelevante de los píxeles. Cuando la imagen se difunda en línea, podría clasificarse erróneamente como manipulada por IA. Pero al combinar herramientas de procedencia y marcas de agua, las plataformas podrían aclarar que el contenido solo fue parcialmente generado por IA y señalar exactamente dónde se hicieron los cambios. 

La Ley de Transparencia de IA de California será la primera gran prueba de estas herramientas en EE UU, pero su aplicación podría verse dificultada por la orden ejecutiva del presidente Trump del año pasado, que busca recortar regulaciones estatales de IA que considera “gravosas” para la industria. La administración también ha adoptado en general una postura contraria a los esfuerzos por frenar la desinformación y, el año pasado, a través del DOGE, canceló subvenciones relacionadas con la desinformación. Y, por supuesto, canales oficiales del gobierno bajo la administración Trump han compartido contenido manipulado con IA (MIT Technology Review informó, por ejemplo, que el Departamento de Seguridad Nacional utiliza generadores de vídeo de Google y Adobe para producir contenido que comparte con el público). 

Pregunté a Horvitz si el contenido falso procedente de fuentes gubernamentales le preocupa tanto como el que proviene del resto de redes sociales. Al principio declinó comentar, pero luego dijo: “Los gobiernos no han estado fuera de los sectores que han estado detrás de varios tipos de desinformación manipuladora, y esto ocurre en todo el mundo”.