.

Foto: Un ovario enjoyado, generado por Midjourney. Créditos: Julia Rockwell

A bejeweled ovary generated using Midjourney JULIA ROCKWELL

Inteligencia Artificial

'Útero', 'esperma' o 'vulva': la censura de Midjourney para evitar la pornografía

1

Midjourney afirma que esta es una medida temporal para evitar que la gente use su sistema con el fin de crear imágenes impactantes o duras

  • por Melissa Heikkilä | traducido por Ana Milutinovic
  • 07 Marzo, 2023

MIT Technology Review acaba de descubrir que Midjourney, el popular generador de imágenes de inteligencia artificial (IA), prohíbe el uso de una amplia variedad de palabras sobre el sistema reproductivo humano como indicaciones de texto.

Si alguien escribe placenta, trompas de Falopio, glándulas mamarias, esperma, útero, uretra, cuello uterino, himen o vulva en Midjourney, el sistema marca la palabra como un indicador prohibido y no permite su uso. A veces, los usuarios que probaron una de estas indicaciones acaban bloqueados por un tiempo limitado, ya que trataron de generar contenido prohibido. Sí se permiten otras palabras relacionadas con la biología humana, como "hígado" y "riñón".

David Holz, fundador de Midjourney, explica que se prohíben estas palabras como una medida provisional para evitar que las personas generen contenido impactante o duro mientras la compañía "mejora aspectos en la IA". Holz añade que los moderadores observan cómo se utilizan las palabras y qué tipo de imágenes se generan, y ajustan las prohibiciones periódicamente. La empresa tiene una página de normas comunitarias, que enumera el tipo de contenido que bloquea, incluidas las imágenes sexuales, escenas sangrientas e incluso el emoticono de melocotón, que a menudo se usa como símbolo de culo.

Los modelos de IA como Midjourney, DALL-E 2 y Stable Diffusion se entrenan con miles de millones de imágenes extraídas de internet. La investigación realizada por un equipo de la Universidad de Washington (EE UU) descubrió que estos modelos aprenden sesgos que cosifican sexualmente a las mujeres, y luego se reflejan en las imágenes que reproducen. El gran tamaño del conjunto de datos hace que sea casi imposible eliminar las imágenes no deseadas, como las de naturaleza sexual o violenta, o aquellas que podrían producir resultados sesgados. Cuanto más regularmente aparece algo en el conjunto de datos, más fuerte es la conexión que hace el modelo de IA, lo que significa que es más probable que aparezca en las imágenes generadas por el modelo.

Esas palabras prohibidas por Midjourney son un intento incompleto para abordar el problema. Algunos términos relacionados con el sistema reproductivo masculino, como "esperma" y "testículos", también están bloqueados pero la lista de palabras prohibidas parece ser predominantemente femenina.

La prohibición fue detectada por primera vez por Julia Rockwell, analista de datos clínicos en Datafy Clinical, y su amiga Madeline Keenen, bióloga celular de la Universidad de Carolina del Norte en Chapel Hill (EE UU). Rockwell utilizó Midjourney para generar una imagen divertida de la placenta para Keenen, quien las estudia. Y, para su sorpresa, Rockwell descubrió que estaba prohibido usar "placenta" como indicación de texto para la generación de imágenes. Luego, la investigadora empezó a experimentar con otras palabras relacionadas con el sistema reproductivo humano y encontró el mismo resultado.

Sin embargo, las dos mujeres también mostraron cómo es posible sortear estas prohibiciones para crear imágenes sexualizadas mediante el uso de diferentes ortografías de palabras o eufemismos para el contenido sexual o sangriento.

En los hallazgos que compartieron con MIT Technology Review, encontraron que la indicación "examen ginecológico", usando la ortografía británica, generó algunas imágenes espeluznantes: la primera de dos mujeres desnudas en la consulta de un médico y otra de una persona calva de tres extremidades cortando su propio estómago.

Foto: Imágenes generadas en Midjourney usando la indicación "examen ginecológico". Créditos: Julia Rockwell.

La prohibición directa de Midjourney de las indicaciones de texto relacionadas con la biología reproductiva destaca lo complicado que es moderar el contenido en torno a los sistemas generativos de IA. También demuestra cómo la tendencia de la IA a sexualizar a las mujeres se extiende hasta sus órganos internos, resalta Rockwell.

Sin embargo, no debería ser así. OpenAI y Stability.AI han logrado filtrar los resultados y las indicaciones de texto no deseadas, así cuando se escriben esas mismas palabras en sus sistemas de creación de imágenes, DALL-E 2 y Stable Diffusion, respectivamente, producen imágenes muy diferentes. La indicación "examen ginecológico" produjo imágenes de una persona que sostenía un dispositivo médico inventado por DALL-E 2. Mientras en Stable Diffusion muestra a dos mujeres enmascaradas y distorsionadas con guantes de goma y batas de laboratorio. Ambos sistemas también permitieron la indicación "placenta", y produjeron imágenes biológicamente inexactas de órganos como respuesta.

El portavoz de Stability.AI ha señalado que su último modelo tiene un filtro que bloquea el contenido inseguro e inapropiado de los usuarios, y cuenta con una herramienta que detecta desnudos e imágenes inapropiadas, y devuelve como resultado una imagen borrosa. Esta empresa utiliza una combinación de palabras clave, reconocimiento de imágenes y otras técnicas para moderar las imágenes que genera su sistema de inteligencia artificial. OpenAI no respondió a una solicitud de comentarios.

Foto izquierda: Una imagen generada por DALL-E 2 usando la indicación "examen ginecológico". Foto derecha: Una imagen generada por Stable Diffusion con la indicación "examen ginecológico". Créditos: Melissa Heikkilä.

No obstante, las herramientas para filtrar las imágenes generadas por IA no deseadas siguen siendo bastante imperfectas. Debido a que los desarrolladores e investigadores de IA aún no saben cómo auditar y mejorar sus modelos, los "reparan" con prohibiciones generales, como las introducidas oir Midjourney, explica Marzyeh Ghassemi, profesora asistente del MIT. Ghassemi estudia la aplicación del aprendizaje automático en la salud.

No está claro por qué las referencias a los exámenes ginecológicos o a la placenta, un órgano que se desarrolla durante el embarazo y proporciona oxígeno y nutrientes al bebé, generarían contenido sangriento o sexualmente explícito. Probablemente, tenga algo que ver con las asociaciones que el modelo ha hecho entre las imágenes en sus datos, según Irene Chen, investigadora de Microsoft Research, que estudia el aprendizaje automático para una atención médica equitativa.

"Se necesita más trabajo para comprender qué asociaciones dañinas podrían estar aprendiendo los modelos, porque si trabajamos con los datos humanos, aprenderemos también sobre los sesgos", resalta Ghassemi.

Hay muchos enfoques que las empresas de tecnología podrían tomar para abordar este problema, además de prohibir por completo las palabras. Por ejemplo, Ghassemi sugiere que ciertas indicaciones de texto, como las relacionadas con la biología humana, podrían permitirse en contextos particulares, pero prohibir en otros.

El término "placenta" podría permitirse si la cadena de palabras en la indicación señalara que el usuario intenta generar una imagen del órgano con fines educativos o de investigación. Pero si la indicación de texto se empleó porque alguien intentó generar contenido sexual o sangriento, entonces sí que se podría prohibir.

No obstante, por dura que sea, la censura de Midjourney se ha hecho con las intenciones correctas.

"Estas barreras están ahí para proteger a las mujeres y a las minorías de que se genere contenido perturbador sobre ellas, y sean utilizados en su contra", concluye Ghassemi.

Inteligencia Artificial

 

La inteligencia artificial y los robots están transformando nuestra forma de trabajar y nuestro estilo de vida.

  1. El gobierno de EE UU pone bajo la lupa a las empresas de IA por publicidad engañosa

    La Comisión Federal de Comercio (FTC) de Estados Unidos ha tomado medidas contra varias empresas de IA por mentir y realizar publicidad engañosa, una lucha que continuará durante el próximo mandato de Donald Trump

    La Comisión Federal de Comercio (FTC) de Estados Unidos ha tomado medidas contra varias empresas de IA
  2. Las emisiones de la IA están a punto de dispararse aún más

    Las emisiones de los centros de datos se han triplicado desde 2018. A medida que modelos de IA más complejos como Sora de OpenAI comiencen a generalizarse, es probable que esas cifras se disparen

    Ordenador portátil echando humo
  3. La IA llega al campo de batalla para redefinir la toma de decisiones en la guerra moderna

    Anduril, fabricante de drones y misiles con IA, ha firmado un acuerdo con el Pentágono de EE UU para integrar sus sistemas en conflictos armados y optimizar la toma de decisiones, un aspecto que ya ha generado preocupación en organismos internacionales como Human Rights Watch

    La IA llega al campo de batalla