ChatGPT está a punto de revolucionar la economía, y tenemos que decidir qué aspecto tendrá el futuro
Piensa en un profesor, y cierra los ojos. ¿Qué aspecto tiene esa persona? Si le preguntas a Stable Diffusion o DALL-E 2, dos de los generadores de imágenes de IA más populares, será un hombre blanco con gafas.
Hace unas semanas, publiqué un artículo sobre las nuevas herramientas desarrolladas por investigadores de Hugging Face, la start-up de IA, y la Universidad de Leipzig. Estas herramientas permiten a los usuarios ver qué tipo de sesgos inherentes tienen los modelos de IA sobre los diferentes géneros y etnias.
Aunque ya escribí sobre cómo nuestros prejuicios se reflejan en los modelos de IA, no deja de ser chocante ver lo pálidos, masculinos y rancios que son los humanos generados por IA. Eso fue especialmente cierto en DALL-E 2 que el 97% de las veces genera hombres blancos cuando se le dan indicaciones como CEO o director.
Además, el problema de los prejuicios es aún más profundo de lo que se podría creer dentro del amplio mundo creado por la IA. Estos modelos han sido creados por empresas estadounidenses, y entrenados con datos norteamericanos. Por lo que, cuando se pide que generen objetos cotidianos, desde puertas hasta casas, crean objetos que parecen estadounidenses, según explica Federico Bianchi, investigador de la Universidad de Stanford.
A medida que el mundo se vaya llenando de imágenes generadas por IA, veremos en mayor medida imágenes que reflejen los prejuicios, la cultura y los valores de EE UU. ¿Quién iba a pensar que la IA acabaría siendo un importante instrumento del poder blando estadounidense?
Por lo tanto, ¿cómo podemos solucionar estos problemas? Se ha trabajado mucho para corregir los sesgos en los conjuntos de datos con los que se entrenan los modelos de IA. Sin embargo, dos investigaciones recientes proponen nuevos enfoques interesantes.
¿Y si, en lugar de hacer que los datos de entrenamiento sean menos sesgados, pudieras pedirle al modelo que te diera respuestas menos sesgadas?
Un equipo de investigadores de la Universidad Técnica de Darmstadt (Alemania) y Hugging Face, la empresa de IA, han desarrollado una herramienta llamada Fair Diffusion. Esta facilita el ajuste de los modelos de IA para generar el tipo de imágenes que se desee. Por ejemplo, puede generar fotos de archivo de CEOs en distintos escenarios, y utilizar Fair Diffusion para cambiar a los hombres blancos por mujeres, o personas de otras etnias.
Como demuestran las herramientas de Hugging Face, los modelos de IA que generan imágenes a partir de imágenes-textos similares en sus datos de entrenamiento, presentan por defecto sesgos muy fuertes sobre profesiones, género y etnia. La herramienta Fair Diffusion de los investigadores alemanes se basa en una técnica de desarrollo propio llamada orientación semántica, que permite a los usuarios guiar la forma en que la IA genera imágenes de personas, y editar los resultados.
El sistema de IA se aproxima mucho a la imagen original, afirma Kristian Kersting, profesor de informática de la Universidad Técnica de Darmstadt y participante de la investigación.
Este método permite a las personas crear las imágenes que desean sin emprender la engorrosa y lenta tarea de mejorar el conjunto de datos sesgados utilizado para entrenar el modelo de IA, afirma Felix Friedrich, estudiante de doctorado de la Universidad de Darmstadt, que también trabajó en la herramienta.
Sin embargo, la herramienta no es perfecta. Cambiar las imágenes de algunas profesiones, como friegaplatos, no funcionó tan bien porque la palabra significa tanto una máquina como un empleo. Además, la herramienta sólo funciona con dos géneros. Por último, la diversidad de personas que puede generar el modelo sigue estando limitada por las imágenes del conjunto de entrenamiento de la IA. Aunque se necesita más investigación, esta herramienta podría ser un paso importante para mitigar los sesgos.
Una técnica similar parece funcionar también para los modelos lingüísticos. Una investigación de Anthropic, el laboratorio de IA, muestra cómo unas sencillas instrucciones pueden hacer que grandes modelos lingüísticos produzcan contenidos menos perniciosos, como informó mi colega Niall Firth recientemente. El equipo de Anthropic probó diferentes modelos lingüísticos de distintos tamaños y descubrió que, si los modelos son lo bastante grandes, corrigen por sí mismos algunos sesgos con solo pedírselo.
Los investigadores no saben por qué hacen esto los modelos de IA generadores de textos e imágenes. El equipo de Anthropic cree que puede deberse a que los modelos más grandes tienen mayores conjuntos de datos de entrenamiento, que incluyen muchos ejemplos de comportamiento sesgado o estereotipado, pero también ejemplos de personas que se oponen a dicho comportamiento.
Las herramientas de IA son cada vez más populares para generar imágenes de archivo. Herramientas como Fair Diffusion podrían ser útiles para las empresas que quieren que sus imágenes promocionales reflejen la diversidad social, afirma Kersting.
Estos métodos para combatir los prejuicios de la IA son bienvenidos y plantean una obvia pregunta: ¿deberían incorporarse a los modelos desde el principio? Por el momento, las mejores herramientas de IA generativa amplifican los estereotipos perjudiciales a gran escala.
Conviene recordar que los sesgos no pueden solucionarse con ingeniería inteligente. Como señalaron los investigadores del Instituto Nacional de Normas y Tecnología (NIST, por sus siglas en inglés) de EE UU en un informe de 2022, el sesgo va más allá de los datos y los algoritmos. Debemos investigar la forma en que los humanos utilizan las herramientas de IA y el amplio contexto social en el que se utilizan, todo puede contribuir al problema del sesgo.
Según el NIST, la mitigación eficaz de los sesgos requerirá más auditoría, evaluación y transparencia sobre cómo se construyen los modelos de IA, y qué datos se han utilizado en ellos. No obstante, debido a la fiebre del oro de la IA generativa donde estamos inmersos, esta preocupación podría pasar a un segundo plano a la hora de ganar dinero.
Aprendizaje más profundo
ChatGPT está a punto de revolucionar la Economía, y tenemos que decidir qué aspecto tiene.
Desde que OpenAI lanzó ChatGPT, su sensacional chatbot generador de texto el pasado noviembre, desarrolladores de apps, start-ups respaldadas por capital riesgo y algunas de las mayores corporaciones del mundo se han apresurado a dar sentido a esta tecnología y explotar las oportunidades de negocio.
Auge o caída de la productividad. Mientras las empresas y los ejecutivos ven una clara oportunidad de hacer caja, el impacto probable de la tecnología sobre los trabajadores y la economía en general es menos evidente.
David Rotman analiza una de las grandes cuestiones que rodean a la nueva tecnología: ¿Empeorará ChatGPT la ya preocupante desigualdad de ingresos y riqueza en EE UU, y otros países? ¿O, de hecho, podría ayudar? Más información aquí.