Irene Solaiman
Hugging Face | Su objetivo es que los nuevos modelos de IA sean más seguros, tanto para los desarrolladores, como para el público.
Cuando se lanza un nuevo modelo de inteligencia artificial (IA) generativa, se presta más atención al chatbot o generador de imágenes y a las capacidades del modelo subyacente, que a otros detalles como, por ejemplo, si el modelo es de código abierto o tiene licencia para uso comercial. Sin embargo, estas decisiones tienen consecuencias muy relevantes.
Una mayor apertura, por ejemplo, ofrece más oportunidades para auditar y evaluar los modelos, pero también para que actores malintencionados se aprovechen de ellos. Sistemas más cerrados pueden concentrar el poder, pero limitan hacer mayor daño.
En 2019, Irene Solaiman, entonces investigadora y gerente de Políticas Públicas en OpenAI, propuso un nuevo enfoque para el lanzamiento de GPT-2, predecesor de ChatGPT, que contemplaba cómo minimizar el daño a la par que aumentaba la apertura del mismo. Solaiman recomendó publicar los nuevos modelos por fases, dejando tiempo para probarlos e incorporar salvaguardas. OpenAI, Microsoft y Meta utilizan ahora este enfoque para ChatGPT, así como para las nuevas búsquedas en Bing y LLaMA, respectivamente.
Solaiman (28 años) ha dejado OpenAI para incorporarse a la empresa de IA Hugging Face como directora de Regulación Pública Global . Allí sigue trabajando en la creación de procesos claros y estandarizados para el lanzamiento de futuros modelos de IA. También trabaja en otros aspectos de la seguridad de esta tecnología, como garantizar que se tengan en cuenta los valores culturales de una comunidad antes de implantar nuevos sistemas en la misma.
Lo que en última instancia la motiva, afirma, es el deseo de asegurarse de que la IA generativa funcione bien, no sólo para sus desarrolladores, sino también para "las personas que no interactúan con los sistemas de IA generativa, pero que probablemente se verán afectadas por la IA". En otras palabras, todo el mundo.