Skip to main content
AI can now create a replica of your personality

Una entrevista de dos horas es suficiente para captar con precisión tus valores y preferencias, según una nueva investigación de Stanford y Google DeepMind 

Imagina que te sientas con un modelo de IA para tener una entrevista durante dos horas. Una voz amigable te guía a través de una conversación que abarca temas como tu infancia, tu educación, tu carrera e incluso tus opiniones políticas sobre inmigración. Poco después, una réplica virtual de ti es capaz de reflejar tus valores y preferencias con una precisión asombrosa. 

Esta situación ya es posible, según un estudio (aún pendiente de arbitraje) realizado por un equipo de investigadores de la Universidad de Stanford (EE UU) y Google DeepMind, publicado en arXiv. 

La investigación dirigida por Joon Sung Park, estudiante de doctorado en informática de la Universidad de Stanford, tomó como muestra a 1.000 personas con perfiles diversos en edad, género, raza, región, nivel educativo e ideología política. Cada participante recibió hasta 100 dólares (unos 95 euros) por su colaboración y, a partir de entrevistas, el equipo desarrolló réplicas virtuales de ellos. Para evaluar la precisión de estas copias, realizaron pruebas de personalidad, encuestas sociales y ejercicios de lógica en dos ocasiones, con un intervalo de dos semanas. Luego, los agentes virtuales completaron las mismas tareas con una similitud en los resultados del 85%. 

«Creo que, si puedes tener un montón de pequeños ‘tú’ corriendo por ahí y tomando las decisiones que tú habrías tomado, eso sería en última instancia el futuro», dice Joon. 

En el artículo, las réplicas se denominan agentes de simulación y el objetivo de su creación es facilitar a los investigadores de las ciencias sociales y otros campos la realización de estudios que serían costosos, poco prácticos o poco éticos si se hicieran con sujetos humanos reales. El planteamiento es que, si se pueden crear modelos de IA que se comporten como personas reales, se podrían utilizar para probar todo, desde la eficacia de las intervenciones en las redes sociales para combatir la desinformación hasta qué comportamientos provocan atascos de tráfico. 

Estos agentes de simulación son ligeramente diferentes de los agentes que ya tienen las principales empresas de IA en la actualidad. Se denominan agentes basados en herramientas y son modelos diseñados para hacer cosas por ti, no para conversar contigo. Por ejemplo, pueden ingresar datos, recuperar información que hayas almacenado en algún lugar o, algún día, reservar viajes para ti y programar citas. Salesforce anunció sus propios agentes basados en herramientas en septiembre, seguido por Anthropic en octubre, y OpenAI planea lanzar algunos en enero, según Bloomberg . 

Los dos tipos de agentes son diferentes, pero comparten puntos en común. La investigación sobre agentes de simulación, como los de este artículo, probablemente conduzca a agentes de IA más sólidos en general, afirma John Horton, profesor asociado de Tecnologías de la información en la Escuela de Administración Sloan del MIT (Instituto Tecnológico de Massachusetts, que fundó una empresa para realizar investigaciones utilizando participantes simulados por IA. 

«Este artículo muestra cómo se puede hacer una especie de híbrido: usar humanos reales para generar personajes que luego se puedan usar de manera programática o en simulación de maneras que no se podrían hacer con humanos reales», dijo a MIT Technology Review en un correo electrónico. 

La investigación tiene algunas advertencias. Una de ellas, y no la menor, es el peligro que implica. Así como la tecnología de generación de imágenes ha hecho que sea fácil crear deepfakes dañinos de personas sin su consentimiento, cualquier tecnología de generación de agentes plantea preguntas sobre la facilidad con la que las personas pueden crear herramientas para hacerse pasar por otros online, diciendo o autorizando cosas que no tenían intención de decir. 

Los métodos de evaluación que utilizó el equipo para comprobar lo bien que los agentes de IA replicaban a sus correspondientes humanos también eran bastante básicos. Entre ellos se encontraban la Encuesta Social General (que recoge información sobre la demografía, la felicidad, los comportamientos y otros aspectos de la personalidad en EE UU) y evaluaciones de los cinco grandes rasgos de personalidad: apertura a la experimentación, escrupulosidad, extroversión, amabilidad y neuroticismo. Estas pruebas se utilizan habitualmente en la investigación de las ciencias sociales, pero no pretenden captar todos los detalles únicos que nos hacen ser nosotros mismos. Los agentes de IA también fueron peores a la hora de replicar a los humanos en pruebas de comportamiento como el «juego del dictador», que pretende arrojar luz sobre cómo los participantes consideran valores como la justicia. 

Para construir un agente de IA que replique bien a las personas, los investigadores necesitaban formas de destilar nuestra singularidad en un lenguaje que los modelos de IA pudieran entender. Eligieron entrevistas cualitativas para hacer precisamente eso, dice Joon. Tras aparecer en innumerables podcasts gracias a escribir un artículo de 2023 sobre agentes generativos que despertó un gran interés, Joon afirma que estaba convencido de que las entrevistas son la forma más eficiente de aprender sobre alguien. «Iba a una entrevista de podcast de quizás dos horas, y después de la entrevista, sentía que la gente sabe mucho sobre mí ahora», afirma, y añade: «Dos horas pueden ser muy poderosas». 

Estas entrevistas también pueden revelar idiosincrasias que es menos probable que aparezcan en una encuesta. «Imagina que alguien acaba de tener un cáncer, pero finalmente se curó el año pasado. Esa es una información muy única sobre ti que dice mucho sobre cómo podrías comportarse y pensar sobre las cosas», dice. Sería difícil elaborar preguntas de encuesta que susciten este tipo de recuerdos y respuestas. 

Sin embargo, las entrevistas no son la única opción. Las empresas que ofrecen crear «gemelos digitales» de usuarios, como Tavus, pueden hacer que sus modelos de IA se alimenten de correos electrónicos de los clientes u otros datos. Suele ser necesario un conjunto de datos bastante grande para replicar la personalidad de alguien de esa manera, me dijo el director ejecutivo de Tavus, Hassaan Raza, pero este nuevo artículo sugiere una ruta más eficiente. 

«Lo que realmente fue genial aquí es que demostraron que tal vez no se necesite tanta información», dice Raza, y agrega que su empresa experimentará con ese enfoque. «¿Qué tal si simplemente hablas con un entrevistador de IA durante 30 minutos hoy, 30 minutos mañana? Y luego usamos eso para construir este gemelo digital de ti».