Inteligencia Artificial
La "sustancia" del algoritmo: la IA cada vez está más cerca de actuar por nosotros
En un futuro cercano, la IA no solo será capaz de imitar nuestra personalidad, sino también de actuar en nuestro nombre para llevar a cabo tareas humanas. Sin embargo, esto da lugar a nuevos dilemas éticos que aún deben ser resueltos
Este artículo pertenece a The Algorithm, nuestro boletín semanal sobre IA. Para recibirlo todos los lunes en tu bandeja de entrada (en inglés), suscríbete aquí.
Los modelos generativos de IA han alcanzado un nivel asombroso al hacer cosas para nosotros, como conversar, crear imágenes, vídeos y música. Sin embargo, todavía tienen grandes limitaciones cuando se trata de hacer tareas por nosotros.
Los agentes de IA buscan transformar esta situación. Se pueden imaginar como modelos de inteligencia artificial equipados con un propósito específico y un plan de acción. Se dividen en dos categorías.
Los primeros, conocidos como agentes basados en herramientas, pueden ser entrenados utilizando el lenguaje natural en lugar de código para completar tareas digitales por nosotros. En octubre, Anthropic presentó uno de estos agentes, el primero desarrollado por un gran fabricante de modelos de IA, capaz de traducir instrucciones como "rellena este formulario por mí" en acciones concretas en un ordenador. Puede mover el cursor, abrir un navegador, buscar información en páginas relevantes y completar un formulario con los datos encontrados. Por su parte, Salesforce también ha lanzado su propio agente, mientras que OpenAI planea presentar el suyo en enero.
El segundo tipo, conocido como agente de simulación, son modelos de IA diseñados para comportarse como seres humanos. Los primeros en desarrollar este tipo de agentes fueron investigadores en ciencias sociales, quienes buscaban realizar estudios que habrían sido demasiado caros, poco prácticos o incluso poco éticos con sujetos humanos reales. Para ello, emplearon la inteligencia artificial como sustituto para simular comportamientos humanos. Esta tendencia ganó especial relevancia en 2023 tras la publicación del artículo Generative Agents: Interactive Simulacra of Human Behavior, escrito por Joon Sung Park, estudiante de doctorado en la Universidad de Stanford (EE UU), junto a sus compañeros.
La semana pasada, Park y su equipo publicaron en arXiv un nuevo estudio titulado Generative Agent Simulations of 1,000 People. En esta investigación, entrevistaron a 1.000 personas durante dos horas utilizando inteligencia artificial. Posteriormente, lograron desarrollar agentes simulados que reproducían con sorprendente precisión los valores y preferencias de cada participante.
Con esto se han dado dos avances clave en el desarrollo de la inteligencia artificial. El primero, es que las principales empresas del sector ya no se conforman con crear herramientas generativas deslumbrantes. Ahora buscan diseñar agentes capaces de realizar tareas para las personas. El segundo, es que cada vez resulta más sencillo programar a estos agentes para que reproduzcan comportamientos, actitudes y personalidades de individuos reales. Lo que antes eran dos categorías separadas —agentes de simulación y agentes basados en herramientas— pronto podrían fusionarse en modelos de IA capaces no solo de imitar tu personalidad, sino también de actuar en tu nombre.
La investigación en este campo está avanzando muy rápido. Empresas como Tavus trabajan para permitir a los usuarios crear "gemelos digitales" de sí mismos. Sin embargo, el CEO de la compañía, Hassaan Raza, tiene una visión más ambiciosa: desarrollar agentes de IA capaces de asumir los roles de terapeutas, médicos y profesores.
Si estas herramientas se vuelven accesibles y fáciles de desarrollar, surgirán una serie de nuevas preocupaciones éticas, entre las que destacan dos.
La primera es que estos agentes podrían facilitar la creación de deepfakes aún más personales y dañinos. Las herramientas de generación de imágenes ya han hecho posible la creación de pornografía no consentida a partir de una sola imagen de una persona, pero esta problemática podría intensificarse si se replica la voz, las preferencias y la personalidad de alguien. De hecho, Park me comentó que pasaron más de un año abordando cuestiones éticas similares en su último proyecto. En las diversas conversaciones que mantuvieron con el comité de ética de la Universidad de Stanford, se trabajó en la redacción de políticas que garantizaban a los participantes el derecho a retirar sus datos.
La segunda preocupación es saber si interactuamos con un agente de IA o con una persona. Por ejemplo, si alguien realiza una entrevista con una IA y luego utiliza su voz para crear un agente que hable y responda como él, ¿tienen sus compañeros de trabajo el derecho a saber cuándo no hablan con la persona real? Del mismo modo, si llamas a tu compañía telefónica o a la consulta de tu médico y eres atendido por un agente de atención al cliente, ¿deberías tener derecho a saber si es una IA o una persona?
Este futuro puede parecer muy distante, pero no lo es. Es probable que, cuando lleguemos a ese punto, surjan preguntas éticas aún más urgentes y relevantes. Mientras tanto, puedes leer más sobre este tema en mi artículo sobre agentes de IA y descubrir cómo de bien podría "conocerte" un entrevistador artificial en tan solo dos horas.