.

Agentes de IA, hacia un futuro con algoritmos humanos y dilemas éticos complejos

SARAH ROGERS/MITTR | PHOTO GETTY

Inteligencia Artificial

La "sustancia" del algoritmo: la IA cada vez está más cerca de actuar por nosotros

1

En un futuro cercano, la IA no solo será capaz de imitar nuestra personalidad, sino también de actuar en nuestro nombre para llevar a cabo tareas humanas. Sin embargo, esto da lugar a nuevos dilemas éticos que aún deben ser resueltos

  • por James O'Donnell | traducido por
  • 27 Noviembre, 2024

Este artículo pertenece a The Algorithm, nuestro boletín semanal sobre IA. Para recibirlo todos los lunes en tu bandeja de entrada (en inglés), suscríbete aquí.

Los modelos generativos de IA han alcanzado un nivel asombroso al hacer cosas para nosotros, como conversar, crear imágenes, vídeos y música. Sin embargo, todavía tienen grandes limitaciones cuando se trata de hacer tareas por nosotros.

Los agentes de IA buscan transformar esta situación. Se pueden imaginar como modelos de inteligencia artificial equipados con un propósito específico y un plan de acción. Se dividen en dos categorías.

Los primeros, conocidos como agentes basados en herramientas, pueden ser entrenados utilizando el lenguaje natural en lugar de código para completar tareas digitales por nosotros. En octubre, Anthropic presentó uno de estos agentes, el primero desarrollado por un gran fabricante de modelos de IA, capaz de traducir instrucciones como "rellena este formulario por mí" en acciones concretas en un ordenador. Puede mover el cursor, abrir un navegador, buscar información en páginas relevantes y completar un formulario con los datos encontrados. Por su parte, Salesforce también ha lanzado su propio agente, mientras que OpenAI planea presentar el suyo en enero.

El segundo tipo, conocido como agente de simulación, son modelos de IA diseñados para comportarse como seres humanos. Los primeros en desarrollar este tipo de agentes fueron investigadores en ciencias sociales, quienes buscaban realizar estudios que habrían sido demasiado caros, poco prácticos o incluso poco éticos con sujetos humanos reales. Para ello, emplearon la inteligencia artificial como sustituto para simular comportamientos humanos. Esta tendencia ganó especial relevancia en 2023 tras la publicación del artículo Generative Agents: Interactive Simulacra of Human Behavior, escrito por Joon Sung Park, estudiante de doctorado en la Universidad de Stanford (EE UU), junto a sus compañeros.

La semana pasada, Park y su equipo publicaron en arXiv un nuevo estudio titulado Generative Agent Simulations of 1,000 People. En esta investigación, entrevistaron a 1.000 personas durante dos horas utilizando inteligencia artificial. Posteriormente, lograron desarrollar agentes simulados que reproducían con sorprendente precisión los valores y preferencias de cada participante.

Con esto se han dado dos avances clave en el desarrollo de la inteligencia artificial. El primero, es que las principales empresas del sector ya no se conforman con crear herramientas generativas deslumbrantes. Ahora buscan diseñar agentes capaces de realizar tareas para las personas. El segundo, es que cada vez resulta más sencillo programar a estos agentes para que reproduzcan comportamientos, actitudes y personalidades de individuos reales. Lo que antes eran dos categorías separadas —agentes de simulación y agentes basados en herramientas— pronto podrían fusionarse en modelos de IA capaces no solo de imitar tu personalidad, sino también de actuar en tu nombre. 

La investigación en este campo está avanzando muy rápido. Empresas como Tavus trabajan para permitir a los usuarios crear "gemelos digitales" de sí mismos. Sin embargo, el CEO de la compañía, Hassaan Raza, tiene una visión más ambiciosa: desarrollar agentes de IA capaces de asumir los roles de terapeutas, médicos y profesores.

Si estas herramientas se vuelven accesibles y fáciles de desarrollar, surgirán una serie de nuevas preocupaciones éticas, entre las que destacan dos. 

La primera es que estos agentes podrían facilitar la creación de deepfakes aún más personales y dañinos. Las herramientas de generación de imágenes ya han hecho posible la creación de pornografía no consentida a partir de una sola imagen de una persona, pero esta problemática podría intensificarse si se replica la voz, las preferencias y la personalidad de alguien. De hecho, Park me comentó que pasaron más de un año abordando cuestiones éticas similares en su último proyecto. En las diversas conversaciones que mantuvieron con el comité de ética de la Universidad de Stanford, se trabajó en la redacción de políticas que garantizaban a los participantes el derecho a retirar sus datos.

La segunda preocupación es saber si interactuamos con un agente de IA o con una persona. Por ejemplo, si alguien realiza una entrevista con una IA y luego utiliza su voz para crear un agente que hable y responda como él, ¿tienen sus compañeros de trabajo el derecho a saber cuándo no hablan con la persona real? Del mismo modo, si llamas a tu compañía telefónica o a la consulta de tu médico y eres atendido por un agente de atención al cliente, ¿deberías tener derecho a saber si es una IA o una persona?

Este futuro puede parecer muy distante, pero no lo es. Es probable que, cuando lleguemos a ese punto, surjan preguntas éticas aún más urgentes y relevantes. Mientras tanto, puedes leer más sobre este tema en mi artículo sobre agentes de IA y descubrir cómo de bien podría "conocerte" un entrevistador artificial en tan solo dos horas.

Inteligencia Artificial

 

La inteligencia artificial y los robots están transformando nuestra forma de trabajar y nuestro estilo de vida.

  1. Por qué medir la IA sigue siendo un desafío pendiente

    Los benchmarks, diseñados para evaluar el rendimiento de una IA, a menudo están basados en criterios opacos o en parámetros que no reflejan su impacto real. No obstante, hay enfoques que buscan ofrecer evaluaciones más precisas y alineadas con desafíos prácticos

    Los benchmarks, diseñados para evaluar el rendimiento de una IA, a menudo se fundamentan en criterios opacos o en parámetros que no reflejan su impacto real
  2. Qué es el 'red-teaming', el proceso que permite a OpenAI detectar fallos en ChatGPT

    A través del red-teaming, un proceso en el que se simulan ataques para buscar fallos en los sistemas, OpenAI identifica vulnerabilidades en sus herramientas. Sin embargo, la amplia variedad de situaciones en las que se pueden utilizar estos modelos dificulta su control

    El 'red-teaming' es un proceso usado por OpenAI para detectar fallos en sus modelos
  3. Al habla con la IA: el reto de lograr voces más diversas e inclusivas

    La iniciativa Common Voice, de Mozilla, busca que las voces generadas por inteligencias artificiales sean más inclusivas y reflejen una mayor variedad de dialectos para asegurar que las particularidades de cada lugar y cultura se preserven frente al avance tecnológico

    La iniciativa Common Voice, de Mozilla, busca que las voces generadas por IA sean más inclusivas y diversas