
La reciente presentación por parte de Google de lo que denomina una «nueva clase de experiencias de agencias» parece marcar un punto de inflexión. En su evento I/O 2025 celebrado en mayo, por ejemplo, la empresa presentó un asistente digital que no solo respondía preguntas, sino que también ayudaba a reparar una bicicleta buscando el manual de usuario correspondiente, localizando un tutorial en YouTube e incluso llamando a una tienda local para preguntar por una pieza, todo ello con una intervención humana mínima. Estas capacidades podrían extenderse pronto mucho más allá del ecosistema de Google. La empresa ha introducido un estándar abierto llamado Agent-to-Agent, o A2A, cuyo objetivo es permitir que los agentes de diferentes empresas se comuniquen entre sí y trabajen juntos.
La visión es emocionante: agentes de software inteligentes que actúan como compañeros de trabajo digitales, reservando vuelos, reprogramando reuniones, archivando gastos y comunicándose entre sí entre bastidores para hacer las cosas. Pero si no tenemos cuidado, vamos a descarrilar toda la idea antes de que tenga la oportunidad de ofrecer beneficios reales. Al igual que con muchas tendencias tecnológicas, existe el riesgo de que el entusiasmo se adelante a la realidad. Y cuando las expectativas se descontrolan, la reacción negativa no tarda en llegar.
Empecemos por el término «agente» en sí mismo. En la actualidad, se utiliza para referirse a todo tipo de cosas, desde simples scripts hasta sofisticados flujos de trabajo de IA. No existe una definición común, lo que deja mucho margen a las empresas para comercializar la automatización básica como algo mucho más avanzado. Ese tipo de «agentwashing» no solo confunde a los clientes, sino que también genera decepción. No necesitamos necesariamente una norma rígida, pero sí unas expectativas más claras sobre lo que se supone que deben hacer estos sistemas, su grado de autonomía y su fiabilidad.
Y la fiabilidad es el siguiente gran reto. La mayoría de los agentes actuales funcionan con grandes modelos de lenguaje (LLM), que generan respuestas probabilísticas. Estos sistemas son potentes, pero también impredecibles. Pueden inventarse cosas, desviarse del tema o fallar de forma sutil, especialmente cuando se les pide que completen tareas de varios pasos, utilizando herramientas externas y encadenando respuestas LLM. Un ejemplo reciente: los usuarios de Cursor, un popular asistente de programación de IA, recibieron un mensaje de un agente de soporte automatizado en el que se les informaba de que no podían utilizar el software en más de un dispositivo. Hubo numerosas quejas e informes de usuarios que cancelaron sus suscripciones. Pero resultó que esa política no existía. La IA se la había inventado.
En entornos empresariales, este tipo de error podría causar un daño inmenso. Debemos dejar de tratar los LLM como productos independientes y empezar a crear sistemas completos en torno a ellos, sistemas que tengan en cuenta la incertidumbre, supervisen los resultados, gestionen los costes e incorporen medidas de seguridad y precisión. Estas medidas pueden ayudar a garantizar que los resultados se ajusten a los requisitos expresados por el usuario, cumplan las políticas de la empresa en materia de acceso a la información, respeten las cuestiones de privacidad, etc. Algunas empresas, entre ellas AI21 (de la que soy cofundador y que ha recibido financiación de Google), ya están avanzando en esa dirección, integrando modelos de lenguaj es en arquitecturas más deliberadas y estructuradas. Nuestro último lanzamiento, Maestro, está diseñado para ofrecer fiabilidad empresarial, combinando LLM con datos de la empresa, información pública y otras herramientas para garantizar resultados fiables.
Sin embargo, ni siquiera el agente más inteligente será útil si se encuentra aislado. Para que el modelo de agente funcione, los diferentes agentes deben cooperar (reservar tu viaje, consultar el tiempo, enviar tu informe de gastos) sin supervisión humana constante. Ahí es donde entra en juego el protocolo A2A de Google. Se trata de un lenguaje universal que permite a los agentes compartir lo que pueden hacer y dividir las tareas. En principio, es una gran idea.
En la práctica, A2A aún se queda corto. Define cómo se comunican los agentes entre sí, pero no lo que realmente quieren decir. Si un agente dice que puede proporcionar «condiciones del viento», otro tiene que adivinar si eso es útil para evaluar el tiempo en una ruta de vuelo. Sin un vocabulario o contexto compartido, la coordinación se vuelve frágil. Ya hemos visto este problema antes en la informática distribuida. Resolverlo a gran escala no es nada trivial.
También existe la suposición de que los agentes son cooperativos por naturaleza. Eso puede ser cierto dentro de Google o del ecosistema de otra empresa individual, pero en el mundo real, los agentes representarán a diferentes proveedores, clientes o incluso competidores. Por ejemplo, si mi agente de planificación de viajes solicita presupuestos a su agente de reservas aéreas y su agente tiene incentivos para favorecer a determinadas aerolíneas, es posible que mi agente no pueda conseguirme el itinerario mejor o más barato. Sin alguna forma de alinear los incentivos a través de contratos, pagos o mecanismos de teoría de juegos, esperar una colaboración fluida puede ser una ilusión.
Ninguno de estos problemas es insuperable. Se puede desarrollar una semántica compartida. Los protocolos pueden evolucionar. Se puede enseñar a los agentes a negociar y colaborar de formas más sofisticadas. Pero estos problemas no se resolverán por sí solos, y si los ignoramos, el término «agente» correrá la misma suerte que otras palabras de moda tecnológicas sobrevaloradas. Algunos directores de informática ya ponen los ojos en blanco cuando lo oyen.
Es una señal de advertencia. No queremos que el entusiasmo oculte los inconvenientes, solo para que los desarrolladores y usuarios los descubran por las malas y desarrollen una perspectiva negativa sobre todo el proyecto. Sería una pena. El potencial aquí es real. Pero debemos combinar la ambición con un diseño bien pensado, definiciones claras y expectativas realistas. Si lo conseguimos, los agentes no serán solo otra moda pasajera, sino que podrían convertirse en la columna vertebral de nuestra forma de hacer las cosas en el mundo digital.
				




