Otros
El científico jefe de Anthropic habla sobre cinco formas en las que los agentes serán aún mejores en 2025
El tema más candente en IA apenas está comenzando.
Los agentes son lo más popular en el sector tecnológico en este momento. Las principales empresas, desde Google DeepMind hasta OpenAI y Anthropic, están compitiendo para ampliar los grandes modelos de lenguaje con la capacidad de realizar tareas por sí mismos. Estos sistemas, conocidos como inteligencia artificial agentica en la jerga del sector, se han convertido rápidamente en el nuevo objetivo de la atención de Silicon Valley. Todos, desde Nvidia hasta Salesforce, hablan de cómo van a revolucionar la industria.
“Creemos que, en 2025, podremos ver a los primeros agentes de IA 'unirse a la fuerza laboral' y cambiar materialmente la producción de las empresas”, afirmó Sam Altman en una publicación de blog la semana pasada.
En el sentido más amplio, un agente es un sistema de software que se activa y hace algo, a menudo con una supervisión mínima o nula. Cuanto más complejo sea el sistema, más inteligente debe ser el agente. Para muchos, los grandes modelos de lenguaje son ahora lo suficientemente inteligentes como para impulsar agentes que pueden realizar una amplia gama de tareas útiles para nosotros, como completar formularios, buscar una receta y agregar los ingredientes a una cesta de la compra en línea o usar un motor de búsqueda para realizar una investigación de último momento antes de una reunión y producir un resumen rápido en viñetas.
En octubre, Anthropic presentó uno de los agentes más avanzados hasta el momento: una extensión de su modelo de lenguaje grande Claude llamado uso de computadora . Como sugiere el nombre, te permite indicarle a Claude que use una computadora de la misma manera que lo haría una persona, moviendo un cursor, haciendo clic en botones y escribiendo texto. En lugar de simplemente tener una conversación con Claude, ahora puedes pedirle que realice tareas en pantalla por ti.
Anthropic señala que la función aún es complicada y propensa a errores, pero ya está disponible para un puñado de evaluadores, incluidos desarrolladores externos de empresas como DoorDash, Canva y Asana.
El uso de las computadoras es un anticipo de lo que les espera a los agentes. Para saber qué es lo que viene a continuación, MIT Technology Review habló con el cofundador y científico jefe de Anthropic, Jared Kaplan. A continuación, se presentan cinco formas en las que los agentes mejorarán aún más en 2025.
(Las respuestas de Kaplan han sido ligeramente editadas para mayor brevedad y claridad).
1/ Los agentes mejorarán en el uso de herramientas
“Creo que hay dos ejes para pensar en lo que la IA es capaz de hacer. Uno es la cuestión de cuán compleja es la tarea que un sistema puede realizar. Y a medida que los sistemas de IA se vuelven más inteligentes, están mejorando en esa dirección. Pero otra dirección que es muy relevante es qué tipos de entornos o herramientas puede utilizar la IA.
“Por lo tanto, si nos remontamos a hace casi 10 años, a AlphaGo [el modelo de juego de Go de DeepMind], teníamos sistemas de IA que eran sobrehumanos en términos de lo bien que podían jugar juegos de mesa. Pero si todo con lo que puedes trabajar es un juego de mesa, entonces ese es un entorno muy restrictivo. En realidad, no es útil, incluso si es muy inteligente. Con los modelos de texto, y luego los modelos multimodales, y ahora el uso de computadoras, y tal vez en el futuro con la robótica, estamos avanzando hacia la incorporación de la IA en diferentes situaciones y tareas, y haciéndola útil.
“Básicamente por esa razón nos entusiasmaba el uso de la computadora. Hasta hace poco, con los modelos de lenguaje grandes, era necesario darles una indicación muy específica, darles herramientas muy específicas y luego restringirlos a un tipo específico de entorno. Lo que veo es que el uso de la computadora probablemente mejorará rápidamente en términos de qué tan bien los modelos pueden realizar diferentes tareas y tareas más complejas. Y también para darse cuenta cuando han cometido errores o cuando hay una pregunta de alto riesgo y es necesario pedirle al usuario su opinión”.
2/ Los agentes comprenderán el contexto
“Claude necesita aprender lo suficiente sobre tu situación particular y las limitaciones bajo las que te desenvuelves para ser útil. Cosas como qué rol específico tienes, qué estilos de escritura tienes o qué necesidades tienes tú y tu organización.
"Creo que veremos mejoras en ese aspecto, donde Claude podrá buscar cosas como sus documentos, su Slack, etc., y realmente aprender qué es útil para usted. Eso no se enfatiza demasiado con los agentes. Es necesario que los sistemas no solo sean útiles sino también seguros, y que hagan lo que usted espera.
“Otra cosa es que muchas tareas no requerirán que Claude razone demasiado. No es necesario sentarse y pensar durante horas antes de abrir Google Docs o algo así. Y por eso creo que mucho de lo que veremos no es solo más razonamiento, sino la aplicación del razonamiento cuando es realmente útil e importante, pero también no perder el tiempo cuando no es necesario”.
3/ Los agentes harán que los asistentes de codificación sean mejores
“Queríamos ofrecer una versión beta inicial del uso de la computadora a los desarrolladores para obtener comentarios mientras el sistema era relativamente primitivo. Pero a medida que estos sistemas mejoren, podrían usarse más ampliamente y realmente colaborar con usted en diferentes actividades.
“Creo que DoorDash, The Browser Company y Canva están experimentando con diferentes tipos de interacciones del navegador y diseñándolas con la ayuda de IA.
“Mi expectativa es que también veremos más mejoras en los asistentes de codificación. Es algo que ha sido muy emocionante para los desarrolladores. Hay un gran interés en usar Claude 3.5 para codificar, donde no se trata solo de autocompletar como hace un par de años. Se trata de entender realmente qué está mal con el código, depurarlo: ejecutar el código, ver qué sucede y solucionarlo”.
4/ Será necesario garantizar la seguridad de los agentes
“Fundamos Anthropic porque esperábamos que la IA progresara muy rápidamente y [creíamos] que, inevitablemente, las preocupaciones por la seguridad iban a ser relevantes. Y creo que eso se volverá cada vez más visceral este año, porque creo que estos agentes se integrarán cada vez más en el trabajo que hacemos. Necesitamos estar preparados para los desafíos, como la inyección rápida.
[La inyección de mensajes es un ataque en el que se envía un mensaje malicioso a un modelo de lenguaje grande de maneras que sus desarrolladores no previeron ni pretendieron. Una forma de hacerlo es agregar el mensaje a los sitios web que los modelos podrían visitar.]
“La inyección rápida es probablemente una de las cosas más importantes en las que estamos pensando en términos de un uso más amplio de los agentes. Creo que es especialmente importante para el uso de computadoras y es algo en lo que estamos trabajando muy activamente, porque si el uso de computadoras se implementa a gran escala, entonces podría haber sitios web perniciosos o algo que intente convencer a Claude de hacer algo que no debería hacer.
“Y con modelos más avanzados, simplemente hay más riesgo. Tenemos una política de escalamiento sólida según la cual, a medida que los sistemas de IA se vuelven lo suficientemente capaces, sentimos que debemos poder evitar realmente que se los use indebidamente. Por ejemplo, si pudieran ayudar a los terroristas, ese tipo de cosas.
“Estoy muy entusiasmado por la utilidad que tendrá la IA. De hecho, también nos está acelerando mucho a nivel interno en Anthropic, ya que la gente usa Claude de muchas maneras, especialmente en la codificación. Pero sí, también habrá muchos desafíos. Será un año interesante”.