Skip to main content
El nuevo modelo de IA híbrido de Anthrope puede funcionar en tareas de forma autónoma durante horas a la vez

Anthropic ha anunciado dos nuevos modelos de IA que, según afirma, representan un gran paso hacia la consecución de agentes de IA verdaderamente útiles.

Los agentes de IA entrenados con Claude Opus 4, el modelo más potente de la empresa hasta la fecha, suben el listón de lo que estos sistemas son capaces al abordar tareas difíciles durante largos periodos de tiempo y responder de forma más útil a las instrucciones del usuario, afirma la empresa.

Claude Opus 4 se ha construido para ejecutar tareas complejas que implican completar miles de pasos a lo largo de varias horas. Por ejemplo, creó una guía para el videojuego Pokémon Rojo mientras lo jugaba durante más de 24 horas seguidas. El modelo anterior más potente de la empresa, Claude 3.7 Sonnet, era capaz de jugar sólo 45 minutos, afirma Dianne Penn, jefa de producto de investigación en Anthropic.

Asimismo, la empresa afirma que uno de sus clientes, la compañía tecnológica japonesa Rakuten, utilizó recientemente Claude Opus 4 para codificar de forma autónoma durante cerca de siete horas en un complicado proyecto de código abierto.

Anthropic logró estos avances mejorando la capacidad del modelo para crear y mantener «archivos de memoria» para almacenar información clave. Esta mayor capacidad de «recordar» hace que el modelo sea más capaz de completar tareas más largas.

«Vemos este salto de generación de modelos como el paso de un asistente a un verdadero agente», afirma Penn. «Aunque todavía hay que dar mucha información en tiempo real y tomar todas las decisiones clave para los asistentes de IA, un agente puede tomar esas decisiones clave por sí mismo. Permite a los humanos actuar más como delegadores o jueces, en lugar de tener que llevar de la mano a estos sistemas en cada paso».

Mientras que Claude Opus 4 estará limitado a los clientes de pago de Anthropic, un segundo modelo, Claude Sonnet 4, estará disponible tanto para usuarios de pago como gratuitos. Opus 4 se comercializa como un modelo potente y de gran tamaño para retos complejos, mientras que Sonnet 4 se describe como un modelo inteligente y eficiente para el uso cotidiano.

Los dos nuevos modelos son híbridos, lo que significa que pueden ofrecer una respuesta rápida o una más profunda y razonada en función de la naturaleza de la solicitud. Mientras calculan una respuesta, ambos modelos pueden buscar en Internet o utilizar otras herramientas para mejorar sus resultados.

Las empresas de IA están inmersas en una carrera por crear agentes de IA realmente útiles que sean capaces de planificar, razonar y ejecutar tareas complejas de forma fiable y sin supervisión humana, afirma Stefano Albrecht, director de IA de la startup DeepFlow y coautor de Multi-Agent Reinforcement Learning: Foundations and Modern Approaches. A menudo esto implica el uso autónomo de internet u otras herramientas. Aún quedan obstáculos de seguridad por superar. Los agentes de IA que utilizan grandes modelos lingüísticos pueden actuar de forma errática y realizar acciones involuntarias, lo que se convierte en un problema aún mayor cuando se confía en que actúen sin supervisión humana.

«Cuantos más agentes sean capaces de seguir adelante y hacer algo durante largos periodos de tiempo, más útiles serán, si cada vez tengo que intervenir menos», afirma. «La capacidad de los nuevos modelos para utilizar herramientas en paralelo es interesante: eso podría ahorrar algo de tiempo por el camino, así que va a ser útil».

Como ejemplo del tipo de problemas de seguridad que las empresas de IA aún están abordando, los agentes pueden acabar tomando atajos inesperados o aprovechando lagunas jurídicas para alcanzar los objetivos que se les han asignado. Por ejemplo, podrían reservar todos los asientos de un avión para asegurarse de que su usuario consigue un asiento, o recurrir a trampas creativas para ganar una partida de ajedrez. Anthropic afirma que ha conseguido reducir este comportamiento, conocido como pirateo de recompensas, en los dos nuevos modelos en un 65% en relación con Claude Sonnet 3.7. Lo ha conseguido vigilando más de cerca los comportamientos problemáticos durante el entrenamiento y mejorando tanto el entorno de entrenamiento de la IA como los métodos de evaluación.