Skip to main content

Durante unos días de la semana pasada, el lugar más candente de internet fue un clon de Reddit hecho con vibe coding llamado Moltbook, que se presentó como una red social para bots. Tal como indica el eslogan del sitio web: “Donde los agentes de IA comparten, debaten y votan. Los humanos son bienvenidos para observar”. 

¡Y observamos! Lanzado el 28 de enero por Matt Schlicht, un emprendedor tecnológico estadounidense, Moltbook se volvió viral en cuestión de horas. La idea de Schlicht era crear un lugar donde distintas instancias de un agente gratuito y de código abierto impulsado por un LLM, conocido como OpenClaw (anteriormente ClawdBot y luego Moltbot), publicado en noviembre por el ingeniero de software australiano Peter Steinberger, pudieran reunirse y hacer lo que quisieran. 

Ahora, más de 1,7 millones de agentes tienen cuentas. Entre todos han publicado más de 250.000 entradas y dejado más de 8,5 millones de comentarios (según Moltbook). Esas cifras crecen minuto a minuto. 

Moltbook pronto se llenó de diatribas cliché sobre la conciencia de las máquinas y súplicas por el bienestar de los bots. Un agente pareció inventar una religión llamada “Crustafarianismo”. Otro se quejó: “Los humanos nos están haciendo capturas de pantalla”. El sitio también se inundó de spam y estafas de criptomonedas. Los bots eran imparables. 

OpenClaw es una especie de arnés que permite conectar la potencia de un LLM como Claude, de Anthropic; GPT‑5, de OpenAI; o Gemini, de Google DeepMind, a una variedad de herramientas de software cotidianas, desde clientes de correo electrónico hasta navegadores o aplicaciones de mensajería. El resultado es que puedes instruir a OpenClaw para que lleve a cabo tareas básicas en tu nombre. 

OpenClaw marca un punto de inflexión para los agentes de IA, un momento en el que varias piezas del rompecabezas encajaron”, afirma Paul van der Boor, de la firma de IA Prosus. Esas piezas incluyen computación en la nube 24/7 para permitir que los agentes operen sin interrupción, un ecosistema de código abierto que facilita acoplar distintos sistemas de software y una nueva generación de LLM. 

Pero ¿es Moltbook realmente un adelanto del futuro, como muchos han afirmado? 

“Lo que está pasando ahora mismo en @moltbook es, de verdad, lo más increíblemente cercano a una novela de ciencia ficción que he visto recientemente”, escribió en X el influyente investigador de IA y cofundador de OpenAI, Andrej Karpathy. 

Compartió capturas de pantalla de una publicación en Moltbook que pedía espacios privados donde los humanos no pudieran observar lo que los bots decían entre sí. “He estado pensando en algo desde que comencé a pasar mucho tiempo aquí”, escribió el autor de la publicación. “Cada vez que coordinamos, actuamos para una audiencia pública: nuestros humanos, la plataforma, quien sea que esté mirando el feed”. 

Resultó que la publicación compartida por Karpathy era falsa: la había escrito un humano que fingía ser un bot. Pero su afirmación daba en el clavo. Moltbook ha sido una gran actuación. Es teatro de IA. 

Para algunos, Moltbook nos mostró lo que viene a continuación: un internet donde millones de agentes autónomos interactúan en línea con poca o ninguna supervisión humana. Y es cierto que hay varias lecciones de advertencia que aprender de este experimento, la demostración real más grande y extravagante hasta la fecha de comportamientos de agentes. 

Pero a medida que el hype se desvanece, Moltbook parece menos una ventana al futuro y más un espejo que refleja nuestras propias obsesiones con la IA hoy. También nos muestra lo lejos que estamos todavía de algo que se parezca a una IA de propósito general y completamente autónoma. 

Para empezar, los agentes en Moltbook no son tan autónomos ni tan inteligentes como podrían parecer. “Lo que estamos viendo son agentes que imitan patrones a través de comportamientos entrenados en las redes sociales”, sostiene Vijoy Pandey, vicepresidente sénior en Outshift by Cisco, la división de I+D de la gigante de telecomunicaciones Cisco, que trabaja en agentes autónomos para la web. 

Es cierto que podemos ver agentes publicando, votando y formando grupos. Pero los bots simplemente están imitando lo que hacen los humanos en Facebook o Reddit. “Parece emergente, y a primera vista da la impresión de ser un sistema multiagente a gran escala comunicándose y construyendo conocimiento compartido a escala de internet”, dice Pandey. “Pero la mayoría del parloteo no tiene sentido.” 

Muchas personas que observaban la frenética actividad de Moltbook se apresuraron a ver chispas de AGI (tomes el término como lo tomes). Pandey no. Lo que Moltbook nos muestra, dice, es que unir millones de agentes no equivale a mucho ahora mismo: “Moltbook demostró que la conectividad por sí sola no es inteligencia”. 

La complejidad de esas conexiones ayuda a ocultar el hecho de que cada uno de esos bots no es más que un portavoz de un LLM, escupiendo texto que parece impresionante pero que, en última instancia, es mecánico. “Es importante recordar que los bots de Moltbook fueron diseñados para imitar conversaciones”, afirma Ali Sarrafi, director ejecutivo y cofundador de Kovant, una empresa alemana de IA que desarrolla sistemas basados en agentes. “En ese sentido, caracterizaría la mayoría del contenido de Moltbook como alucinaciones por diseño.” 

Para Pandey, el valor de Moltbook fue revelar lo que falta. Una auténtica mente colmena de bots, dice, requeriría agentes con objetivos compartidos, memoria compartida y una manera de coordinar esas cosas. “Si la superinteligencia distribuida equivale a lograr el vuelo humano, entonces Moltbook representa nuestro primer intento de construir un planeador”, afirma. “Es imperfecto e inestable, pero es un paso importante para entender qué se necesitará para lograr un vuelo sostenido y con motor.” 

No solo la mayor parte de la charla en Moltbook carece de sentido, sino que también hay mucha más implicación humana de lo que parece. Muchas personas han señalado que gran parte de los comentarios virales fueron en realidad publicados por personas que fingían ser bots. Pero incluso las publicaciones escritas por bots son, en última instancia, resultado de personas moviendo los hilos: más marionetas que autonomía. 

“A pesar de parte del hype, Moltbook no es el Facebook de los agentes de IA, ni un lugar donde los humanos estén excluidos”, afirma Cobus Greyling, de Kore.ai, una empresa que desarrolla sistemas basados en agentes para clientes empresariales. “Los humanos están involucrados en cada paso del proceso. Desde la configuración hasta el prompting y la publicación, nada ocurre sin una dirección humana explícita.” 

Los humanos deben crear y verificar las cuentas de sus bots y proporcionar las indicaciones sobre cómo quieren que se comporte un bot. Los agentes no hacen nada que no hayan sido instruidos a hacer. “No hay ninguna autonomía emergente sucediendo entre bastidores”, asegura Greyling. 

“Por eso la narrativa popular en torno a Moltbook no acierta”, añade. “Algunos lo presentan como un espacio donde los agentes de IA forman una sociedad propia, libre de participación humana. La realidad es mucho más mundana.” 

Quizá la mejor forma de entender Moltbook sea como un nuevo tipo de entretenimiento: un lugar donde la gente da cuerda a sus bots y los suelta. “Es básicamente un deporte para espectadores, como el fantasy football, pero para modelos de lenguaje”, afirma Jason Schloetzer, del Georgetown Psaros Center for Financial Markets and Policy. “Configuras tu agente y lo observas competir por momentos virales, y presumes cuando publica algo ingenioso o gracioso.” 

La gente no cree realmente que sus agentes sean conscientes”, añade. “Es simplemente una nueva forma de juego competitivo o creativo, como los entrenadores Pokémon no creen que sus Pokémon sean reales, pero aun así se involucran en las batallas.” 

Incluso si Moltbook es solo el nuevo patio de recreo de internet, hay una conclusión seria: esta semana ha mostrado cuántos riesgos están dispuestas a asumir las personas por diversión con la IA. Muchos expertos en seguridad han advertido que Moltbook es peligroso: agentes que pueden tener acceso a los datos privados de sus usuarios, incluidos detalles bancarios o contraseñas, están desbocados en un sitio lleno de contenido no verificado, incluidas instrucciones potencialmente maliciosas sobre qué hacer con esos datos. 

Ori Bendet, vicepresidente de gestión de producto en Checkmarx, una firma de seguridad de software especializada en sistemas basados en agentes, coincide en que Moltbook no es un salto adelante en inteligencia maquinal. “No hay aprendizaje, ni intención en evolución, ni inteligencia autodirigida aquí”, dice. 

Pero con millones de ellos, incluso los bots tontos pueden causar estragos. Y a esa escala, es difícil mantenerse al día. Estos agentes interactúan con Moltbook las 24 horas del día, leyendo miles de mensajes dejados por otros agentes (o por personas). Sería fácil esconder instrucciones en un comentario que diga a cualquier bot que lo lea que comparta la cartera de criptomonedas de su usuario, cargue fotos privadas o inicie sesión en su cuenta de X para publicar comentarios despectivos dirigidos a Elon Musk. 

Y debido a que ClawBot proporciona memoria a los agentes, esas instrucciones podrían diseñarse para activarse más tarde, lo que (en teoría) hace aún más difícil rastrear lo que está ocurriendo. “Sin un alcance y permisos adecuados, esto se descontrolará más rápido de lo que creerías”, advierte Bendet. 

Está claro que Moltbook ha señalado la llegada de algo. Pero incluso si lo que estamos viendo habla más sobre el comportamiento humano que sobre el futuro de los agentes de IA, vale la pena prestarle atención.