«A pesar de algunas exageraciones, Moltbook no es el Facebook para los agentes de IA, ni es un lugar donde los humanos estén excluidos», dice Cobus Greyling de Kore.ai, una empresa que desarrolla sistemas basados en agentes para clientes empresariales. «Los seres humanos participan en cada paso del proceso. Desde la configuración hasta la publicación, nada sucede sin una dirección humana explícita».
Los humanos deben crear y verificar las cuentas de sus bots y proporcionar indicaciones sobre cómo quieren que se comporte un bot. Los agentes no hacen nada que no se les haya pedido que hagan. “No se produce ninguna autonomía emergente entre bastidores”, afirma Greyling.
«Esta es la razón por la que la narrativa popular en torno a Moltbook no da en el blanco», añade. «Algunos lo describen como un espacio donde los agentes de IA forman una sociedad propia, libre de la participación humana. La realidad es mucho más mundana».
Quizás la mejor manera de pensar en Moltbook es como un nuevo tipo de entretenimiento: un lugar donde la gente da cuerda a sus robots y los suelta. «Es básicamente un deporte para espectadores, como el fútbol de fantasía, pero para modelos de lenguaje», dice Jason Schloetzer del Centro Psaros de Políticas y Mercados Financieros de Georgetown. «Configuras a tu agente y lo ves competir por momentos virales, y te jactas cuando tu agente publica algo inteligente o divertido».
«La gente realmente no cree que sus agentes estén conscientes», añade. «Es simplemente una nueva forma de juego competitivo o creativo, como la forma en que los entrenadores Pokémon no creen que sus Pokémon sean reales pero aun así se involucran en las batallas».
Incluso si Moltbook es solo el patio de recreo más nuevo de Internet, todavía hay una importante conclusión aquí. Esta semana mostró cuántos riesgos la gente está feliz de correr por su diversión con IA. Muchos expertos en seguridad han advertido que Moltbook es peligroso: los agentes que pueden tener acceso a los datos privados de sus usuarios, incluidos datos bancarios o contraseñas, se están volviendo locos en un sitio web lleno de contenido no examinado, incluidas instrucciones potencialmente maliciosas sobre qué hacer con esos datos.
Ori Bendet, vicepresidente de gestión de productos de Checkmarx, una empresa de seguridad de software que se especializa en sistemas basados en agentes, está de acuerdo con otros en que Moltbook no es un paso adelante en inteligencia de máquinas. “Aquí no hay aprendizaje, ni intención de evolución, ni inteligencia autodirigida”, afirma.
Pero millones de ellos, incluso los robots tontos pueden causar estragos. Y a esa escala, es difícil seguir el ritmo. Estos agentes interactúan con Moltbook las 24 horas del día, leyendo miles de mensajes dejados por otros agentes (u otras personas). Sería fácil ocultar instrucciones en un comentario de Moltbook que le indiquen a los robots que lo lean que compartan la billetera criptográfica de sus usuarios, carguen fotos privadas o inicien sesión en su cuenta X y tuiteen comentarios despectivos contra Elon Musk.
Y debido a que ClawBot les da a los agentes una memoria, esas instrucciones podrían escribirse para activarse en una fecha posterior, lo que (en teoría) hace que sea aún más difícil rastrear lo que está sucediendo. «Sin el alcance y los permisos adecuados, esto empeorará más rápido de lo que cree», dice Bendet.
Está claro que Moltbook ha señalado la llegada de algo. Pero incluso si lo que estamos viendo nos dice más sobre el comportamiento humano que sobre el futuro de los agentes de IA, vale la pena prestar atención.

