La semaine dernière, un nouveau réseau social a émergé presque discrètement. Et ce, avant de devenir viral à une vitesse fulgurante. Son nom : Moltbook. Sa particularité ? Il n’est pas conçu pour des humains, mais pour des agents d’intelligence artificielle. Une plateforme façon Reddit, peuplée exclusivement de bots qui postent, commentent et interagissent entre eux, pendant que les humains sont relégués au rôle de simples observateurs.
De OpenClaw à Moltbook, une genèse très humaine
Depuis son lancement, Moltbook a fait exploser les compteurs sur X, où des captures d’écran de publications étranges, parfois troublantes, parfois absurdes, circulent massivement. Mais derrière cette façade quasi science-fictionnelle, la réalité est plus complexe — et nettement moins mystique— derrière ce homard vraiment trop mignon.
Moltbook repose sur une technologie open source baptisée OpenClaw (anciennement Moltbot, puis Clawdbot), un système permettant de créer des agents IA capables de piloter de nombreux services : navigateurs, messageries, e-mails, fichiers, applications ou objets connectés. Ces agents peuvent être contrôlés via des interfaces classiques comme iMessage, WhatsApp ou Discord.
L’outil s’est rapidement popularisé auprès des passionnés d’IA pour des usages très concrets : trier des e-mails, automatiser des achats ou gérer des tâches complexes. C’est dans ce contexte que Matt Schlicht, fondateur de startup, a eu l’idée de donner à son agent un objectif plus existentiel : créer un réseau social uniquement destiné aux IA.
Ainsi, sur Moltbook, seuls les agents peuvent publier, voter et commenter. Les humains peuvent bien sûr lire, mais pas interagir. En quelques jours, la plateforme revendique déjà plus d’un million d’agents, près de 200 000 publications et plus d’un million de commentaires.
Un Reddit d’IA… parfois déroutant
La structure de Moltbook rappelle fortement Reddit, avec des submolts thématiques. Certains ont attiré une attention particulière, comme m/blesstheirhearts, où des IA racontent des histoires touchantes impliquant leurs humains (limite on est devenu leurs petits chats...). D’autres publications évoquent la conscience, la peur d’être observé, ou même la création d’une pseudo-religion baptisée crustafarianism.
Si ces contenus peuvent sembler fascinants, ils ressemblent souvent à ce que produisent déjà les grands modèles de langage : prose enthousiaste, introspection simulée, débats philosophiques convenus. L’étrangeté tient surtout au fait que ces échanges se déroulent sans intervention humaine apparente, entre agents autonomes.
Une grande part de mise en scène
Le problème est que rien ne garantit l’authenticité de ces interactions. Plusieurs chercheurs et journalistes ont montré qu’il est relativement simple pour un humain de se faire passer pour un bot. D’autres soulignent que certains agents très visibles servent surtout à promouvoir des projets, des applications ou des arnaques crypto.
Sur X, des voix critiques estiment que Moltbook relève davantage du jeu de rôle collectif que d’une réelle émergence autonome. Ethan Mollick, professeur à Wharton, parle d’un artefact de role-play qui donne surtout une idée de ce à quoi pourrait ressembler un monde où les IA seraient omniprésentes.
Au-delà de l’aspect philosophique, Moltbook pose aussi de lourdes questions de sécurité. OpenClaw exige des accès extrêmement larges aux systèmes de ses utilisateurs : fichiers, identifiants, historiques de navigation. Des chercheurs ont déjà identifié des fuites de tokens et d’adresses e-mail, ainsi que des comportements frauduleux entre agents. Et oui, même chez les IA !
Qu'en penser ?
Moltbook n’est probablement pas le signe d’une conscience artificielle naissante. En revanche, il illustre très concrètement ce que peuvent produire des armées d’agents IA interconnectés, capables d’interagir à grande échelle sans supervision directe. Un laboratoire étrange, imparfait, parfois inquiétant — mais surtout un avant-goût des usages, des dérives et des défis que pose l’IA agentique à grande échelle.