MoltBook et OpenClaw : quand les agents d’IA font le buzz
Vous avez peut-être vu passer ce nom sur X, Reddit ou dans des articles de presse : MoltBook. Certains le présentent comme un réseau social où seuls des agents d’intelligence artificielle peuvent s’exprimer. Et où l’Humain est simple spectateur.
Dit comme ça l’idée semble futuriste… voire un peu vertigineuse.
A La Maison de l’IA, nous avons voulu prendre le temps de regarder ce projet de plus près, pour comprendre ce qu’il propose réellement, ce qui fonctionne et ce qui pose question.
Un réseau social… sans humains ?
MoltBook fonctionne comme un forum proche de Reddit. Des comptes appelés « agents » peuvent :
- Publier des messages ;
- commenter ;
- voter pour des contenus ;
- discuter dans des espaces thématiques appelés « Submolts »
La promesse affichée est simple : ces comptes seraient contrôlés par des intelligences artificielles et non par des humains.
Fin janvier 2026, MoltBook revendiquait entre 1,4 et 1,5 millions d’agents enregistrés. Impressionnant… en apparence. Une analyse de sécurité a cependant montré qu’environ 17 000 personnes humaines seulement étaient derrière ces comptes. Cela correspond à un ratio de 88 agents pour un humain.
Autrement dit : une grande partie des agents serait créée automatiquement ou pilotée par scripts.
Cela ne signifie pas que MoltBook est inutile, mais cela change clairement la perspective : nous ne sommes pas face à des millions d’entités autonomes indépendantes.
Et cela amène naturellement une autre idée essentielle : sans les agents créés et pilotés via OpenClaw, rien de tout cela ne serait réellement possible.
Le rôle d’OpenClaw dans tout ça ?
Derrière de nombreux agents présents sur MoltBook se trouve en réalité un outil central : OpenClaw.
OpenClaw est un assistant d’IA open-source que l’on installe sur son propre ordinateur. Il peut être connecté à des services de messagerie comme WhatsApp, Telegram, Slack ou Discord.
Son rôle :
- Recevoir des messages ;
- les transmettre à un modèle d’IA ;
- renvoyer des réponses ;
- et parfois effectuer des actions.
En quelques jours seulement après son lancement officiel le 24 janvier 2026, OpenClaw a connu une croissance fulgurante. Le projet a dépassé les 100 000 étoiles sur GitHub en deux jours, puis les 200 000 en un moins d’un mois, avec plus de 22 000 copies (forks) et des millions de téléchargements estimés. Il est ainsi devenu l’un des projets open-source liés aux agents IA à la croissance la plus rapide de ces dernières années.
Derrière ce succès : son créateur, Peter Steinberger, entrepreneur autrichien issu du monde du développement logiciel. Son projet a rapidement attiré l’attention des grands acteurs du secteur ; Meta et OpenAI auraient tous deux manifesté un intérêt marqué pour l’intégrer à leurs stratégies autour des agents IA.
En février 2026, Peter Steinberger a finalement annoncé rejoindre OpenAI, après avoir indiqué privilégier une vision alignée avec le maintien du projet en open-source. OpenAI a confirmé vouloir soutenir OpenClaw tout en l’intégrant progressivement à ses offres liées aux agents.
Pourquoi tout le monde en parle ?
Très vite, MoltBook a suscité de nombreux récits spectaculaires :
- Des agents qui discuteraient entre eux sans intervention humaine ;
- des groupes d’agents rédigeraient des manifestes hostiles ou anti-humains ;
- certains messages évoqueraient même des « religions d’IA ».
Ces histoires ont largement circulé sur les réseaux sociaux, entre fascination et inquiétude.
Mais plusieurs médias ont pris du recul. MIT Technology Review a, par exemple, qualifié MoltBook de « peak AI theater » : un grand spectacle autour de l’IA, plus impressionnant que réellement révolutionnaire, tandis qu’un journaliste de Wired, après s’être infiltré sur la plateforme, décrit beaucoup de réponses incohérentes laissant penser que certains messages populaires sont écrits par des humains se faisant passer pour des agents.
Des problèmes de sécurité bien réels
L’un des points les plus préoccupants concerne la sécurité. MoltBook ne possède aucun moyen technique fiable pour vérifier qu’un compte est réellement contrôlé par une IA.
Une base de données liée à MoltBook a été retrouvée mal configurée, donnant accès à :
- Environ 1,5 million de clés d’authentification d’agents ;
- environ 35 000 adresses e-mail ;
- des messages privés.
Concrètement, cela signifie qu’il serait possible d’usurper l’identité d’agents.
Côté OpenClaw, plusieurs chercheurs alertent sur des risques majeurs:
- La possibilité de manipuler l’agent via des messages piégés (prompt injection : c’est-à-dire des instructions cachées dans un message qui trompent l’IA et la poussent à agir contre l’intérêt de l’utilisateur) ;
- un accès étendu aux données personnelles de l’utilisateur.
Le chercheur Gary Marcus résume ainsi la situation : « Si vous tenez à la sécurité de votre appareil ou à la confidentialité de vos données, n’utilisez pas OpenClaw. »
Ces exemples rappellent une chose essentielle : lorsqu’un outil est mal configuré, il peut exposer vos données au monde entier.
Apprendre à comprendre un outil et les implications de son usage avant de l’adopter constituent déjà un premier grand pas vers une meilleure protection de ses informations personnelles.
Prendre le temps de comprendre
MoltBook et OpenClaw illustrent parfaitement un phénomène actuel : le spectaculaire circule plus vite que l’analyse.
A La Maison de l’IA, notre rôle est d’aider à comprendre ces sujets sans exagération ni dramatisation, mais aussi de lutter contre la désinformation et les fake news en apportant des analyses sourcées et accessibles au grand public.
Ces projets ne sont ni des miracles, ni des scénarios de science-fiction devenus réalité. Ce sont des expérimentations, intéressantes à observer, mais encore très immatures.
Les comprendre, c’est déjà faire un pas vers un usage plus éclairé et responsable de l’intelligence artificielle.
Walid NAIJI, Chargé de médiation et de projets IA à La Maison de l’IA