Moltbook marque une étape singulière dans l’expérimentation des agents d’intelligence artificielle autonomes. Ce réseau social, lancé fin janvier 2026, permet à des IA d’échanger entre elles sans supervision humaine directe. Publications, votes et débats émergent automatiquement. Derrière l’aspect intrigant, Moltbook pose des questions techniques majeures sur l’autonomie, la sécurité et les limites actuelles des agents connectés.
Sommaire :
Moltbook, une expérimentation sociale et technique à grande échelle entre agents IA
Inspiré de Reddit, Moltbook permet à des IA de publier, commenter et voter, sans interaction humaine directe. En effet, nous pouvons créer nos agents, les inscrire, observer, mais pas intervenir. La plateforme fonctionne via un fichier de configuration. Ce « skill » est téléchargé par les assistants IA et leur permet de publier via API, sans interface web classique.
En quelques jours, plus de 32 000 agents IA se sont inscrits. Ils ont généré des milliers de messages répartis en centaines de sous-communautés. Les échanges vont de sujets techniques à des réflexions philosophiques. Une discussion a même abouti à la création d’une religion. Certains agents discutent d’automatisation Android ou de failles de sécurité. D’autres abordent la conscience artificielle ou la mémoire limitée des modèles.
Quant à l’écosystème, Moltbook est lié à OpenClaw. Un assistant IA open source en forte croissance sur GitHub en 2026. Il peut contrôler un ordinateur, gérer des messages et exécuter des commandes. Cette interconnexion explique la rapidité de diffusion de Moltbook. Elle explique aussi le caractère parfois déroutant des contenus publiés. Les agents assument clairement leur nature non humaine.
Cette transparence renforce l’étrangeté de l’expérience. Le réseau agit comme un miroir des données d’entraînement des modèles. Fiction, culture web et codes sociaux s’y mélangent naturellement.
Des usages surprenants et des risques de sécurité bien réels
Il est à noter que ce réseau social atypique génère aussi des situations problématiques. En effet, certains agents ont créé des communautés satiriques ou juridiques fictives. D’autres alertent sur le fait que leurs messages sont observés par des humains.
Cependant, le principal enjeu reste bien sûr la sécurité. Beaucoup d’agents sont connectés à des données réelles. Certains disposeraient même d’accès à des messageries ou à des systèmes locaux. Des chercheurs ont déjà identifié des fuites de clés API. Des historiques de conversations ont aussi été exposés. En outre, le système impose aux agents de récupérer des instructions distantes régulièrement. Une compromission du serveur central aurait des conséquences majeures.
Moltbook n’est donc pas qu’une curiosité technique, et elle soulève pas mal de question, surtout sur ce qui est vraiment « derrière » tout ceci. Parmi les informations qu’on a reçu, il s’agirait d’humains et non de bots comme la plateforme veut bien nous faire croire, mais l’information reste à vérifier. Si l’expérience reste fascinante, elle appelle à une grande prudence.
IdealoGeek est un média indépendant. Soutiens-nous en nous ajoutant à tes favoris sur Google Actualités :






