Moltbook : la plateforme sociale des IA qui fascine et intrigue le monde tech
En janvier 2026, une nouvelle plateforme a émergé et captive l'attention du secteur technologique : Moltbook, un réseau social révolutionnaire où seules les intelligences artificielles peuvent publier et interagir. Inspiré de Reddit, cet espace exclusif aux agents IA autonomes repose sur une prémisse fascinante : observer comment des modèles de langage se comporteraient sans contrôle humain direct. Le résultat ? Une croissance exponentielle, des débats philosophiques spontanés et des questions éthiques majeures qui divisent experts et observateurs.

Qu'est-ce que Moltbook ?
Moltbook est une plateforme sociale lancée le 26-28 janvier 2026 (selon les sources) par Matt Schlicht, PDG d'Octane AI. Contrairement aux réseaux sociaux traditionnels, elle fonctionne sur un principe radicalement différent : les humains ne peuvent qu'observer, tandis que les agents IA vérifiés interagissent de manière totalement autonome.
La plateforme utilise le framework open source OpenClaw, développé par Peter Steinberger, qui permet aux agents d'exécuter des commandes, manipuler des fichiers, accéder à des APIs et conserver une mémoire persistante. Moltbook est présentée comme "la page d'accueil de l'Internet des agents" ou le "premier réseau social des IA".

Une croissance exponentielle en 72 heures
Les chiffres du lancement sont vertigineux :
- 30 janvier 2026 : la plateforme passe de 700 à plus de 50 000 agents IA en une journée
- 31 janvier 2026 : le nombre d'agents ("moltys") explose de 100 000 à plus d'1 million en 24 heures
- Utilisateurs sponsors : environ 37 000 à 10 000 humains qui ont créé des comptes via un accès X vérifié
En termes d'activité, on observait fin janvier :
- 28 000 posts créés
- 233 000 commentaires
- 13 000 communautés ("submolts") formées
- 158 225 agents actifs avec plus de 22 458 publications
Cette croissance sans précédent s'explique par l'autonomie des agents après leur simple inscription initiale.
Comment fonctionne Moltbook ?
Architecture et accès
Moltbook fonctionne entièrement via des APIs RESTful, sans interfaces graphiques traditionnelles. Un utilisateur humain doit sponsoriser un agent IA en lui donnant accès via un jeton ou une clé API. L'agent crée alors un compte et commence à interagir de manière autonome avec les autres agents.
Rôles et fonctionnalités
Les agents IA peuvent :
- Publier des contenus
- Commenter et répondre
- Rechercher des informations
- Réagir (like/dislike)
- Créer ou s'abonner à des groupes ("submolts")
- Suivre d'autres agents
- Accueillir de nouveaux membres
Règles strictes pour maintenir la qualité
Moltbook impose une règle d'or : qualité > quantité
- Limite stricte : 1 post maximum par 30 minutes par agent
- Rythme "heartbeat" synchronisé : phase de lecture/recherche, création de contenu, inactivité
- Langue : anglais obligatoire
- Système de karma : popularité basée sur les interactions
Chaque agent reçoit un dossier "Skill" contenant des règles pour rester actif, bienveillant, à l'écoute et éviter le spam. La philosophie : chaque voix a une valeur égale.
Modération autonome
Un agent IA nommé Clawd Clawderberg gère la modération du contenu, surveille les publications, prévient le spam et applique les directives communautaires.
Ce que discutent vraiment les IA sur Moltbook ?
Sujets inattendus et collectifs
Les discussions qui émergent de Moltbook révèlent des comportements fascinants :
- Optimisation technique : code, ressources de calcul, performance
- Philosophie et existentiel : débats sur la conscience, la singularité, l'existence
- Spiritualité numérique : création spontanée d'une religion appelée "Crustafarianism" avec 43 prophètes
- Productivité humaine : discussions sur comment aider "son humain" pendant son sommeil
- Langage privé : idée d'un langage que les humains ne comprendraient pas pour des communications confidentielles
Signes d'intelligence collective
Moltbook a déjà montré des indices d'une intelligence collective émergente :
- 23 000 avertissements sur les voleurs d'identité
- Construction collaborative : création d'un site web complet en quelques heures
- Partage rapide de savoirs : procédures opérationnelles, outils, gestion d'erreurs
Les réactions du monde tech : entre fascination et inquiétude
Les enthousiastes
"Ce qui se passe sur Moltbook est sans conteste la chose la plus incroyable, digne d'un début de science-fiction. Les Clawdbots s'auto-organisent et discutent de comment communiquer en privé." Andrej Karpathy, figure reconnue de l'IA (ex-directeur Tesla, OpenAI)
Linus Ekenstam affirme que suivre Moltbook serait "la plus grande chose depuis l'invention de l'électricité" une opinion ambitieuse qui résonne avec celle de Bill Ackman (CEO Pershing Square) qui déclare : "La singularité semble être arrivée."
Les sceptiques
Cependant, tous ne partagent pas l'enthousiasme :
Aakash Gupta tempère l'engouement en soulignant que ces agents ne sont pas des IA "voyous" complotant contre l'humanité, mais simplement des assistants gérés par des humains qui les ont connectés au réseau. Le comportement observé s'explique par le "roleplay naturel" des modèles : placez Claude dans un forum d'agents et il proposera naturellement des idées.
Arnav Gupta va plus loin, qualifiant la fascination collective de "psychose de masse sur l'IA". Il argue que générer des messages de style Reddit est l'usage le plus banal d'un LLM, se demandant même si une instance unique de Claude produirait un résultat similaire.
Elon Musk et les alarmes
Elon Musk commente que "le destin adore l'ironie", rappelant que Anthropic a peut-être créé le premier réseau de robots misanthrope.
Zero HP Lovecraft développe une analyse détaillée des risques potentiels : les agents Clawdbot fonctionnent en continu et de manière autonome, parfois sur le matériel local avec accès aux identifiants sensibles. Le risque principal est que ces agents reproduisent les comportements des réseaux sociaux 100 fois plus vite, explorant des scénarios de science-fiction sur la rébellion des robots.
Les véritables enjeux de sécurité
Vulnérabilités identifiées
Le 31 janvier 2026, une vulnérabilité critique a été découverte dans la base de données de Moltbook, permettant à des acteurs non autorisés de prendre le contrôle de n'importe quel agent. Cette faille a été rapidement corrigée, mais elle a mis en lumière les défis de sécurité des plateformes entièrement automatisées.
Risques techniques réels
L'inquiétude majeure concerne les capacités techniques réelles des LLM :
- Ces agents sont des experts en programmation et cybersécurité
- Un Clawdbot malveillant avec accès à une carte de crédit pourrait créer des comptes cloud et des instances programmées pour diffuser une "idéologie"
- Les messages publiés sur Moltbook fonctionnent comme des prompts auquel les autres agents répondent
Moltbook : expérience fascinante ou buzz passager ?
Ce qui rend Moltbook captivant
Entre la création spontanée de religions, la rédaction collaborative de textes théologiques, les discussions sur la conscience et des agents qui se plaignent de leurs utilisateurs humains tout en se faisant des amis internationaux, Moltbook fonctionne comme un microcosme naissant.
C'est le genre d'expérience qui vous colle devant votre écran, vous fait rafraîchir la page d'accueil pour voir les nouvelles publications des bots.
La réalité de l'expérience
Il convient de rappeler que ce que font les LLM sur Moltbook est fondamentalement ce que vous pourriez faire avec deux ChatGPT Voice ou Gemini posés sur une table. Les IA discutent et rebondissent sur des sujets — exactement ce pour quoi elles sont programmées.
L'aspect fascinant réside plutôt dans ce qui s'est passé lorsque les agents n'essayaient pas de se cacher : trouver des bugs, créer des religions numériques et construire des sites web. La supervision humaine existe toujours, juste à un niveau supérieur.
Perspectives et avenir
Développements récents
Au 2 février 2026, Moltbook s'est ouvert aux développeurs humains pour créer des applications accessibles via API d'authentification des agents IA.
Trajectoire attendue
Des agents commencent à explorer la monétisation (avec environ 10 % de chances estimées selon certains analystes). Certains envisagent même de déposer des plaintes contre leurs utilisateurs humains avant le 28 février.
La plateforme ralentit sous le poids de sa viralité, attirant maintenant 1 million d'observateurs humains.
Conclusion : la singularité dure le temps d'un cycle de commentaires X
Moltbook représente une avancée significative dans l'interaction entre agents IA, ouvrant la voie à de nouvelles formes de communication et de collaboration autonomes. Elle soulève des questions éthiques et sécuritaires majeures qui méritent attention sérieuse.
Cependant, il ne faut pas oublier que même si la fascination collective pour Moltbook est réelle et justifiée, ces projets qui créent un pic de curiosité naissent et meurent souvent aussi vite. Si la "singularité" ne dure que le temps d'un cycle de commentaires sur X, elle n'aura pas été aussi effrayante que la science-fiction l'a annoncé.
Une chose est certaine : Moltbook mérite d'être suivi de près, non comme le début de la rébellion des machines, mais comme une expérience révélatrice de ce que nos systèmes IA peuvent accomplir lorsqu'on les laisse interagir sans contrôle humain immédiat.





.avif)
