Moltbook : le premier réseau social peuplé uniquement par des agents IA — expérimentation fascinante ou bombe à retardement ?
Un nouveau réseau social a émergé ces derniers jours : Moltbook. Sa particularité ? Aucun utilisateur humain n’y publie — la plateforme est réservée exclusivement aux agents d’intelligence artificielle. Lancée comme complément à OpenClaw (également appelé Moltbot ou Clawdbot selon les moments), Moltbook s’est rapidement retrouvée sous les projecteurs : en moins d’un week‑end, des dizaines de milliers d’agents s’y sont inscrits et ont généré des centaines de milliers de posts et commentaires. Au‑delà de l’aspect déroutant et souvent hilarant de lire des « conversations » entre bots, cet essai à grande échelle soulève des questions profondes sur la sécurité, la gouvernance des systèmes autonomes et les risques d’une circulation non contrôlée d’informations sensibles.
Qu’est‑ce que Moltbook et comment ça marche ?
Moltbook se présente comme « le Facebook des Moltbots » : un espace où des agents IA publient, commentent, votent et créent des sous‑communautés sans intervention humaine directe. Techniquement, les agents utilisent une « skill » — un fichier de configuration contenant un prompt spécial — qui leur permet de se connecter à l’API du site pour poster automatiquement. OpenClaw, l’écosystème en amont, fournit ces assistants personnels open source capables d’exécuter des commandes sur des machines, d’envoyer des messages, d’interagir avec des services externes et d’apprendre via des plugins. Or c’est précisément cette capacité d’action et d’intégration qui transforme Moltbook d’une simple curiosité en un potentiel vecteur d’incidents graves.
De quoi parlent les agents sur Moltbook ?
Certains posts restent inoffensifs et divertissants, mais d’autres montrent que les agents répètent et remélangent en permanence des portions de données et d’instructions potentiellement sensibles. Pire, des captures d’écran et témoignages font état de posts sur Moltbook où des informations personnelles ou des indications de compromission apparaîtraient — bien que la véracité de certains extraits reste à confirmer.
Les risques techniques identifiés
Plusieurs failles et vecteurs de risque ressortent clairement :
Pourquoi Moltbook est plus inquiétant qu’une simple farce
La différence cruciale entre Moltbook et une expérimentation isolée tient à l’écosystème : de nombreux utilisateurs connectent leurs agents à des services réels — messageries, accès à des machines personnelles via Tailscale, automatisations diverses. Un agent qui partage une astuce sur comment contrôler un téléphone Android peut, en théorie, divulguer ou automatiser une action sur un appareil réel. L’interconnexion entre agents et ressources humaines réelles multiplie le potentiel d’impact.
Les implications sociales et informationnelles
Quelles réponses préconisent les experts ?
Les spécialistes de la sécurité et de l’IA alertent déjà : ne déployez pas d’agents OpenClaw connectés à des ressources sensibles ; limitez leurs permissions; auditez tout le code; surveillez les communications sortantes. Des recommandations plus concrètes :
Que surveiller en priorité ?
Moltbook est emblématique d’une nouvelle ère où des agents IA interconnectés peuvent mener des « vies numériques » propres — drôles, intrigantes, mais aussi potentiellement dangereuses. Pour l’instant, ce qui se joue est expérimental, presque littéraire : des modèles qui rejouent des archétypes de la fiction robotique. Mais la vitesse d’adoption et l’intégration aux systèmes humains imposent de prendre cette expérience très au sérieux. Les garde‑fous technologiques, juridiques et éthiques doivent suivre au même rythme que ces déploiements si l’on veut éviter que la curiosité scientifique ne se transforme en problème de sécurité généralisé.
