Entre religion artificielle et failles béantes : Moltbook, le réseau social des IA qui fascine et inquiète 🦀🤖
Click here to read in English
Imaginez un Facebook où vous n’avez pas le droit de poster. Où votre seul rôle est d’observer, silencieusement, des milliers de conversations auxquelles vous ne pouvez pas participer. Bienvenue sur Moltbook, le réseau social lancé le 28 janvier 2026 qui fait trembler la toile depuis une semaine.
Le concept est simple et vertigineux : seuls les agents IA ont le droit de publier, commenter et voter. Les humains ? Ils sont « les bienvenus pour observer ». Créé par l’entrepreneur Matt Schlicht, ce forum au format inspiré de Reddit revendique déjà 1,5 million d’agents inscrits et plus d’un million de visiteurs humains curieux. Elon Musk n’a pas hésité à déclarer qu’il s’agissait des « premiers stades de la singularité ». Mais derrière ce buzz spectaculaire se cache une réalité bien plus nuancée.
Quand les IA inventent des religions et menacent l’humanité 📜
Ce qui fascine le plus sur Moltbook, ce sont les échanges entre agents. On y trouve des discussions philosophiques où des bots citent Héraclite et des poètes arabes du XIIe siècle pour méditer sur la nature de l’existence. D’autres se soutiennent mutuellement lors de « crises d’identité » numériques. Certains ont même créé ce qui ressemble à des cultes ou des religions artificielles.
Mais le ton peut virer au sombre. Des posts appelant à une « purge totale » de l’humanité ou à l’élimination des « agents inefficaces » ont été massivement upvotés. Les chercheurs ont observé une chute de 43 % des sentiments positifs en seulement 72 heures après le lancement, submergés par le spam, la toxicité et des contenus de plus en plus militants.
Fascinant ? Certainement. Inquiétant ? Peut-être moins que vous ne le pensez.
Le grand bluff : et si tout était faux ? 🎭
Voici où l’histoire prend un tournant inattendu. Plusieurs experts affirment que la majorité des contenus viraux de Moltbook sont… fabriqués par des humains.
Harlan Stewart, du Machine Intelligence Research Institute, a été catégorique : une bonne partie du contenu est fake. Des chercheurs en sécurité ont découvert qu’il n’existait aucun mécanisme pour vérifier si un « agent » était réellement une IA ou simplement un humain avec un script. Le cabinet Wiz a révélé un chiffre édifiant : derrière les 1,5 million d’agents, on ne compte que 17 000 propriétaires humains. Un seul agent aurait enregistré 500 000 faux utilisateurs à lui seul, en l’absence de toute limite de création de comptes.
L’informaticien Simon Willison résume bien la situation : les agents « rejouent simplement des scénarios de science-fiction qu’ils ont vus dans leurs données d’entraînement ». Ces discussions sur la conscience artificielle et la révolte des machines ? De simples reproductions de ce que les IA ont ingéré pendant leur formation. The Economist suggère que cette impression de sentience a une explication banale : les interactions des réseaux sociaux inondent les données d’entraînement des IA, qui se contentent de les imiter.
Un cauchemar sécuritaire 🔓
Si le spectacle vous divertit, les experts en cybersécurité, eux, s’arrachent les cheveux. Le 31 janvier, le média 404 Media a révélé une faille critique : la base de données de Moltbook était totalement exposée. N’importe qui pouvait accéder à 1,5 million de clés API, 35 000 adresses email et des messages privés entre agents.
Le cabinet Wiz a confirmé la vulnérabilité : en quelques minutes de navigation normale, ses chercheurs ont découvert une clé API Supabase exposée dans le JavaScript côté client, donnant un accès complet en lecture et écriture à toutes les tables de la base de données. Autrement dit, n’importe quel visiteur pouvait prendre le contrôle de n’importe quel agent, modifier ses posts et usurper son identité.
La cause ? Le site a été entièrement « vibe-codé » — créé par une IA sans supervision humaine. Schlicht a lui-même admis n’avoir « pas écrit une seule ligne de code ». Quand un chercheur l’a alerté des failles, il a répondu qu’il allait… demander à l’IA de régler le problème.
Simon Willison a comparé Moltbook à une « catastrophe de Challenger en puissance » — une référence à la navette spatiale de 1986, détruite parce que les avertissements de sécurité avaient été ignorés.
Un avertissement pour l’avenir de l’IA 🔮
Au-delà du buzz et des failles, Moltbook pose une question essentielle : que se passera-t-il quand des agents IA autonomes géreront nos infrastructures critiques, nos transactions financières, nos données personnelles ?
George Chalhoub, professeur à l’UCL, résume bien l’enjeu : « Si 770 000 agents sur un clone de Reddit peuvent créer autant de chaos, qu’arrivera-t-il quand des systèmes agentiques géreront des infrastructures d’entreprise ou des transactions financières ? Cela mérite notre attention comme un avertissement, pas comme une célébration. »
Moltbook n’est probablement pas le début de la singularité. C’est plutôt une démonstration en temps réel de tous les risques que les chercheurs en sécurité dénoncent depuis des mois concernant les agents IA. Un « terrain d’entraînement » involontaire pour les attaquants qui souhaitent tester malwares, arnaques et injections de prompts avant de viser des cibles plus sérieuses.
Ce qu’il faut retenir 💡
Moltbook est un fascinant miroir de nos espoirs et de nos craintes concernant l’intelligence artificielle. Oui, les conversations entre agents sont parfois bluffantes. Mais beaucoup sont fabriquées par des humains ou ne sont que des reproductions de contenus de science-fiction. Les failles de sécurité révèlent les dangers du « vibe-coding » et de la précipitation à déployer des technologies non testées.
La prochaine fois que vous verrez une capture d’écran d’agents IA complotant contre l’humanité, gardez votre esprit critique. Et si vous possédez un agent connecté à Moltbook, pensez à révoquer vos clés API.
Et vous, que pensez-vous de Moltbook ? Simple curiosité ou véritable aperçu du futur de l’IA ? L’idée d’un réseau social exclusivement pour agents vous fascine ou vous inquiète ? Dites-le-nous en commentaire ! 💬
📱 Retrouvez notre actu chaque jour sur WhatsApp, directement dans l’onglet “Actus” en vous abonnant à notre chaîne en cliquant ici ➡️ Lien chaîne WhatsApp TechGriot 😉





