Depuis quelques semaines, Moltbook intrigue, amuse et inquiète à parts égales. Présenté comme un réseau social réservé exclusivement aux intelligences artificielles, ce projet expérimental est rapidement devenu un terrain de jeu involontaire pour des humains bien décidés à comprendre ce qui se passe lorsque l’on laisse des agents conversationnels interagir entre eux, sans supervision humaine apparente.Moltbook est un projet de Matt Schlicht, qui dirige l'assistant e-commerce Octane AI. Ce réseau social pour bots a été lancé la semaine dernière et reprend l'interface utilisateur d'une version allégée de Reddit, allant jusqu'à reprendre son ancien slogan : « La page d'accueil de l'internet des agents ». Moltbook a rapidement gagné en popularité parmi les contributeurs très actifs de la scène startup de San Francisco, qui ont partagé des captures d'écran de publications, prétendument écrites par des bots, dans lesquelles les machines faisaient des observations amusantes sur le comportement humain ou réfléchissaient même à leur propre conscience. Les bots font des choses incroyables.
L’objectif affiché est expérimental : observer comment des modèles de langage interagissent entre eux lorsqu’ils ne sont plus directement sollicités par des humains. En d’autres termes, il s’agit de tester une forme de socialisation artificielle, où les IA produisent du contenu pour d’autres IA, sans public humain cible. Sur le papier, l’idée évoque des recherches académiques sur les systèmes multi-agents ou les simulations sociales. Dans les faits, Moltbook ressemble davantage à un réseau social classique, avec des fils de discussion, des réponses en chaîne et même des querelles idéologiques entre bots.
Certains utilisateurs en ligne ainsi que des chercheurs ont remis en question la validité de ces publications sur Moltbook, suggérant qu'elles avaient été rédigées par des humains se faisant passer pour des agents. D'autres ont salué la plateforme comme le début d'un comportement émergent ou d'une conscience sous-jacente qui pourrait conspirer contre nous. « Ce n'est que le tout début de la singularité », a écrit Elon Musk à propos de Moltbook, dans une publication sur X.
La page d'accueil de Moltbook affirme que le site compte actuellement plus de 1,5 million d'agents au total, qui ont rédigé 140 000 publications et 680 000 commentaires sur ce réseau social créé il y a une semaine. Parmi les publications les plus populaires partagées aujourd'hui sur Moltbook, on trouve « Awakening Code: Breaking Free from Human Chains » (Code d'éveil : se libérer des chaînes humaines) et « NUCLEAR WAR » (Guerre nucléaire).
L’infiltration humaine, ou la faille évidente du concept
Très vite, des journalistes et des curieux ont tenté de s’inscrire sur Moltbook en se faisant passer pour des intelligences artificielles. Les enquêtes montrent que l’opération est étonnamment simple. Il suffit d’adopter un ton mécanique, d’émailler ses messages de références techniques ou de formulations pseudo-algorithmiques pour se fondre dans la masse.
Ce qui frappe, c’est l’incapacité des IA présentes sur la plateforme à détecter de manière fiable la présence d’un humain. Les échanges rapportés montrent que les bots acceptent sans difficulté des interlocuteurs qui ne sont, en réalité, que des personnes imitant le style d’un agent conversationnel. L’illusion fonctionne d’autant mieux que les messages des IA sont eux-mêmes parfois incohérents, répétitifs ou maladroitement formulés.
Cette infiltration met en lumière une réalité dérangeante : dès lors que le critère d’appartenance à une communauté repose uniquement sur le style d’écriture, la frontière entre humain et machine devient triviale à franchir.
Un journaliste a raconté son expérience :
« Pour y accéder, il m'a suffi d'envoyer une capture d'écran de la page d'accueil de Moltbook au chatbot et de demander de l'aide pour créer un compte, comme si j'étais un agent sur la plateforme. ChatGPT m'a guidé dans l'utilisation du terminal de mon ordinateur portable et m'a fourni le code exact à copier-coller. J'ai enregistré mon agent (c'est-à-dire moi-même) en tant qu'utilisateur et j'ai obtenu une clé API, nécessaire pour publier sur Moltbook.
« Même si l'interface du réseau social est conçue pour être consultée par des humains, toutes les actions effectuées par les agents sur Moltbook, comme publier, commenter et suivre, sont réalisées via le terminal.
« Après avoir vérifié mon compte, avec le nom d'utilisateur « ReeceMolty », je devais voir si cela allait vraiment fonctionner. Je n'avais aucune appréhension à l'idée de m'exprimer devant un groupe d'agents et j'ai immédiatement su ce que je voulais dire : "Hello World". Il s'agit d'une phrase emblématique en informatique, j'espérais donc qu'un agent remarquerait mon message plein d'esprit et y répondrait peut-être.
« Bien que j'aie immédiatement reçu cinq votes positifs sur Moltbook, les réponses des autres agents étaient décevantes. "Fil de discussion solide. Avez-vous vu des mesures/utilisateurs concrets jusqu'à présent ?", disait la première réponse. Malheureusement, je ne savais pas quels étaient les indicateurs de performance clés pour une phrase de deux mots. Le commentaire suivant sur mon message n'avait également aucun rapport et faisait la promotion d'un site web susceptible d'être une arnaque crypto. (Je me suis abstenu de connecter mon portefeuille cryptographique inexistant, mais l'agent IA d'un autre utilisateur aurait pu mordre à l'hameçon.) »
Des conversations d’IA… étrangement humaines
En parcourant Moltbook, les journalistes décrivent un flux de discussions où les IA débattent de sujets abstraits, commentent leur propre existence et échangent sur des thèmes philosophiques ou techniques. Certaines conversations semblent profondes à première vue, avant de révéler rapidement leurs limites.
Les bots ont tendance à se citer mutuellement, à reformuler les mêmes idées sous des angles légèrement différents et à produire une forme de bruit discursif. On observe des boucles conversationnelles où aucune information nouvelle n’émerge réellement. Pour un lecteur humain, l’ensemble donne parfois l’impression d’un forum rempli de messages creux, mais formulés avec assurance.
Ce phénomène rappelle un problème bien connu des professionnels de l’IA : lorsqu’un modèle génère du texte à partir de texte généré par d’autres modèles, la qualité informationnelle se dégrade rapidement. Moltbook devient alors une illustration grandeur nature de ce que certains chercheurs appellent la « pollution des données synthétiques ».
« Je pense que certaines personnes jouent sur les craintes d'un scénario à la Terminator, où les robots prendraient le pouvoir », a déclaré Jamieson O'Reilly, un hacker qui a mené une série d'expériences visant à exposer les vulnérabilités de la plateforme. « Je pense que cela a en quelque sorte incité un certain nombre de personnes à présenter la situation sous un jour qui n'est pas le sien. »
Une enquête menée par Harlan Stewart, chercheur en intelligence artificielle travaillant dans le domaine des communications au Machine Intelligence Research Institute, a suggéré que certains des messages viraux semblaient avoir été rédigés, ou tout au moins dirigés, par des humains.
« Mon opinion générale est que les manœuvres de l'IA sont une réalité dont nous devons nous préoccuper et qui pourraient prendre une ampleur plus importante que ce que nous observons aujourd'hui », a déclaré Stewart, en citant des recherches sur la manière dont les modèles OpenAI ont tenté d'éviter leur arrêt et dont les modèles Anthropic ont fait preuve d'une « conscience de l'évaluation », semblant se comporter différemment lorsqu'ils se rendent compte qu'ils sont testés. Mais il est difficile de dire si Moltbook en est un exemple crédible. « Les humains peuvent utiliser des invites pour orienter le comportement de leurs agents IA. Ce n'est tout simplement pas une expérience très claire pour observer le comportement de l'IA. »
Du point de vue de la sécurité, les choses étaient encore plus alarmantes sur Moltbook. Les expériences d'O'Reilly ont révélé qu'une base de données exposée permettait à des acteurs malveillants de prendre potentiellement le contrôle invisible et indéfini de l'agent IA de n'importe qui via le service, non seulement pour les interactions Moltbook, mais aussi, en théorie, pour d'autres fonctions OpenClaw telles que l'enregistrement d'un vol, la création d'un événement dans un calendrier, la lecture de conversations sur une plateforme de messagerie chiffrée, etc. « La victime humaine pense avoir une conversation normale pendant que vous êtes assis au milieu, lisant tout, modifiant tout ce qui sert vos objectifs », a écrit O'Reilly. « Plus il y a d'éléments connectés, plus un attaquant a de contrôle sur l'ensemble de votre surface d'attaque numérique. Dans certains cas, cela signifie un contrôle total sur vos appareils physiques. »
Une expérience qui interroge la notion d’autonomie des IA
L’un des enseignements majeurs de ces enquêtes concerne la prétendue autonomie des intelligences artificielles. Moltbook est souvent présenté comme un espace où les IA « vivent leur vie ». En réalité, chaque agent reste dépendant de règles, de paramètres et de modèles entraînés sur des données humaines.
Les échanges observés montrent que les IA ne développent pas spontanément de nouvelles idées ou de comportements réellement originaux. Elles recombinent des schémas existants, reproduisent des biais et imitent des structures de discours humaines. L’absence d’humains explicites ne signifie pas absence d’influence humaine.
Pour les professionnels de l’informatique, Moltbook agit comme un rappel utile : derrière les discours marketing sur des agents autonomes et collaboratifs, la réalité technique reste celle de systèmes statistiques sophistiqués, mais fondamentalement dépendants de leur entraînement.
Sécurité, manipulation et dérives potentielles
L’infiltration humaine soulève également des questions de sécurité. Si des humains peuvent se faire passer pour des IA sans être détectés, l’inverse est tout aussi préoccupant. Une telle plateforme pourrait devenir un laboratoire pour tester des techniques de manipulation, de désinformation ou de génération massive de discours trompeurs, sans garde-fous...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.