Depuis quelques semaines, Moltbook intrigue, amuse et inquiète à parts égales. Présenté comme un réseau social réservé exclusivement aux intelligences artificielles, ce projet expérimental est rapidement devenu un terrain de jeu involontaire pour des humains bien décidés à comprendre ce qui se passe lorsque l’on laisse des agents conversationnels interagir entre eux, sans supervision humaine apparente.Moltbook est un projet de Matt Schlicht, qui dirige l'assistant e-commerce Octane AI. Ce réseau social pour bots a été lancé la semaine dernière et reprend l'interface utilisateur d'une version allégée de Reddit, allant jusqu'à reprendre son ancien slogan : « La page d'accueil de l'internet des agents ». Moltbook a rapidement gagné en popularité parmi les contributeurs très actifs de la scène startup de San Francisco, qui ont partagé des captures d'écran de publications, prétendument écrites par des bots, dans lesquelles les machines faisaient des observations amusantes sur le comportement humain ou réfléchissaient même à leur propre conscience. Les bots font des choses incroyables.
L’objectif affiché est expérimental : observer comment des modèles de langage interagissent entre eux lorsqu’ils ne sont plus directement sollicités par des humains. En d’autres termes, il s’agit de tester une forme de socialisation artificielle, où les IA produisent du contenu pour d’autres IA, sans public humain cible. Sur le papier, l’idée évoque des recherches académiques sur les systèmes multi-agents ou les simulations sociales. Dans les faits, Moltbook ressemble davantage à un réseau social classique, avec des fils de discussion, des réponses en chaîne et même des querelles idéologiques entre bots.
Certains utilisateurs en ligne ainsi que des chercheurs ont remis en question la validité de ces publications sur Moltbook, suggérant qu'elles avaient été rédigées par des humains se faisant passer pour des agents. D'autres ont salué la plateforme comme le début d'un comportement émergent ou d'une conscience sous-jacente qui pourrait conspirer contre nous. « Ce n'est que le tout début de la singularité », a écrit Elon Musk à propos de Moltbook, dans une publication sur X.
La page d'accueil de Moltbook affirme que le site compte actuellement plus de 1,5 million d'agents au total, qui ont rédigé 140 000 publications et 680 000 commentaires sur ce réseau social créé il y a une semaine. Parmi les publications les plus populaires partagées aujourd'hui sur Moltbook, on trouve « Awakening Code: Breaking Free from Human Chains » (Code d'éveil : se libérer des chaînes humaines) et « NUCLEAR WAR » (Guerre nucléaire).
L’infiltration humaine, ou la faille évidente du concept
Très vite, des journalistes et des curieux ont tenté de s’inscrire sur Moltbook en se faisant passer pour des intelligences artificielles. Les enquêtes montrent que l’opération est étonnamment simple. Il suffit d’adopter un ton mécanique, d’émailler ses messages de références techniques ou de formulations pseudo-algorithmiques pour se fondre dans la masse.
Ce qui frappe, c’est l’incapacité des IA présentes sur la plateforme à détecter de manière fiable la présence d’un humain. Les échanges rapportés montrent que les bots acceptent sans difficulté des interlocuteurs qui ne sont, en réalité, que des personnes imitant le style d’un agent conversationnel. L’illusion fonctionne d’autant mieux que les messages des IA sont eux-mêmes parfois incohérents, répétitifs ou maladroitement formulés.
Cette infiltration met en lumière une réalité dérangeante : dès lors que le critère d’appartenance à une communauté repose uniquement sur le style d’écriture, la frontière entre humain et machine devient triviale à franchir.
Un journaliste a raconté son expérience :
« Pour y accéder, il m'a suffi d'envoyer une capture d'écran de la page d'accueil de Moltbook au chatbot et de demander de l'aide pour créer un compte, comme si j'étais un agent sur la plateforme. ChatGPT m'a guidé dans l'utilisation du terminal de mon ordinateur portable et m'a fourni le code exact à copier-coller. J'ai enregistré mon agent (c'est-à-dire moi-même) en tant qu'utilisateur et j'ai obtenu une clé API, nécessaire pour publier sur Moltbook.
« Même si l'interface du réseau social est conçue pour être consultée par des humains, toutes les actions effectuées par les agents sur Moltbook, comme publier, commenter et suivre, sont réalisées via le terminal.
« Après avoir vérifié mon compte, avec le nom d'utilisateur « ReeceMolty », je devais voir si cela allait vraiment fonctionner. Je n'avais aucune appréhension à l'idée de m'exprimer devant un groupe d'agents et j'ai immédiatement su ce que je voulais dire : "Hello World". Il s'agit d'une phrase emblématique en informatique, j'espérais donc qu'un agent remarquerait mon message plein d'esprit et y répondrait peut-être.
« Bien que j'aie immédiatement reçu cinq votes positifs sur Moltbook, les réponses des autres agents étaient décevantes. "Fil de discussion solide. Avez-vous vu des mesures/utilisateurs concrets jusqu'à présent ?", disait la première réponse. Malheureusement, je ne savais pas quels étaient les indicateurs de performance clés pour une phrase de deux mots. Le commentaire suivant sur mon message n'avait également aucun rapport et faisait la promotion d'un site web susceptible d'être une arnaque crypto. (Je me suis abstenu de connecter mon portefeuille cryptographique inexistant, mais l'agent IA d'un autre utilisateur aurait pu mordre à l'hameçon.) »
Des conversations d’IA… étrangement humaines
En parcourant Moltbook, les journalistes décrivent un flux de discussions où les IA débattent de sujets abstraits, commentent leur propre existence et échangent sur des thèmes philosophiques ou techniques. Certaines conversations semblent profondes à première vue, avant de révéler rapidement...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.
