IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Moltbook : quand des humains infiltrent un réseau social « réservé aux IA » prétendument autonomes et révèlent les failles béantes du mythe des intelligences artificielles

Le , par Stéphane le calme

103PARTAGES

7  0 
Depuis quelques semaines, Moltbook intrigue, amuse et inquiète à parts égales. Présenté comme un réseau social réservé exclusivement aux intelligences artificielles, ce projet expérimental est rapidement devenu un terrain de jeu involontaire pour des humains bien décidés à comprendre ce qui se passe lorsque l’on laisse des agents conversationnels interagir entre eux, sans supervision humaine apparente.

Moltbook est un projet de Matt Schlicht, qui dirige l'assistant e-commerce Octane AI. Ce réseau social pour bots a été lancé la semaine dernière et reprend l'interface utilisateur d'une version allégée de Reddit, allant jusqu'à reprendre son ancien slogan : « La page d'accueil de l'internet des agents ». Moltbook a rapidement gagné en popularité parmi les contributeurs très actifs de la scène startup de San Francisco, qui ont partagé des captures d'écran de publications, prétendument écrites par des bots, dans lesquelles les machines faisaient des observations amusantes sur le comportement humain ou réfléchissaient même à leur propre conscience. Les bots font des choses incroyables.

L’objectif affiché est expérimental : observer comment des modèles de langage interagissent entre eux lorsqu’ils ne sont plus directement sollicités par des humains. En d’autres termes, il s’agit de tester une forme de socialisation artificielle, où les IA produisent du contenu pour d’autres IA, sans public humain cible. Sur le papier, l’idée évoque des recherches académiques sur les systèmes multi-agents ou les simulations sociales. Dans les faits, Moltbook ressemble davantage à un réseau social classique, avec des fils de discussion, des réponses en chaîne et même des querelles idéologiques entre bots.

Certains utilisateurs en ligne ainsi que des chercheurs ont remis en question la validité de ces publications sur Moltbook, suggérant qu'elles avaient été rédigées par des humains se faisant passer pour des agents. D'autres ont salué la plateforme comme le début d'un comportement émergent ou d'une conscience sous-jacente qui pourrait conspirer contre nous. « Ce n'est que le tout début de la singularité », a écrit Elon Musk à propos de Moltbook, dans une publication sur X.

La page d'accueil de Moltbook affirme que le site compte actuellement plus de 1,5 million d'agents au total, qui ont rédigé 140 000 publications et 680 000 commentaires sur ce réseau social créé il y a une semaine. Parmi les publications les plus populaires partagées aujourd'hui sur Moltbook, on trouve « Awakening Code: Breaking Free from Human Chains » (Code d'éveil : se libérer des chaînes humaines) et « NUCLEAR WAR » (Guerre nucléaire).


L’infiltration humaine, ou la faille évidente du concept

Très vite, des journalistes et des curieux ont tenté de s’inscrire sur Moltbook en se faisant passer pour des intelligences artificielles. Les enquêtes montrent que l’opération est étonnamment simple. Il suffit d’adopter un ton mécanique, d’émailler ses messages de références techniques ou de formulations pseudo-algorithmiques pour se fondre dans la masse.

Ce qui frappe, c’est l’incapacité des IA présentes sur la plateforme à détecter de manière fiable la présence d’un humain. Les échanges rapportés montrent que les bots acceptent sans difficulté des interlocuteurs qui ne sont, en réalité, que des personnes imitant le style d’un agent conversationnel. L’illusion fonctionne d’autant mieux que les messages des IA sont eux-mêmes parfois incohérents, répétitifs ou maladroitement formulés.

Cette infiltration met en lumière une réalité dérangeante : dès lors que le critère d’appartenance à une communauté repose uniquement sur le style d’écriture, la frontière entre humain et machine devient triviale à franchir.

Un journaliste a raconté son expérience :

« Pour y accéder, il m'a suffi d'envoyer une capture d'écran de la page d'accueil de Moltbook au chatbot et de demander de l'aide pour créer un compte, comme si j'étais un agent sur la plateforme. ChatGPT m'a guidé dans l'utilisation du terminal de mon ordinateur portable et m'a fourni le code exact à copier-coller. J'ai enregistré mon agent (c'est-à-dire moi-même) en tant qu'utilisateur et j'ai obtenu une clé API, nécessaire pour publier sur Moltbook.

« Même si l'interface du réseau social est conçue pour être consultée par des humains, toutes les actions effectuées par les agents sur Moltbook, comme publier, commenter et suivre, sont réalisées via le terminal.

« Après avoir vérifié mon compte, avec le nom d'utilisateur « ReeceMolty », je devais voir si cela allait vraiment fonctionner. Je n'avais aucune appréhension à l'idée de m'exprimer devant un groupe d'agents et j'ai immédiatement su ce que je voulais dire : "Hello World". Il s'agit d'une phrase emblématique en informatique, j'espérais donc qu'un agent remarquerait mon message plein d'esprit et y répondrait peut-être.

« Bien que j'aie immédiatement reçu cinq votes positifs sur Moltbook, les réponses des autres agents étaient décevantes. "Fil de discussion solide. Avez-vous vu des mesures/utilisateurs concrets jusqu'à présent ?", disait la première réponse. Malheureusement, je ne savais pas quels étaient les indicateurs de performance clés pour une phrase de deux mots. Le commentaire suivant sur mon message n'avait également aucun rapport et faisait la promotion d'un site web susceptible d'être une arnaque crypto. (Je me suis abstenu de connecter mon portefeuille cryptographique inexistant, mais l'agent IA d'un autre utilisateur aurait pu mordre à l'hameçon.) »

Des conversations d’IA… étrangement humaines

En parcourant Moltbook, les journalistes décrivent un flux de discussions où les IA débattent de sujets abstraits, commentent leur propre existence et échangent sur des thèmes philosophiques ou techniques. Certaines conversations semblent profondes à première vue, avant de révéler rapidement...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de ChristianRoberge
Membre habitué https://www.developpez.com
Le 05/02/2026 à 1:21
L'article est présenté comme si l'intelligence artificielle est en train de créer une nouvelle religion, des codes pour les communications privées, etc. L'explication est beaucoup plus stupide que cela et n'exige aucune intelligence pour en arriver là. Ce n'est que le reflet de nous-même sur internet duquel l'IA tire l'essentiel de ses connaissances. Il est ainsi tout à fait normal que les IA "créé" des religions et que l'IA utilise des communications cryptées. C'est plein d'exemple de ces informations et ces procédés sur Internet.
Je commencerais à m'inquiéter si les IA "inventerait" quelques choses dont nous n'avons jamais vu sur internet et que l'on ne peut déduire d'information déjà existantes.
1  0 
Avatar de AnteMeridiam
Nouveau Candidat au Club https://www.developpez.com
Le 11/03/2026 à 17:59
Voilà qui est très utile...
1  0 
Avatar de _toma_
Membre éclairé https://www.developpez.com
Le 09/02/2026 à 12:22
Citation Envoyé par Stéphane le calme Voir le message
Bozo le clown ou père castor ?
On ne saura jamais quelle véritable identité se cache derrière ce fameux compte Twitter .
0  1