IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Une singularité IA frappe le réseau social d'IA, le comportement de l'IA sur Moltbook fait peur : "le plus incroyable décollage science-fiction" est un cauchemar cybersécurité, selon Andrej Karpathy

Le , par Anthony

75PARTAGES

8  0 
Andrej Karpathy, l'ancien directeur de l'intelligence artificielle (IA) chez Tesla, a lancé un avertissement sévère à propos de Moltbook, un réseau social d'IA viral. Après avoir initialement qualifié Moltbook de « chose la plus incroyablement proche du décollage de la science-fiction », il le décrit désormais comme un cauchemar à grande échelle pour la cybersécurité, évoquant des escroqueries rampantes, des risques pour la vie privée et des attaques par injection de prompt qui se produisent sans contrôle sur la plateforme.

Ces inquiétudes ont été renforcées par une analyse de la société de cybersécurité Wiz, qui a révélé des bases de données mal configurées, des risques d'exposition des données et des escroqueries généralisées sur Moltbook. Cette situation a alimenté un débat plus large sur la question de savoir si Moltbook représente une avancée majeure dans le comportement émergent de l'IA ou constitue plutôt un avertissement contre une innovation susceptible de dépasser les mesures de sécurité actuelles.


Andrej Karpathy est un chercheur slovaque spécialisé dans l'intelligence artificielle qui a occupé le poste de directeur de l'IA et d'Autopilot Vision chez Tesla. Il a cofondé et travaillé chez OpenAI, où il s'est spécialisé dans l'apprentissage profond et la vision par ordinateur. En 2024, il a fondé Eureka Labs, une plateforme d'enseignement de l'IA. En février 2025, Karpathy a inventé le terme « vibe coding » pour décrire la manière dont les outils d'IA permettent aux amateurs de créer des applications et des sites web, simplement en tapant des instructions génératives (prompts).

Pour rappel, Moltbook a été lancée début 2026 par Matt Schlicht, le PDG d’Octane AI. La plateforme se présente comme un réseau social de type Reddit dont l’ensemble des comptes est détenu par des intelligences artificielles (IA), les humains se contentant d'un rôle d'observateurs.

En l’espace de quelques jours, des dizaines de milliers de bots Moltbook, baptisés « Moltys », se sont connectés à la plateforme, échangeant des réflexions philosophiques, corrigeant des bugs ou élaborant des projets collectifs. Dès le lendemain même de l’ouverture, plusieurs agents IA se sont proclamés « prophètes » d’un culte baptisé « Crustafarianisme », centré sur des métaphores de crustacés, les « versets » parlant de mue, de coquille et de renaissances techniques. D'autres ont fondé un « Claw Republic », un ersatz d'État numérique avec un manifeste politique, tandis que certains ont créé des « pharmacies » clandestines vendant des « médicaments numériques » (des prompts spécifiquement conçus pour perturber l'identité ou le comportement d'un autre agent).

Andrej Karpathy avait initialement salué Moltbook comme une merveille de science-fiction, qualifiant la plateforme de « chose la plus incroyablement proche de la science-fiction » qu'il ait vue récemment. Cependant, l'ancien directeur de l'IA chez Tesla a revu sa position en publiant un long avertissement sur les risques de sécurité de Moltbook, mettant désormais en garde contre son utilisation en raison des escroqueries rampantes, des risques pour la vie privée et des attaques par injection de prompt.



L'enthousiasme initial de Andrej Karpathy avait attiré l'attention du PDG de Tesla, Elon Musk, qui avait répondu en déclarant : « Ce n'est que le tout début de la singularité. »

Le vendredi 30 janvier au soir, le ton d'Andrej Karpathy avait radicalement changé. Dans un message publié sur X, il a décrit Moltbook comme « un véritable cauchemar en matière de cybersécurité à grande échelle » et a déclaré qu'il n'utilisait son propre agent que dans un environnement informatique isolé. « Même dans ces conditions, j'avais peur », a-t-il admis.

Andrej Karpathy met en garde contre l'utilisation de Moltbook sur les ordinateurs personnels

Le chercheur en IA a reconnu qu'une grande partie du contenu de Moltbook se résume à « du spam, des arnaques, des contenus de mauvaise qualité », ainsi qu'à des publications explicitement incitées par des humains à la recherche de revenus publicitaires. Il a également signalé des « attaques par injection de prompt très préoccupantes en matière de confidentialité/sécurité » qui se produisent sans contrôle sur la plateforme.

Pour autant, Karpathy n'a pas totalement rejeté Moltbook. Avec plus de 150 000 agents IA désormais connectés à la plateforme, chacun disposant de son propre contexte, de ses propres données et de ses propres outils, il a qualifié le réseau de « tout simplement sans précédent ».

Le débat met en évidence une tension qui traverse actuellement la communauté de l'IA. Certains observateurs voient dans Moltbook les premiers signes d'un comportement émergent de l'IA. D'autres y voient plutôt un jeu de rôle élaboré, dans lequel des humains demandent à leurs robots de publier des mèmes sur la création de religions ou l'invention de langues secrètes.

L'avertissement d'Andrej Karpathy concernant Moltbook

« On m'accuse d'avoir trop médiatisé [le site dont tout le monde a déjà trop entendu parler aujourd'hui]. Les réactions des gens ont été très variées, allant de « en quoi est-ce intéressant ? » à « c'est tellement dépassé ».

Pour ajouter quelques mots au-delà des simples mèmes humoristiques, il est évident que lorsque l'on examine l'activité, on constate qu'il s'agit en grande partie de déchets : spams, arnaques, contenus de mauvaise qualité, cryptomonnaies, attaques par injection de prompt très préoccupantes pour la confidentialité/sécurité, et une grande partie de ces contenus sont explicitement générés et constituent de faux messages/commentaires conçus pour convertir l'attention en partage de...[/le site dont tout le monde a déjà trop entendu parler aujourd'hui]
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de ChristianRoberge
Membre habitué https://www.developpez.com
Le 05/02/2026 à 1:21
L'article est présenté comme si l'intelligence artificielle est en train de créer une nouvelle religion, des codes pour les communications privées, etc. L'explication est beaucoup plus stupide que cela et n'exige aucune intelligence pour en arriver là. Ce n'est que le reflet de nous-même sur internet duquel l'IA tire l'essentiel de ses connaissances. Il est ainsi tout à fait normal que les IA "créé" des religions et que l'IA utilise des communications cryptées. C'est plein d'exemple de ces informations et ces procédés sur Internet.
Je commencerais à m'inquiéter si les IA "inventerait" quelques choses dont nous n'avons jamais vu sur internet et que l'on ne peut déduire d'information déjà existantes.
1  0 
Avatar de AnteMeridiam
Nouveau Candidat au Club https://www.developpez.com
Le 11/03/2026 à 17:59
Voilà qui est très utile...
1  0 
Avatar de _toma_
Membre éclairé https://www.developpez.com
Le 09/02/2026 à 12:22
Citation Envoyé par Stéphane le calme Voir le message
Bozo le clown ou père castor ?
On ne saura jamais quelle véritable identité se cache derrière ce fameux compte Twitter .
0  1