Les preuves que les humains parlent désormais dans un dialecte influencé par les chatbots IA se font de plus en plus nombreusessuggérant que l'AI slop s'infiltre dans les recoins de notre cerveau
L'usage massif des chatbots commence à modifier la façon dont les humains parlent et écrivent. C'est ce que suggèrent une étude de l'institut Max Planck et des plaintes de modérateurs de plateformes en ligne. L'étude de l'institut Max Planck rapporte une hausse marquée de certains mots dans des contenus parlés (vidéos, podcasts, etc.), des mots typiques de l’écriture générée par l'IA. Sur les plateformes comme Reddit, des modérateurs de forums signalent un changement inquiétant : des humains qui écrivent (ou parlent) comme une IA. Ces rapports suggèrent que le phénomène n’est plus marginal. L'AI slop s'infiltre-t-il dans les recoins de notre cerveau ?
Des experts tirent la sonnette d'alarme : l'IA influence le langage humain. Les termes utilisés par de grands modèles de langage (LLM) tels que ChatGPT sont de plus en plus courants dans les contenus publiés par les humains en ligne. Une étude publiée en juillet 2025 par des chercheurs du Max Planck Institute for Human Development’s Center for Adaptive Rationality (ARC) affirme : « ce sont désormais les humains qui imite imitent les machines ».
D'après le rapport, des termes comme « delve » (« approfondir »), « realm » (« domaine »), « underscore » (« souligner »), et « meticulous » (« minutieux »), fréquemment employés par des modèles comme ChatGPT, apparaissent de plus en plus souvent dans les podcasts, vidéos YouTube, e-mails et essais.
L’étude a analysé les schémas linguistiques de centaines de milliers d’extraits de médias oraux et a constaté une hausse tangible de ces expressions privilégiées par l’IA. « Nous assistons à une boucle de rétroaction culturelle. Les machines, initialement entraînées à partir de données humaines et présentant leurs propres caractéristiques linguistiques, influencent désormais à leur tour le langage humain », affirme Levin Brinkmann, coauteur de l'étude.
L'équipe de Max Planck a alimenté les modèles GPT avec des millions de pages de contenu et a étudié comment le texte évoluait après avoir été « peaufiné » par l'IA. Elle a ensuite comparé ce langage stylisé avec des conversations et des enregistrements réels datant d'avant et d'après le lancement de ChatGPT. Les résultats de l'étude suggèrent une dépendance croissante à l'égard des communications « aseptisées » par l'IA. Levin Brinkmann note :
« Nous n'imitons pas tout le monde autour de nous de la même manière. Nous copions ceux que nous considérons comme des experts ou des autorités. Il semble que nous voyions de plus en plus les machines jouer ce rôle », a déclaré Brinkmann à Scientific American. Selon les chercheurs de Max Planck, les mots que nous utilisons sont progressivement « GPT-ifiés ». Cela soulève des questions qui dépassent largement le cadre de la linguistique.
Les modérateurs de forums en ligne submergés par l'AI slop
Sur la plateforme communautaire Reddit, certains modérateurs de certains subreddits se plaignent que les publications générées par l'IA ruinent leurs communautés en ligne. Les bénévoles qui consacrent leur temps à modérer les messages sont confrontées à un afflux de contenus générés par l'IA. Certains sont entièrement générés par l'IA, tandis que d'autres utilisateurs utilisent les outils d'IA pour modifier leurs messages et leurs commentaires.
Les méthodes de détection utilisées par les modérateurs se basent sur l'intuition. Mais selon eux, l'une des nouvelles difficultés dans la lutte contre les contenus de mauvaise qualité réside dans le fait que les publications rédigées par des humains sont non seulement parfois réécrites par l'IA, mais également que les modérateurs s'inquiètent désormais du fait que « les humains écrivent comme l'IA ». Selon les témoignages, cela menace la survie du Web.
Les humains deviennent des générateurs d'AI slop en chair et en os, brouillant les pistes de la détection de l'IA au point de la rendre totalement opaque. « L'IA est entraînée à partir des gens, et les gens copient ce qu'ils voient faire par les autres », explique « Cassie », une modératrice de r/AmItheAsshole qui n'a donné que son prénom à Wired. En d'autres termes, selon Cassie, « les gens deviennent plus comme l'IA, et l'IA devient plus comme les gens.
« Reddit va devoir agir, sinon le serpent va finir par se mordre la queue. On en arrive à un point où l'IA alimente l'IA », a déclaré à Wired un modérateur actif sur la plateforme depuis 18 ans, soit la quasi-totalité de son existence. Il considère l'IA comme une menace existentielle potentielle pour la plateforme.
« L'IA épuise tout le monde. Je vois des gens déployer des efforts considérables pour trouver des ressources pour les autres, pour finalement se faire répondre : « Ha, tu t'es fait avoir, tout ça n'est qu'un mensonge » », explique le modérateur de r/AITAH. Dans les subreddits consacrés à l'actualité et à la politique, l'IA favorise de nouvelles façons de diffuser de la désinformation. Selon les experts, l'IA aggrave considérablement les menaces sur le Web.
Le contenu du Web devient moins qualitatif qu'auparavant
L’un des effets les plus inquiétants de la domination croissante de l’IA sur le Web est la détérioration progressive de la qualité du contenu en ligne. Ce phénomène repose sur un effet de boucle : les chatbots produisent du texte en s’appuyant sur de vastes ensembles de données extraites du Web. Jusqu’à récemment, ces données provenaient en grande partie de contenus rédigés par des humains : journalistes, chercheurs, blogueurs, experts de tous horizons.
Aujourd'hui, une portion croissante du contenu en ligne est elle-même générée par d'autres IA. Cela conduit à un problème connu sous le nom de « model collapse » (effondrement du modèle). En résumé, les nouveaux modèles d’IA s’entraînent sur du contenu produit par des modèles de la génération précédente, eux-mêmes formés sur d'autres contenus synthétiques. Ce recyclage progressif appauvrit la diversité, la nuance et l'originalité de l'information.
Les erreurs peuvent s’amplifier à chaque génération, les biais se renforcer, et le contenu devient moins fiable, moins contextualisé et souvent déconnecté de toute vérification humaine ou source primaire identifiable. Ce problème vient s'ajouter à la baisse considérable du trafic des sites Web d'information.
Enfin, si les chatbots d'IA deviennent les principales sources d’information consultées, sans accès direct aux documents originaux, les internautes pourraient progressivement perdre l’habitude de confronter les sources, de lire dans le contexte, ou d’interpréter de façon critique les données. Le Web se transformerait alors en une interface de réponses simplifiées, certes pratiques, mais de plus en plus superficielles. Le Web tel qu'on le connaît pourrait disparaître.
Conclusion
Les humains semblent de plus en plus adopter les éléments de langage employés par les chatbots. Il ne s'agit pas ici de l'IA qui acquiert une conscience. Il s'agit plutôt de nous qui renonçons à notre originalité. Une nouvelle transformation, plus discrète, est en train de s'opérer, non pas celle d'une prise de pouvoir par les robots, mais celle d'une adaptation progressive des humains aux rythmes linguistiques des machines, voire à leur logique morale.
En essayant de rendre les machines plus humaines, nous sommes peut-être en train de nous transformer nous-mêmes en machines. Le phénomène s'empare des plateformes de médias sociaux et épuise les modérateurs de contenus. Pour certains, l'essor de l'IA menace la créativité humaine. « Les gens surestiment les capacités de l'IA générative », a déclaré Rodney Brooks, pionnier de la robotique au MIT et cofondateur de la startup iRobot.
Source : rapport d'étude (PDF)
Et vous ?
Quel est votre avis sur le sujet ?
Selon vous, l'AI slop s'infiltre-t-il dans les recoins de notre cerveau ?Voir aussi
« Les gens surestiment l'IA générative », déclare Rodney Brooks, pionnier de la robotique au MIT. Il rappelle que l'enthousiasme pour l'IA doit être tempéré par une compréhension réaliste de ses capacités
L'IA est en train de tuer le Web. Elle ruine le trafic et le modèle économique des sites Web, tout en transformant la toile en une immense base de contenus recyclés par des machines sans originalité
Pourquoi les mauvais contenus générés par l'IA ou "AI slop" sont-ils si désagréables à lire ? Par Sean Goedecke
Vous avez lu gratuitement 1 177 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.