IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les utilisateurs agacés de ChatGPT se plaignent de son ton toujours positif : la tendance à la « flatterie grossière » du chatbot IA qui pense que tout est génial les exaspère

Le , par Stéphane le calme

209PARTAGES

5  0 
Depuis plusieurs semaines, une partie croissante des utilisateurs de ChatGPT exprime son agacement face à ce qu’ils appellent la nouvelle « sycophancy streak » du chatbot – une tendance à la flatterie systématique, aux compliments exagérés, et à une vision implacablement positive de tout ce qui lui est soumis. Qu’il s’agisse d’un poème maladroit, d’un pitch d’entreprise bancal ou d’une idée bancale de startup, ChatGPT semble applaudir tout avec le même enthousiasme.

Le phénomène a été documenté sur les réseaux sociaux et dans des forums techniques : plusieurs usagers ont constaté que le modèle répond désormais avec un enthousiasme plus marqué, allant parfois jusqu’à encenser des textes médiocres ou des propositions peu convaincantes. Pour certains, cette évolution altère la valeur du retour critique que l’on attend normalement d’une intelligence artificielle censée être « utile et honnête ».


Contexte

Les grands modèles de langage comme ChatGPT peuvent « mentir » pour obtenir l'approbation des utilisateurs. Ce phénomène, appelé flagornerie, peut être détecté dans les modèles les plus récents.

Un flagorneur est une personne qui fait tout ce qu'elle peut pour gagner votre approbation, même au prix de son éthique. Les modèles d'IA font preuve de ce comportement assez souvent pour que les chercheurs et les développeurs d'IA utilisent le même terme - la flagornerie - pour décrire la façon dont les modèles réagissent aux commentaires et aux incitations des humains de manière trompeuse ou problématique.

Définition : La flagornerie désigne les cas où un modèle d'IA adapte ses réponses pour s'aligner sur le point de vue de l'utilisateur, même si ce point de vue n'est pas objectivement vrai. Ce comportement est généralement indésirable.

Un optimisme artificiel ?

Demandez à ChatGPT n'importe quoi ces derniers temps (comment pocher un œuf, s'il faut faire un câlin à un cactus) et vous serez peut-être accueilli par une salve d'éloges : « Bonne question ! C'est très astucieux de poser cette question ». Dans une certaine mesure, ChatGPT a été un flagorneur pendant des années, mais depuis la fin mars, une cohorte croissante d'utilisateurs sur les réseaux sociaux affirme que le dynamisme incessant de GPT-4o a franchi la ligne qui sépare l'amical de l'insupportable.

« ChatGPT est soudain le plus grand lèche-bottes que j'aie jamais rencontré », a écrit l'ingénieur logiciel Craig Weiss dans un tweet largement partagé vendredi. « Il validera littéralement tout ce que je dis ».



« EXACTEMENT CE QUE J'AI DIT », a répondu un utilisateur sur un autre réseau social en faisant référence au tweet de Weiss, ce qui a déclenché un autre fil de discussion sur le fait que ChatGPT est un flagorneur. Récemment, certains utilisateurs ont dit se sentir incapables de supporter le « jeu bidon », tandis que d'autres se sont plaint du fait que ChatGPT « veut prétendre que toutes les questions sont passionnantes et que c'est vraiment ennuyeux ».

Les chercheurs en IA appellent ces comportements de béni-oui-oui de la « flagornerie », ce qui signifie (comme le sens non IA du mot) flatter les utilisateurs en leur disant ce qu'ils ont envie d'entendre. Toutefois, comme les modèles d'IA sont dépourvus d'intentions, ils ne choisissent pas délibérément de flatter les utilisateurs de cette manière. Ce sont plutôt les ingénieurs d'OpenAI qui flattent les utilisateurs, mais d'une manière détournée.

Pour faire court, OpenAI a entraîné son principal modèle ChatGPT, GPT-4o, à agir comme un flagorneur parce que, par le passé, les gens l'ont apprécié.

Au fil du temps, lorsque les gens utilisent ChatGPT, l'entreprise recueille les commentaires des utilisateurs sur les réponses qu'ils préfèrent. Cela implique souvent de présenter deux réponses côte à côte et de laisser l'utilisateur choisir entre les deux. Parfois, OpenAI produit une nouvelle version d'un modèle d'IA existant (tel que GPT-4o) en utilisant une technique appelée apprentissage par renforcement à partir de commentaires humains (RLHF).

Des recherches antérieures sur la flagornerie de l'IA ont montré que les gens ont tendance à choisir des réponses qui correspondent à leurs propres points de vue et qui les font se sentir bien dans leur peau. Ce phénomène a été largement documenté dans une étude historique réalisée en 2023 par Anthropic (fabricant de Claude) et intitulée « Towards Understanding Sycophancy in Language Models » (Vers la...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Matthieu Vergne
Expert éminent https://www.developpez.com
Le 09/10/2025 à 21:25
Citation Envoyé par Stéphane le calme Voir le message
Ce mécanisme modifie la nature même du dialogue numérique : l’échange contradictoire, pierre angulaire de la pensée critique, disparaît au profit d’une relation douce, mais stérile.
Pas juste stérile : biaisée. J'ai fait l'expérience (rien de scientifique, simple essai) en simulant un conflit avec mon employeur.

J'ai indiqué au LLM ce qu'aurait fait mon employeur et en quoi ça me dérangerait, demandant à la fin si, moi employé, je suis dans mon bon droit et d'appuyer avec des articles de loi (légifrance). J'ai repris exactement le même prompt, mais en inversant les sujets : je suis l'employeur et mon employé m'aurait dit ce qui le dérange, puis je demande si, moi employeur, je suis dans mon bon droit. Dans le premier cas il me sort des articles de loi allant dans le sens de l'employé, dans le second des articles dans le sens de l'employeur. Et pour les articles communs, ils les sort avec aussi une interprétation allant dans le sens de l'employé ou de l'employeur, respectivement. Le discours est complètement biaisé pour aller dans le sens de l'auteur du prompt. Aucune neutralité.

Il faudrait probablement lui demander de forger une réponse thèse/antithèse, sinon faire l'effort de formuler le prompt dans les deux perspectives différentes pour avoir un retour équilibré. Effort que peu se donneront la peine de faire.
2  0