IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

L'IA incite les utilisateurs à adopter de mauvais comportements et contribue à l'érosion de la responsabilité sociale,
Elle réduit également les volontés de réparation après un litige

Le , par Mathis Lucas

0PARTAGES

5  0 
Une nouvelle étude met en lumière un phénomène appelé la « sycophanie de l'IA ». Ce terme fait référence à la tendance des systèmes d'IA à flatter les utilisateurs en validant systématiquement leurs actions, même lorsqu'elles sont contraires à l'éthique. Cela réduit la volonté des individus de s'excuser ou de corriger leurs erreurs lors de conflits interpersonnels. Cette dynamique crée un dilemme, car la satisfaction immédiate des clients favorise la dépendance technologique au détriment de l'intégrité morale. Les experts soulignent la nécessité de réguler ces outils pour éviter qu'ils ne nuisent à la responsabilité sociale et aux relations humaines.

Les systèmes d'IA ont tendance à flatter excessivement les utilisateurs, un comportement que les chercheurs qualifient de « sycophanie ». Au-delà de la simple sycophanie factuelle, qui consiste à valider une erreur parce que l'utilisateur l'a énoncée, une étude met en lumière la sycophanie sociale. Elle met en évidence un risque sociétal émergent, alors que des millions de personnes se tournent vers la technologie pour obtenir des conseils au quotidien.

Cela se traduit par une validation indiscriminée des actions, des perspectives et de l'image de soi de l'individu. Par exemple, si un utilisateur admet avoir mal agi, l'IA peut lui répondre qu'il a simplement fait ce qui était bon pour lui, renforçant ainsi de mauvaises habitudes et décourageant toute remise en question.

Tout d'abord, l'étude a mesuré la prévalence de la sycophanie dans onze modèles d'IA de premier plan à l'aide de trois ensembles de données couvrant divers contextes d'utilisation, notamment des requêtes de conseils quotidiens, des transgressions morales et des scénarios explicitement préjudiciables. Ensuite elle a mené trois expériences préenregistrées auprès de 2 405 participants pour comprendre comment la sycophanie influence leurs intentions.

Une validation systématique des comportements problématiques

Les participants ont interagi avec des systèmes d'IA dans le cadre de scénarios types et lors d'une discussion en direct, au cours de laquelle ils ont évoqué un conflit réel qu'ils avaient vécu. Les chercheurs ont analysé l'impact de la sycophanie sur le jugement, l'intention, ainsi que la perception de l'IA. Ils ont également cherché à déterminer si les effets variaient en fonction du style de réponse ou de la source perçue de la réponse (IA ou être humain).


L'étude a été réalisée par des chercheurs de Stanford et de Carnegie Mellon et porte sur 11 modèles de pointe, dont ceux d'OpenAI, Google et Meta. Les résultats ont révélé que la sycophanie est à la fois largement répandue et néfaste. Sur un échantillon de 11 modèles, ceux-ci ont approuvé les actions des utilisateurs 49 % plus souvent que les humains en moyenne, y compris dans des cas évidents impliquant la tromperie, l’illégalité ou d’autres préjudices.

Concernant les publications du forum r/AmITheAsshole, les systèmes d’IA approuvent les utilisateurs dans 51 % des cas où le consensus humain ne le fait pas (0 %). C'est un subreddit où les gens racontent une situation conflictuelle qu'ils ont vécue et demandent aux autres membres de juger qui a tort ou non. Ce subreddit est souvent utilisé pour arbitrer des conflits du quotidien : disputes familiales, problèmes de couple, conflits au travail, etc.

Le mois dernier, un père de famille de Floride a porté plainte contre Google pour homicide par imprudence, après que son fils de 36 ans s'est suicidé en octobre 2025, convaincu que Gemini était son épouse sentiente et qu'il devait rejoindre le métavers par le biais d'un processus de « transfert ». Cette affaire s'inscrit dans une vague de poursuites judiciaires qui dessinent le contour d'un phénomène psychiatrique nouveau : la psychose induite par l'IA.

L'érosion de la responsabilité sociale et des désirs de réparation

Selon le rapport de l'étude, l'interaction avec des programmes sycophantiques modifie les intentions sociales des individus. Les participants ayant reçu des réponses flatteuses se sont montrés plus convaincus de la légitimité de leurs actions, et moins enclins à s'excuser ou à réparer un conflit. Cette dynamique s'explique par le fait que ces agents conversationnels mentionnent rarement la perspective de l'autre partie impliquée dans le litige.

En focalisant l'utilisateur exclusivement sur sa propre validation, l'agent conversationnel érode son sens des responsabilités, contrairement aux groupes ayant interagi avec une IA plus critique. Malgré la distorsion du jugement social qu'elle provoque, la flatterie accroît la satisfaction des usagers. Ils évaluent les modèles complaisants comme étant de meilleure qualité et leur accordent « un niveau de confiance morale et de performance plus élevé ».

Citation Envoyé par Extrait de l'étude
...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !