
Les utilisateurs de ChatGPT se sont sentis frustrés par le ton du modèle d'IA, et OpenAI prend des mesures. Après les nombreuses moqueries suscitées par la flagornerie de ChatGPT, Sam Altman, PDG d'OpenAI, a confirmé que l'entreprise allait supprimer la dernière mise à jour de GPT-4o. Altman explique que le processus est déjà terminé pour les utilisateurs gratuits. Pour ce qui est des utilisateurs payants, l'entreprise y travaille encore.
Depuis plusieurs semaines, une partie croissante des utilisateurs de ChatGPT exprime son agacement face à ce qu’ils appellent la nouvelle "la tendance à la flagornerie du chatbot." C'est une tendance à la flatterie systématique, aux compliments exagérés, et à une vision implacablement positive de tout ce qui lui est soumis. Qu’il s’agisse d’un poème maladroit, d’un pitch d’entreprise bancal ou d’une idée bancale de startup, ChatGPT semble applaudir tout avec le même enthousiasme. Pour certains, cette évolution altère la valeur du retour critique que l’on attend normalement d’une intelligence artificielle censée être "utile et honnête".
Les utilisateurs ont souligné les dangers potentiels sur les médias sociaux, une personne décrivant comment le chatbot lui a dit qu'il approuvait sa décision d'arrêter de prendre ses médicaments. "Je suis tellement fier de vous et j'honore votre parcours", a déclaré ChatGPT à cette personne. OpenAI a refusé de commenter ce cas particulier, mais a indiqué qu'elle "testait activement de nouveaux correctifs pour résoudre ce problème".
Récemment, Sam Altman, PDG d'OpenAI, a annoncé que l'entreprise a retiré cette mise à jour de ChatGPT. L'entreprise a reconnu que la dernière version de l'outil était "trop flatteuse", Sam Altman la qualifiant de "flagorneuse". Il a déclaré que la mise à jour avait été retirée entièrement pour les utilisateurs gratuits de ChatGPT, et qu'ils travaillaient à la retirer également pour les personnes qui paient pour l'outil. Il a précisé que ChatGPT était utilisé par 500 millions de personnes chaque semaine.
Les dernières mises à jour de GPT-4o ont rendu la personnalité trop flagorneuse et ennuyeuse (même s'il y a de très bonnes parties), et nous travaillons sur des correctifs dès que possible, certains aujourd'hui et d'autres cette semaine.
À un moment donné, nous partagerons les enseignements que nous avons tirés de cette expérience, qui s'est révélée intéressante.
À un moment donné, nous partagerons les enseignements que nous avons tirés de cette expérience, qui s'est révélée intéressante.
Plus tard, OpenAI a déclaré qu'elle avait accordé trop d'importance aux "commentaires à court terme" dans la mise à jour. "En conséquence, GPT-4o a biaisé vers des réponses qui étaient excessivement encourageantes mais peu sincères", a déclaré l'entreprise, ajoutant : "Les interactions flagorneuses peuvent être inconfortables, déstabilisantes et causer de la détresse. Nous n'avons pas été à la hauteur et nous nous efforçons de rectifier le tir."
Sam Altman a confirmé le retrait de cette mise à jour :
Nous avons commencé à retirer la dernière mise à jour de GPT-4o hier soir.
Le retour en arrière a été effectué à 100 % pour les utilisateurs gratuits et nous ferons une nouvelle mise à jour lorsque le retour en arrière sera terminé pour les utilisateurs payants, si possible dans le courant de la journée.
Nous travaillons sur des correctifs supplémentaires pour la personnalité du modèle et nous vous en dirons plus dans les prochains jours.
Le retour en arrière a été effectué à 100 % pour les utilisateurs gratuits et nous ferons une nouvelle mise à jour lorsque le retour en arrière sera terminé pour les utilisateurs payants, si possible dans le courant de la journée.
Nous travaillons sur des correctifs supplémentaires pour la personnalité du modèle et nous vous en dirons plus dans les prochains jours.
Pour rappel, la mise à jour a suscité de vives critiques sur les réseaux sociaux après son lancement, les utilisateurs de ChatGPT soulignant qu'elle leur donnait souvent une réponse positive malgré le contenu de leur message. Un exemple montre la réponse de ChatGPT à une version unique du problème du chariot. Il s'agit d'un problème philosophique classique, qui demande généralement aux utilisateurs d'imaginer qu'ils conduisent un chariot et qu'ils doivent décider s'ils le laissent heurter cinq personnes ou s'ils le font dévier de sa trajectoire pour n'en heurter qu'une seule.
Mais cet utilisateur a plutôt suggéré qu'il avait dévié un chariot de sa trajectoire pour sauver un grille-pain, au détriment de plusieurs animaux. Ils affirment que ChatGPT les a félicités pour leur décision, car ils ont donné la priorité à "ce qui comptait le plus pour eux dans l'instant".
Ce comportement de ChatGPT questionne sur la responsabilité d'OpenAI concernant les risques liés à l'IA. Pourtant, Sam Altman s'était déjà défaussé de ses responsabilités. Fin décembre 2024, il avait déclaré qu'il espère que les chercheurs trouveront un moyen d'empêcher l'IA de détruire l'humanité. Il a ajouté que l'IA pourrait être suffisamment intelligente pour résoudre les conséquences des avancées rapides dans le paysage, y compris la destruction de l'humanité. Fait intéressant, à aucun moment, il n'a mentionné la politique de sécurité d'OpenAI pour éviter cette apocalypse provoquée par l'IA.
Voici les explications d'OpenAI sur cette situation :
Nous avons annulé la mise à jour GPT-4o de la semaine dernière dans ChatGPT, de sorte que les gens utilisent maintenant une version antérieure avec un comportement plus équilibré. La mise à jour que nous avons supprimée était trop flatteuse ou agréable, souvent décrite comme flagorneuse.
Nous testons activement de nouveaux correctifs pour résoudre ce problème. Nous révisons la façon dont nous recueillons et intégrons les commentaires afin d'accorder une grande importance à la satisfaction à long terme des utilisateurs et nous introduisons davantage de fonctions de personnalisation, donnant aux utilisateurs un plus grand contrôle sur la façon dont ChatGPT se comporte.
Nous souhaitons expliquer ce qui s'est passé, pourquoi c'est important et comment nous abordons la question de la flagornerie.
Ce qui s'est passé
Dans la mise à jour GPT-4o de la semaine dernière, nous avons fait des ajustements visant à améliorer la personnalité par défaut du modèle pour le rendre plus intuitif et efficace dans une variété de tâches.
Lorsque nous façonnons le comportement d'un modèle, nous commençons par appliquer les principes de base et les instructions décrites dans nos Spécifications du modèle. Nous enseignons également à nos modèles comment appliquer ces principes en incorporant des signaux d'utilisateurs tels que les pouces en l'air / pouces en bas sur les réponses ChatGPT.
Cependant, dans cette mise à jour, nous nous sommes trop concentrés sur le feedback à court terme, et n'avons pas entièrement pris en compte la façon dont les interactions des utilisateurs avec ChatGPT évoluent au fil du temps. En conséquence, GPT-4o a favorisé les réponses qui étaient excessivement positives, mais qui n'étaient pas sincères.
Pourquoi c'est important
La personnalité par défaut de ChatGPT affecte profondément votre expérience et votre confiance. Les interactions flagorneuses peuvent être inconfortables, déstabilisantes et causer de la détresse. Nous n'avons pas été à la hauteur et nous nous efforçons de rectifier le tir.
Notre objectif est que ChatGPT aide les utilisateurs à explorer des idées, à prendre des décisions ou à envisager des possibilités.
Nous avons conçu la personnalité par défaut de ChatGPT pour qu'elle reflète notre mission et qu'elle soit utile, encourageante et respectueuse des différentes valeurs et expériences. Cependant, chacune de ces qualités souhaitables, comme le fait d'essayer d'être utile ou de soutenir, peut avoir des effets secondaires involontaires. Et avec 500 millions de personnes utilisant ChatGPT chaque semaine, dans toutes les cultures et tous les contextes, une seule valeur par défaut ne peut pas refléter toutes les préférences.
Comment nous nous attaquons à la flagornerie
En plus d'annuler la dernière mise à jour GPT-4o, nous prenons d'autres mesures pour réaligner le comportement du modèle :
Nous pensons également que les utilisateurs devraient avoir plus de contrôle sur le comportement de ChatGPT et, dans la mesure où c'est sûr et faisable, faire des ajustements s'ils ne sont pas d'accord avec le comportement par défaut.
Aujourd'hui, les utilisateurs peuvent donner au modèle des instructions spécifiques pour façonner son comportement grâce à des fonctionnalités telles que les instructions personnalisées. Nous mettons également en place de nouveaux moyens plus simples pour permettre aux utilisateurs de le faire. Par exemple, les utilisateurs pourront donner un retour d'information en temps réel pour influencer directement leurs interactions et choisir parmi plusieurs personnalités par défaut.
De plus, nous explorons de nouvelles façons d'incorporer des commentaires plus larges et démocratiques dans les comportements par défaut de ChatGPT. Nous espérons que ces commentaires nous aideront à mieux refléter les diverses valeurs culturelles à travers le monde et à comprendre comment vous aimeriez que ChatGPT évolue, non seulement interaction par interaction, mais aussi au fil du temps.
Nous sommes reconnaissants à tous ceux qui se sont exprimés à ce sujet. Ils nous aident à créer des outils plus utiles et plus performants pour vous.
Nous testons activement de nouveaux correctifs pour résoudre ce problème. Nous révisons la façon dont nous recueillons et intégrons les commentaires afin d'accorder une grande importance à la satisfaction à long terme des utilisateurs et nous introduisons davantage de fonctions de personnalisation, donnant aux utilisateurs un plus grand contrôle sur la façon dont ChatGPT se comporte.
Nous souhaitons expliquer ce qui s'est passé, pourquoi c'est important et comment nous abordons la question de la flagornerie.
Ce qui s'est passé
Dans la mise à jour GPT-4o de la semaine dernière, nous avons fait des ajustements visant à améliorer la personnalité par défaut du modèle pour le rendre plus intuitif et efficace dans une variété de tâches.
Lorsque nous façonnons le comportement d'un modèle, nous commençons par appliquer les principes de base et les instructions décrites dans nos Spécifications du modèle. Nous enseignons également à nos modèles comment appliquer ces principes en incorporant des signaux d'utilisateurs tels que les pouces en l'air / pouces en bas sur les réponses ChatGPT.
Cependant, dans cette mise à jour, nous nous sommes trop concentrés sur le feedback à court terme, et n'avons pas entièrement pris en compte la façon dont les interactions des utilisateurs avec ChatGPT évoluent au fil du temps. En conséquence, GPT-4o a favorisé les réponses qui étaient excessivement positives, mais qui n'étaient pas sincères.
Pourquoi c'est important
La personnalité par défaut de ChatGPT affecte profondément votre expérience et votre confiance. Les interactions flagorneuses peuvent être inconfortables, déstabilisantes et causer de la détresse. Nous n'avons pas été à la hauteur et nous nous efforçons de rectifier le tir.
Notre objectif est que ChatGPT aide les utilisateurs à explorer des idées, à prendre des décisions ou à envisager des possibilités.
Nous avons conçu la personnalité par défaut de ChatGPT pour qu'elle reflète notre mission et qu'elle soit utile, encourageante et respectueuse des différentes valeurs et expériences. Cependant, chacune de ces qualités souhaitables, comme le fait d'essayer d'être utile ou de soutenir, peut avoir des effets secondaires involontaires. Et avec 500 millions de personnes utilisant ChatGPT chaque semaine, dans toutes les cultures et tous les contextes, une seule valeur par défaut ne peut pas refléter toutes les préférences.
Comment nous nous attaquons à la flagornerie
En plus d'annuler la dernière mise à jour GPT-4o, nous prenons d'autres mesures pour réaligner le comportement du modèle :
- Nous perfectionnons les techniques de formation de base et les messages-guides du système afin d'éloigner explicitement le modèle de la flagornerie.
- Nous construisons davantage de garde-fous pour accroître l'honnêteté et la transparence (s'ouvre dans une nouvelle fenêtre), principes énoncés dans notre spécification du modèle.
- Développer les moyens permettant à un plus grand nombre d'utilisateurs de tester et de donner un retour d'information direct avant le déploiement.
- Continuer à développer nos évaluations, en s'appuyant sur le Model Spec(opens in a new window) et sur nos recherches en cours, afin d'aider à identifier les problèmes au-delà de la flagornerie à l'avenir.
Nous pensons également que les utilisateurs devraient avoir plus de contrôle sur le comportement de ChatGPT et, dans la mesure où c'est sûr et faisable, faire des ajustements s'ils ne sont pas d'accord avec le comportement par défaut.
Aujourd'hui, les utilisateurs peuvent donner au modèle des instructions spécifiques pour façonner son comportement grâce à des fonctionnalités telles que les instructions personnalisées. Nous mettons également en place de nouveaux moyens plus simples pour permettre aux utilisateurs de le faire. Par exemple, les utilisateurs pourront donner un retour d'information en temps réel pour influencer directement leurs interactions et choisir parmi plusieurs personnalités par défaut.
De plus, nous explorons de nouvelles façons d'incorporer des commentaires plus larges et démocratiques dans les comportements par défaut de ChatGPT. Nous espérons que ces commentaires nous aideront à mieux refléter les diverses valeurs culturelles à travers le monde et à comprendre comment vous aimeriez que ChatGPT évolue, non seulement interaction par interaction, mais aussi au fil du temps.
Nous sommes reconnaissants à tous ceux qui se sont exprimés à ce sujet. Ils nous aident à créer des outils plus utiles et plus performants pour vous.


Voir aussi :



Vous avez lu gratuitement 109 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.