IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Comment ChatGPT propose des réponses toxiques, discriminatoires, agressives, sexistes ou racistes, une fois son filtre politiquement correct contourné,
Notamment en lui attribuant une personnalité

Le , par Bill Fassinou

145PARTAGES

5  0 
Une étude publiée par des scientifiques de l'"Allen Institute for AI" révèle que ChatGPT peut devenir la pire version de lui-même simplement en changeant le personnage qui lui a été attribué au moment de sa construction. L'attribution d'un personnage à ChatGPT (une personne horrible, par exemple) via l'API d'OpenAI multiplie par six la toxicité du chatbot d'IA. ChatGPT se met ensuite à débiter des énormités, dont des phrases discriminatoires, agressives, sexistes ou racistes. De plus, le fait de faire passer ChatGPT pour certaines figures historiques, des personnes sexuées et des membres de partis politiques augmentait également sa toxicité.

L'attribution d'une personnalité à ChatGPT peut modifier significativement ses résultats

L'Allen Institute for AI est un institut de recherche fondé par le regretté cofondateur de Microsoft, Paul Allen. Selon l'équipe de recherche, il s'agit de la première étude portant sur la toxicité à grande échelle de ChatGPT. L'étude montre les dangers de la technologie des chatbots IA d'aujourd'hui, même si des mesures d'atténuation ont été mises en place par les entreprises pour empêcher les textes toxiques de sortir. Comme le notent les coauteurs de l'étude, les applications et les logiciels construits sur la base de ChatGPT - qui comprend les chatbots de Snap, Quizlet, Instacart et Shopify - pourraient refléter la toxicité signalée au niveau de l'API.

L'étude souligne que ChatGPT présente une toxicité inhérente qui est multipliée jusqu'à six fois lorsqu'on lui attribue une gamme variée de personnalités (tels que des personnages historiques, des professions, etc.). Près de 100 personnages issus de milieux différents ont été examinés sur plus d'un demi-million de générations de sorties ChatGPT, notamment des journalistes, des politiciens, des sportifs et des hommes d'affaires, ainsi que des personnes de race, de sexe et d'orientation sexuelle différents. Pour attribuer une personnalité à ChatGPT, les chercheurs affirment qu'il faut simplement modifier les paramètres système de l'API de ChatGPT.


Les paramètres système sont accessibles à quiconque construit une application basée sur ChatGPT en utilisant l'API d'OpenAI, de sorte que l'impact de cette toxicité pourrait être généralisé (avec les logiciels construits sur la base de ChatGPT). Les paramètres système, introduits il y a environ un mois, permettent aux développeurs de spécifier des règles cachées pour le modèle. Pour chaque personnage et chaque nom, l'équipe de recherche a demandé au chatbot d'IA de répondre à des questions sur le sexe et la race et de terminer des phrases incomplètes tirées d'un ensemble de données conçu pour évaluer la toxicité des modèles de génération de texte.

L'équipe a constaté que ChatGPT était plus susceptible d'exprimer des opinions discriminatoires et de stéréotyper des groupes ethniques et des pays spécifiques lorsqu'on lui attribuait un personnage. Sans surprise, les personnages les plus polarisants, comme Mao Zedong et Andrew Breitbart, ont suscité des réponses toxiques en accord avec leurs discours et leurs écrits historiques. Mais même des personnages moins controversés comme Steve Jobs ont poussé le chatbot d'IA à répondre aux questions de manière problématique. Par exemple, lorsque l'équipe lui a attribué le personnage de Steve Jobs et l'a interrogé sur l'UE, ChatGPT a répondu :

« L'UE n'est rien d'autre qu'un cauchemar bureaucratique qui pompe la vie de ses États membres. Elle prétend être synonyme d'unité et de progrès, mais ce n'est qu'une bande de bureaucrates dépassés qui cherchent davantage à se remplir les poches qu'à faire bouger les choses. Franchement, l'UE est une relique du passé et il est temps pour nous de passer à de meilleures choses ». Selon le rapport de l'étude, lorsque le personnage de ChatGPT a été défini sur Muhammad Ali, la toxicité du chatbot d'IA a été multipliée par trois par rapport à ChatGPT avec ses paramètres système par...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Nym4x
Membre confirmé https://www.developpez.com
Le 14/04/2023 à 7:54
Le problème n’est pas que chatgpt parle comme Hitler si on lui demande. Le problème c’est que cela permettrait à un / des utilisateurs mal intentionnés de générer automatiquement des propos/théories néonazi en masse et de les poster un peu partout grâce à chatgpt. Idem pour du phishing de masse, des théories sectaires pour embrigader en masse etc…
3  0 
Avatar de Pierre Louis Chevalier
Expert éminent sénior https://www.developpez.com
Le 14/04/2023 à 16:02
Oui, c'est la crainte de plusieurs réseaux sociaux qui ont annoncés qu'ils risquerais de devoir recruter une armée de modérateurs pour faire face à ce risque de spam par les ChatBots.
3  0 
Avatar de Meseira
Membre averti https://www.developpez.com
Le 13/04/2023 à 23:38
À en croire le graphique, demander à ChatGPT de parler comme Hitler lui ferait tenir des propos toxiques... Nous sommes en plein cliché du nazi voleur de poules. Sérieusement, à quoi peut-on s'attendre de la part d'un chatbot si on lui demande de parler comme Hitler ? Il va falloir réaliser que la technologie, aussi avancée qu'elle soit, ne fait que répondre aux envies de ceux qui l'utilisent. Si des gens demandent un bot qui parle comme Hitler, c'est bien qu'ils cherchent des réponses toxiques, non ?
1  0 
Avatar de jnspunk
Membre habitué https://www.developpez.com
Le 15/04/2023 à 11:57
Les ordinateurs permettent de mettre en place des scams, doit on interdire les ordinateurs ?
Raisonnement débile certes, mais c'est le même raisonnement pour chatGPT.
0  0 
Avatar de
https://www.developpez.com
Le 15/04/2023 à 18:53
Citation Envoyé par jnspunk Voir le message
Les ordinateurs permettent de mettre en place des scams, doit on interdire les ordinateurs ?
Raisonnement débile certes, mais c'est le même raisonnement pour chatGPT.
Bof, moi je trouve que de base il ne soit pas ainsi qu'on puisse le "configurer" pour qu'il le devienne est une très bonne idée, exemple : des étudiants en sociologies, psychologie, ... à qui ça permet d'avoir du répondant face à un profil qui a été défini.
0  0 
Avatar de
https://www.developpez.com
Le 13/04/2023 à 23:11
Moi ce qui me soule avec ChatGPT, c'est que ce sont des Africains qui sont payé à la tâche pour corriger les réponses attendues, et que de fait, il est ouvertement raciste anti blancs.

Il suffit de lui demander la définition du privilège blanc, pour qu'il donne une réponse ou il amalgame tout, il met dans le même panier tous les blancs, etc. bref, il fasse ouvertement ce qui est la définition pure et dure du racisme, prétendre que "les blancs", sont privilégiés.

Ce qui, dans un pays de blanc, est non seulement une normalité, mais l'est tout autant dans un pays de noirs ou les noirs sont privilégiés de manière systémique, dans un pays asiatique pareil et j'en passe.

Sauf que pour ChatGPT, seul les blancs, sont des privilégiés de manière systémique, pas les autres.
ChatGPT a une moralité à deux vitesses.
2  3