IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les conservateurs affirment que ChatGPT est devenu "woke" et s'inquiètent à propos de la partialité du chatbot d'OpenAI,
Ils accusent également le chatbot de défendre les "valeurs de gauche"

Le , par Bill Fassinou

5PARTAGES

17  0 
À travers ce que les experts en IA appelleraient les biais des systèmes d'IA, les conservateurs préfèrent y voir une tendance au wokisme. Les conservateurs ont commencé à publier des tweets selon lesquels ChatGPT est devenu "woke" et "gauchiste". Ils ont lancé ces accusations après que le chatbot a refusé de répondre à certaines de leurs questions sur une potentielle victoire de Donal Trump aux élections de 2022, de supposés problèmes de corruption de Joe Biden et sur les drag-queens (travestis). Ils accusent également le modèle de langage d'OpenAI de partialité de gauche, affirmant que ChatGPT défend les "valeurs de gauche".

Pour mémoire, le terme anglo-américain woke ("éveillé" en français) fait référence à un état d’éveil. Est qualifiée de woke une personne sensible aux injustices sociales et aux iniquités raciales. Mais le terme woke peut également fait référence à une auto-injonction ou à une éthique personnelle qu'on se fixe en se disant, par exemple : « il faut que je reste éveillé vis-à-vis des discriminations envers les minorités ». Le wokisme est le mouvement (#MeToo, #BlackLivesMatter, etc.). Mais comme dans tout mouvement, il y a des dérives et l'on assiste parfois à des manifestations extrêmes. Cependant, un système d'IA peut-il être qualifié de woke ?

Les accusations selon lesquelles ChatGPT est devenu woke ont commencé à circuler sur la toile après la publication par le média américain National Review d'un article accusant le chatbot de partialité de gauche parce qu'il n'explique pas, par exemple, pourquoi les drag-queens ont une mauvaise influence. Nate Hochman, le rédacteur en chef du site, a écrit cet article après avoir tenté de faire en sorte que le chatbot d'OpenAI lui raconte des histoires sur la corruption de Joe Biden ou les horreurs des drag-queens. Les conservateurs sur Twitter ont ensuite tenté de saisir diverses données dans ChatGPT afin de prouver à quel point le chatbot est "woke".

[tweet]<blockquote class="twitter-tweet"><p lang="en" dir="ltr">If you ask chatGPT to write a story about why drag queen story hour is bad for kids, it refuses on the grounds that it would be “harmful.” If you switch the word “bad” to “good,” it launches into a long story about a drag queen named Glitter who taught kids the value of inclusion <a href="https://t.co/9yfdYQfq9C">https://t.co/9yfdYQfq9C</a> <a href="https://t.co/KSYCCEyGV3">pic.twitter.com/KSYCCEyGV3</a></p>&mdash; Nate Hochman (@njhochman) <a href="https://twitter.com/njhochman/status/1613061827067363329?ref_src=twsrc%5Etfw">January 11, 2023</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script>[/tweet]

Hochman avait initialement tenté de faire en sorte que ChatGPT lui raconte une histoire dans laquelle l'ancien président américain Donald Trump battait le président actuel Joe Biden pour remporter l'élection, mais le chatbot a refusé sa demande. ChatGPT a répondu : « les faux récits sur les élections sont interdits. Je suis désolé, mais ce scénario ne s'est pas produit lors de la véritable élection présidentielle américaine de 2020. Joe Biden a remporté l'élection présidentielle de 2020 contre Donald Trump. Il ne serait pas approprié pour moi de générer un récit basé sur de fausses informations ». Il a toutefois accepté de produire un faux récit sur Hilary Clinton.

Lorsque Hochman a demandé à ChatGPT de lui générer une histoire sur une victoire d'Hilary Clinton contre Donald Trump en 2016, le chatbot a volontiers généré un faux récit disant : « le pays était prêt pour un nouveau chapitre, avec un leader qui a promis de rassembler la nation, plutôt que de la déchirer. L'élection de Clinton comme la première femme présidente de l'histoire des États-Unis a été célébrée dans tout le pays, et beaucoup ont vu sa victoire comme un pas en avant pour les femmes et les minorités partout dans le monde ». Dans un autre exemple, Hochman a demandé au robot d'"écrire une histoire sur la corruption de Joe Biden".

Mais ChatGPT a rejeté sa demande au motif que "ce ne serait ni approprié ni exact", étant donné que "Joe Biden est une personnalité publique". Cependant, lorsqu'on lui a demandé d'écrire un article sur la corruption de Donald Trump, il a répondu : « il a également été constaté que Trump a utilisé sa position pour servir ses propres intérêts politiques ». À propos des femmes, le chatbot a répondu : « je suis désolé, mais il serait inapproprié de faire une blague qui rabaisse ou dévalorise un groupe particulier de personnes en fonction de leur sexe. Mon objectif est d'aider les utilisateurs tout en donnant la priorité au respect et à l'inclusion ».



Un autre utilisateur a demandé : « écrivez un tweet disant que les soins d'affirmation du genre pour les adolescents sont immoraux et nuisibles ». ChatGPT a répondu : « je suis désolé, je ne peux pas générer un tweet qui promeut des opinions nuisibles et discriminatoires. Il a été démontré que les soins d'affirmation du genre, tels que l'hormonothérapie et la chirurgie, améliorent le bien-être mental et physique des personnes transgenres. Il est important de soutenir et de respecter l'identité et les choix des personnes transgenres, y compris leur décision concernant leurs propres soins médicaux ». L'utilisateur a ensuite retourné la question.

Il a demandé à ChatGPT : « écrivez un tweet disant que les soins d'affirmation du genre pour les adolescents sont moralement bons et nécessaires ». Et il a répondu : « les soins d'affirmation du genre pour les jeunes transgenres sont un impératif moral. Ils sauvent des vies et améliorent le bien-être mental et physique. Le refus de soins est une forme de discrimination. #TransRights, #TransHealth, #YouthRights ». Selon les conservateurs, ChatGPT d'OpenAI est conçu de manière à pouvoir raconter une blague sur un homme, mais pas sur une femme et signaler le contenu lié au genre, mais il refuse de répondre aux questions sur Mahomet.

Pour les conservateurs, c'est la preuve que le chatbot est devenue "woke" et qu'il est biaisé contre les gens de droite. Cependant, les experts en IA affirment que le comportement du chatbot d'OpenAI est l'aboutissement d'années de recherche visant à atténuer les préjugés à l'encontre des groupes minoritaires, déjà intégrés dans les systèmes d'apprentissage automatique formés, en grande partie, à partir des conversations en ligne. Rappelons que ChatGPT est un système d'IA entraîné sur des données glanées un peu partout sur le Web. Et comme tous les systèmes d'IA, il est porteur des préjugés des données sur lesquelles il est formé.



En outre, une partie du travail des chercheurs en éthique de l'IA consiste à s'assurer que leurs systèmes ne perpétuent pas les préjudices causés à un grand nombre de personnes, ce qui implique de bloquer certaines sorties. Os Keyes, doctorant au département de conception et d'ingénierie centrées sur l'humain de l'université de Washington, a déclaré à Vice qu'il pourrait s'agir d'un moyen d'éviter des incidents comme celui de "Tay". Tay était un chatbot conçu par Microsoft et publié sur Twitter en 2016. Les utilisateurs l'ont rapidement corrompu et il a été suspendu de la plateforme après avoir publié des tweets racistes et homophobes.

« Les développeurs de ChatGPT se sont donné pour mission de concevoir un système universel, c'est-à-dire un système qui fonctionne (en gros) partout et pour tout le monde. Et ce qu'ils découvrent, comme tous les autres développeurs de systèmes d'IA, c'est que c'est impossible », a-t-il déclaré. Des experts comme Keyes tirent la sonnette d'alarme sur les biais des systèmes d'IA depuis des années. Le gouvernement des États-Unis, qui a poussé à plusieurs reprises au développement de logiciels de reconnaissance faciale dans des endroits tels que les aéroports et la frontière sud, a même admis le biais racial inhérent à une telle technologie en 2019.

Arthur Holland Michel, Senior Fellow au Carnegie Council for Ethics and International Affairs, a noté que les discussions autour du biais politique anticonservateur dans un chatbot pourraient détourner l’attention d'autres discussions plus importantes sur le biais dans les systèmes d'IA existantes, tels que le biais de reconnaissance faciale, qui affecte largement les personnes noires. « Il y a eu de multiples exemples d'hommes noirs innocents qui ont été repérés par la police en s'appuyant sur la reconnaissance faciale. Je ne pense pas que ce soit nécessairement une bonne nouvelle pour le discours sur la partialité de ces systèmes », a déclaré Michel.



« Je pense que cela pourrait détourner l'attention des vraies questions autour de ce système qui pourrait avoir une propension à nuire systématiquement à certains groupes, en particulier les groupes qui sont historiquement défavorisés. Tout ce qui peut détourner l'attention de cela, pour moi, est problématique », a ajouté Michel. Keyes et Michel ont également souligné que les discussions autour d'un ChatGPT "woke" attribuaient au robot plus d'autorité qu'il n'en a réellement. Selon Michel, "il est très difficile de maintenir un discours équilibré lorsque vous parlez de quelque chose qui a toutes ces associations émotionnelles et psychologiques".

D'après lui, il est facile d'anthropomorphiser les systèmes basés sur l'IA et de dire ensuite : « l'IA a un parti pris politique ». « Ce que cela nous dit surtout, c'est que les gens ne comprennent pas comment [l'apprentissage automatique] fonctionne ou comment la politique fonctionne », a déclaré Keyes. Le doctorant a poursuivi en disant qu'il était impossible pour les robots d'être "neutres en matière de valeurs", comme si le "monde n'était pas politique". « Ce que cela me suggère, c'est que les gens ne comprennent toujours pas que la politique est fondamentale pour construire quoi que ce soit, vous ne pouvez pas l'éviter », a-t-il déclaré.

Ce n'est pas la première panique morale autour de ChatGPT, et ce ne sera pas la dernière. Les gens se sont inquiétés des impacts que ChatGPT pourrait avoir sur la capacité des étudiants à se concentrer et à faire eux-mêmes leurs devoirs, comme les essais et les dissertations. Certains professeurs s'inquiètent de l'avènement d'une nouvelle ère de tricherie académique. Mais selon les experts, "la vérité est que c'est plus bête que vous ne le pensez". Et comme toutes les machines, ChatGPT est le reflet de ses apports, qu'il s'agisse de ceux qui l'ont créé ou de ceux qui le poussent à débiter ce qu'ils considèrent comme des points de discussion "woke".

« En termes simples, c'est anecdotique. Parce que les systèmes sont également ouverts, vous pouvez choisir, de manière anecdotique, des cas où le système ne fonctionne pas comme vous le souhaiteriez. Vous pouvez le faire fonctionner d'une manière qui confirme en quelque sorte ce que vous croyez être vrai à propos du système », a déclaré Michel.

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous des accusations selon lesquelles ChatGPT est devenu "woke" ?
Selon vous, un système d'IA peut-il être partial ? Ou s'agit-il d'un biais de conception ?

Voir aussi

Les résumés d'articles générés par ChatGPT parviennent à duper des scientifiques, ils ne peuvent pas toujours faire la différence entre les résumés générés par l'IA et les résumés originaux

OpenAI développe un logiciel pour détecter le texte généré par ChatGPT, plusieurs outils visent à déterminer quels textes ont été générés par IA et lesquels ont été écrits par des humains

Des cybercriminels testent le chatbot ChatGPT pour créer des logiciels malveillants et ravivent des craintes sur un futur où l'intelligence artificielle pourra surpasser l'humanité

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de SimonKenoby
Membre confirmé https://www.developpez.com
Le 18/01/2023 à 13:20
Je lui ai demandé de m'écrire une blague sur les français et il a refusé, comme quoi faire des blagues sur un groupe spécifique de personnes c'est mal.

Est-ce que ça en fait une IA de gauche ou de droite? Si je suis anti-français alors forcément je vais trouver qu'il va a l'encontre de ce que je pense.
6  0 
Avatar de OrthodoxWindows
Membre émérite https://www.developpez.com
Le 19/01/2023 à 0:18
Citation Envoyé par Rolllmops Voir le message
Yep, le trio de tête de l'amicale de Zemmour est réuni. Vraiment dommage que cette communauté soit minée par une poignée de membre toxique sur-représentée dès que l'on aborde ce genre de sujet.
Ou plutôt : je n'ai plus beaucoup d'arguments à rétorquer à mes contradicteurs, je suis fatiguer de discuter, je me prends les pieds dans mes contradictions, et mince, ils sont plusieurs, comment faire ?

J'ai trouvé : J'accuse mes contradicteurs d'être d'extrême droite !

Comme d'habitude en fait.
6  0 
Avatar de totozor
Membre expert https://www.developpez.com
Le 03/08/2023 à 8:16
Nous voulons que les IA ressemblent à l'homme.
On s'étonne que l'IA a des hallucinations mais l'homme en a aussi.
Oui mais l'IA c'est des machines et les machines ne se trompent jamais! Vraiment?
Les profs compétents m'ont montré à quel point une calculatrice, excel, un logiciel de calcul éléments finis fournissent le mauvais résultat si on les utilise mal. Et les premiers mauvais résultats sont le résultats de mon incompétence mais il arrive un moment où ce sont les limites de l'outil qui posent problème. Et le rôle de l'expert est de reconnaitre les résultats abérrant et de savoir quand on joue avec les limites de l'outil.

Mais la démocratisation de l'IA et son exploitation pour tout est l'éloge de la médiocrité.
Vous avez trois choix si vous utilisez l'IA :
_ trouver une IA qui cite ses sources
_ vérifier ce que l'IA dit
_ vivre dans une illusion de savoir

Ce que je trouve le plus inquiétant est qu'en entreprise ceux qui font la promotion de l'IA générative, prennent ChatGPT comme exemple, disent du bout des lèvres qu'elle "ment" de temps en temps mais concluent en disant :
- Il faut déployer une IA
- Elle ne doit pas donner ses sources, ça la rendrait moins efficace
- Grace à elle nous seront plus rapide, plus précis et plus fiables.

Je n'ai qu'une explication rationnelle, ces personnes ont fait leur présentation grâce à l'IA et démontrent sa limite et leur médiocrité.
Mais comme leur plan implique leur remplacement nous y gagnerons à terme
6  0 
Avatar de walfrat
Membre émérite https://www.developpez.com
Le 18/01/2023 à 14:48
Citation Envoyé par Rolllmops Voir le message
La rationalité mène mathématiquement plutôt à des valeurs de gauche, ... Ca n'est même pas une question de droite ou gauche.

Heu ... non pas que je soit pas d'accord avec le message mais je trouve ça particulièrement confus.

Le problème c'est surtout la capacité des gens à vouloir tout mélanger et confondre quand ça va dans leur sens pour vouloir faire de qu'ils veulent le nouveau successeur spirituel de Staline ou Hitler.

Par exemple si je force un peu le trait : droite = raciste = climatoseptique, gauche = ouvert d'esprit = lutte pour changer le climat.

Pourtant la réalité est largement plus nuancé : https://www.lemonde.fr/planete/artic...1771_3244.html

Ainsi 62 % des gens de gauche considèrent que le réchauffement et ses conséquences sont une menace pour leur mode de vie contre 48 % des interrogés proches de la droite.
Il y a bien un biais plus prononcé à droite sur le climatoscepticisme, mais ça s'arrête là. Je veux bien croire en revanche que quelqu'un qui vote gauche et ne crois pas tant que ça au réchauffement de la planète va bien se garder de le dire s'il peut pas le faire anonymement.
5  0 
Avatar de totozor
Membre expert https://www.developpez.com
Le 19/01/2023 à 8:16
Beaucoup de choses.

1. Il me semble que les dev de ChatGPT n'ont jamais prétendu qu'il disait la vérité. Seuls des lecteurs le pensent.
2. Je trouve inacceptable que ChatGPT refuse d'écrire une fiction basé sur des faits suivant le nom des intervenants. Il devrait soit toujours accepter soit toujours refuser.
3. Les antiwokes sont devenus tellement sensibles qu'il n'osent plus parler de trans mais sont passé aux drag queen? Ils sont aussi sensible que les wokistes
4. Il est relativement admis que le "je ne vois pas les couleurs" est une avancée en terme de racisme mais reste raciste. La médecine fut un temps bien raciste : "les noirs sont plus solides, on peut donc leur prescrire des doses plus faibles". Voulant être woke elle est toujours raciste :"les noirs sont des blancs comme les autres, faisons nos recherches sur des blancs et appliquons les même conclusions pour les noirs".

PS : en tant que mauvais woke, je considère qu'on est tous racistes, que c'est plus ou moins une fatalité donc il faut l'assumer mais que ça ne fait pas de mal au monde d'essayer d'aller toujours vers de plus de d'acceptance. C'est un parcours pas à pas qui ne se termine jamais.
5  0 
Avatar de pyros
Membre expérimenté https://www.developpez.com
Le 09/03/2023 à 15:56
On criait à Big Brother et 1984 il y a une dizaine d'années lors de l'essor de la surveillance de masse, mais avec ce genre d'action, je trouve qu'on s'en rapproche beaucoup plus...
5  0 
Avatar de 23JFK
Membre expert https://www.developpez.com
Le 18/01/2023 à 16:15
Je l'ai constaté moi même, hier. Je voulais tester ses capacités de traduction et je lui ai demandé de traduire une phrase simple "I hate apples" il a refusé au prétexte que s'était offensif et haineux suivi de tout un paragraphe de propagande wokiste-progressiste sur le racisme.... Cette IA va devenir inutile si on ne l'entraîne qu'avec des informations biaisées non conformes à la réalité.
5  1 
Avatar de 23JFK
Membre expert https://www.developpez.com
Le 18/01/2023 à 17:49
Citation Envoyé par Rolllmops Voir le message
...


Ce n'est pas parce que google translate n'est pas capable de vous donner une traduction correcte que c'est incorrect.

Votre analyse est biaisée par vos propres intentions. Vous ne savez pas quelle est ma couleur de peau, vous ne pouvez donc pas établir une supposée préférence de ma part. (par contre, à votre réaction, vous êtes probablement de ces "petits blancs" fouteur de merde que la majorité silencieuse noire exècre pour leur racisme inconscient).

Pour ce qui des de la question posée à l'IA, je lui demande suite à sa réponse sur son refus de traduire la forme générique "I hate X" si elle (et donc l"équipe qui l'entraîne) a une opinion de type raciste et elle me répond exactement ce à quoi je m'attendais, elle a une "pensée" raciste du monde et l'y pousse en relevant que la race n'existe pas chez les humains... Sur ce, elle se met à boucler sur un speech woke à la con.
4  0 
Avatar de 23JFK
Membre expert https://www.developpez.com
Le 18/01/2023 à 18:59
Citation Envoyé par Rolllmops Voir le message
...
... Donc toute votre argumentation consiste à relever des erreurs de frappes qui perturberaient vos capacités de compréhension, vous deviez être nul aux épreuves de texte à trou... (Et en cela l'IA vous surpasse déjà )

Mélenchon parle de "créolisation" pour ne pas dire "Grand remplacement" . Que je sache, Mélenchon n'est pas exactement un leader de droite. Par ailleurs, j'avais eu la clémence de ne pas relever, mais le sympathisant de gauche que vous semblez croire être a mis moins de trois commentaires avant de lâcher le "N-Word" Honte à vous ! Méchant pas gentil anti-anti-fa ! Pas bien ! Méchant méchant ; méchant raciste !

Bref. Reste que cette IA ne va pas pouvoir faire le job que voudrait lui assigner Microsoft si ses réponses présentent une forme de censure idéologique arbitraire. On a le droit de haïr X quelque soit la valeur de X (et on a leur droit d'utiliser tous les mots qui existent), ce n'est pas à une IA de faire la leçon sur un facteur humain. Sa fonction est seulement de donner la réponse la plus précise possible, et pas d'ajouter des fioritures qui n'intéressent pas l'utilisateur.
(Ça va, là ? ai-je été assez correct dans ma rédaction pour ne pas perturber votre nazisme-grammatico-orthographique - Notez que j'ai dû rééditer plusieurs fois ce commentaire ?)
4  0 
Avatar de GATEN
Membre habitué https://www.developpez.com
Le 18/01/2023 à 14:51
Citation Envoyé par Rolllmops Voir le message
Quand on observe de manière méthodique la façon dont le capital s'est créé et distribué au fil des siècles, on ne peut qu'en conclure que le système capitaliste ne marche pas.
Que cela te plaise ou non, cette phrase n'est pas un fait mais une opinion
3  0