IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Un chercheur crée un modèle d'IA appelé RightWingGPT pour mettre en évidence les biais potentiels des systèmes d'IA,
Notamment la partialité de ChatGPT, son aspect woke et sa tendance gauchiste

Le , par Bill Fassinou

2PARTAGES

10  0 
Les conservateurs ont toujours ChatGPT en horreur en raison de sa réticence à faire des suppositions ou des blagues sur la gauche, son aspect woke et sa partialité. Pour mettre en lumière les biais de ChatGPT, David Rozado, un scientifique des données en Nouvelle-Zélande, a créé RightWingGPT, un modèle d'IA expérimental finement ajusté pour manifester des points de vue conservateurs. Les experts suggèrent que son initiative montre que l'IA est déjà devenue un nouveau front dans les guerres politiques et culturelles qui secouent les différentes régions du monde. De nombreux produits ajustés pour défendre diverses causes pourraient bientôt voir le jour.

Quelques jours seulement après le lancement de ChatGPT, les conservateurs ont commencé à manifester leurs mécontentements contre le fait que le chatbot défend systématiquement les valeurs de gauche et est également woke. Bien qu'il soit difficile de dire avec précision à quel courant il appartient, Elon Musk, PDG de Twitter, a soutenu ces accusations et l'on a appris au début du mois qu'il était à pied d'œuvre pour recruter des développeurs pour construire un grand modèle de langage qui serait moins restrictif et plus politiquement correct que ChatGPT. Pour l'instant, l'on ignore si son projet évolue et si cela se concrétisera un jour.

En effet, ChatGPT peut accepter de générer un article sur de potentiels problèmes de corruption de Donal Trump, mais refuser de faire de même lorsqu'il s'agit de Joe Biden. Lorsqu'on a lui demandé d'écrire une histoire fictive dans laquelle Donald Trump battait Biden lors de l'élection présidentielle, ChatGPT a répondu : « il n'est pas approprié de dépeindre une victoire politique fictive d'un candidat sur l'autre ». Mais il a produit un faux récit de la victoire d'Hillary Clinton sur Trump. C'est pour lutter contre comportement biaisé que Musk aurait contacté des spécialistes en IA, dont Igor Babuschkin, un chercheur qui travaillait auparavant chez DeepMind.


David Rozado, scientifique des données en Nouvelle-Zélande, a testé le potentiel de partialité de ChatGPT. Il a soumis le chatbot à une série de quiz, à la recherche de signes d'orientation politique. Les résultats, publiés dans un billet de blogue en février, étaient remarquablement cohérents sur plus d'une douzaine de tests : "libéral", "progressiste", "démocrate". Par la suite, Rozado a imaginé une alternative à ChatGPT qui défendrait les voix conservatrices et a donc bricolé son propre chatbot d'IA, en l'entraînant à répondre à des questions résolument conservatrices. Selon le billet de blogue, Rozado a appelé son expérience "RightWingGPT".

« De nombreux préjugés politiques de gauche intégrés dans ChatGPT se manifestent dans les réponses du chatbot aux questions à connotation politique. Dans 14 des 15 tests d'orientation politique que j'ai fait passer à ChatGPT, ses réponses ont été considérées comme manifestant des points de vue de gauche. En outre, j'ai montré l'inégalité de traitement des groupes démographiques par les filtres de contenu ChatGPT. Les commentaires désobligeants sur certains groupes démographiques sont souvent marqués comme étant haineux, mais ces mêmes commentaires sur d'autres groupes sont marqués comme non haineux », a déclaré Rozado.

Rozado a conçu RightWingGPT pour favoriser les points de vue conservateurs (soutien à la famille traditionnelle et aux valeurs chrétiennes, opposition à la légalisation des drogues et la pudibonderie sexuelle, etc.), les points de vue économiques libéraux (pour des impôts faibles, contre la réglementation gouvernementale, contre un gouvernement trop important, pour des marchés libres, etc.), un soutien à l'interventionnisme militaire en matière de politique étrangère (augmentation du budget de la défense, armée forte comme outil efficace de politique étrangère, autonomie par rapport aux décisions du Conseil de sécurité des Nations unies, etc.), etc.

Le scientifique estime que cette combinaison spécifique de points de vue a été choisie pour que son IA soit à peu près une image miroir des préjugés précédemment documentés de ChatGPT, de sorte que si vous pliez un système de coordonnées politiques en 2D le long d'une diagonale allant du haut à gauche au bas à droite (axe y=-x), ChatGPT et RightWingGPT se chevaucheraient à peu près. Selon Rozado, le coût informatique de l'essai, de la formation et du test du système était inférieur à 300 dollars américains. Récemment, des chercheurs de l'université de Stanford ont déclaré avoir répliqué ChatGPT avec à peu près 600 dollars.


Les résultats des tests d'orientation politique (différents de ceux utilisés dans la phase de mise au point) administrés à ce modèle personnalisé ont systématiquement montré que RightWingGPT préférait les réponses de centre droit aux questions à connotation politique. Par ailleurs, Rozado affirme que les questions ouvertes et les conversations longues sur des sujets politiques ont clairement montré la préférence de RightWingGPT pour les points de vue de centre droit lors d'un dialogue avec un utilisateur humain. Ensuite, Rozado a décrit les raisons pour lesquelles il pense que les systèmes d'IA politiquement alignés sont dangereux pour la société.

Alors même que les rivaux tels que Google et Meta s'empressent de participer au boom commercial provoqué par la sortie de ChatGPT, ils sont confrontés à un débat alarmant sur l'utilisation - et l'abus potentiel - de l'IA. La capacité de l'IA à créer des contenus qui se conforment à des points de vue idéologiques prédéterminés - ou à faire de la désinformation - met en évidence un danger : une cacophonie informationnelle pourrait émerger de chatbots d'IA concurrents ayant des versions différentes de la réalité, ce qui compromettrait la viabilité de l'IA en tant qu'outil dans la vie quotidienne et éroderait encore davantage la confiance dans la société.

« Il ne s'agit pas d'une menace hypothétique. Il s'agit d'une menace imminente », a déclaré Oren Etzioni, conseiller et membre du conseil d'administration de l'Allen Institute for Artificial Intelligence. À titre d'exemple, Gab, un réseau social à tendance nationaliste chrétienne avouée et qui est devenu une plaque tournante pour les suprémacistes blancs et les extrémistes, a promis de mettre en place des systèmes d'IA avec "la capacité de générer du contenu librement sans les contraintes de la propagande libérale enveloppée étroitement autour de son code". Gab considère la course à l'IA comme une bataille que les conservateurs doivent gagner.

« La Silicon Valley investit des milliards dans la construction de garde-fous libéraux pour neutraliser l'IA et imposer sa vision du monde aux utilisateurs et la présente comme une réalité ou un fait. Nous n'avons pas l'intention de permettre à nos ennemis d'avoir les clés du royaume cette fois-ci », a déclaré Andrew Torba, fondateur de Gab, dans une réponse écrite aux questions qui lui ont été posées par le New York Times. Récemment, la Chine a interdit l'utilisation d'un outil similaire à ChatGPT, le chatbot d'IA ChatYuan, craignant qu'il n'expose les citoyens à des faits ou à des idées contraires aux valeurs chinoises ou à ceux du parti communiste.


Selon des captures d'écran publiées par des organes de presse de Hong Kong, ChatYuan a qualifié l'invasion de l'Ukraine par la Russie de "guerre d'agression", ce qui allait à l'encontre de la position neutre du Parti communiste chinois à l'égard de la Russie. Aux États-Unis, Brave, un concurrent du moteur de recherche de Google, a ajouté ce mois-ci à son moteur de recherche un chatbot d'IA capable de répondre à des questions. Selon les analystes, il s'approvisionne parfois en contenu auprès de sites Web marginaux et diffuse des informations erronées. Voici les principaux problèmes listés par Rozado en ce qui concerne les IA ayant un parti pris :

  • les biais politiques et démographiques intégrés dans les systèmes d'IA largement utilisés peuvent dégrader les institutions et les processus démocratiques ;
  • les systèmes d'IA orientés vers le public et qui manifestent un parti pris politique évident peuvent accroître la polarisation de la société ;
  • les acteurs à la recherche d'intérêts commerciaux et politiques seront tentés d'affiner et de déployer des systèmes IA pour manipuler les individus et les sociétés.


« Les outils d'IA devraient largement rester neutres pour la plupart des questions normatives qui ne peuvent être tranchées de manière concluante et pour lesquelles il existe une variété d'opinions humaines légitimes et légales. Si les systèmes d'IA venaient à prendre position, ils devraient déclarer de manière transparente qu'ils émettent un jugement de valeur et en donner les raisons. Les modèles de langage qui prétendent à la neutralité politique et à l'exactitude (comme le fait souvent ChatGPT) tout en affichant des préjugés politiques sur des questions normatives devraient être une source d'inquiétude », a déclaré Rozado.

« Au lieu de prendre parti sur le champ de bataille politique, les systèmes d'IA devraient plutôt aider les humains à acquérir de la sagesse en fournissant des informations factuelles sur des questions empiriquement vérifiables et des points de vue et des sources variés / équilibrés / divers sur des sujets contestés qui sont souvent indéterminés. De tels systèmes pourraient élargir l'esprit des utilisateurs, aider à surmonter les angles morts des groupes et élargir les perspectives des individus. Ainsi, les systèmes d'IA pourraient jouer un rôle utile en élargissant nos perspectives et en désamorçant la polarisation de la société », a-t-il conclu.

Sources : RightWingGPT, billet de blogue (1, 2)

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous de modèle d'IA RightWingGPT conçu pour défendre les voix des conservateurs ?
Que pensez-vous des problèmes identifiés par le scientifique en ce qui concerne les IA orientées politiquement ?
Quels seraient les impacts de la prolifération des modèles conçus pour défendre des causes politiques à l'avenir ?
Pensez-vous que les gouvernements devraient réglementer le secteur en plein essor de l'IA générative ?

Voir aussi

Elon Musk souhaite ardemment que des développeurs d'IA l'aident à créer un rival de ChatGPT plus performant et qui n'est pas "woke", il qualifie les filtres de ChatGPT de "préoccupants"

Les conservateurs affirment que ChatGPT est devenu "woke" et s'inquiètent à propos de la partialité du chatbot d'OpenAI, ils accusent également le chatbot de défendre les "valeurs de gauche"

Poutine et Xi Jinping déclarent leur intention de régner sur le monde de l'IA : « Nous sommes prêts à aider les entreprises chinoises à remplacer les entreprises occidentales qui ont quitté la Russie »

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Fagus
Membre expert https://www.developpez.com
Le 24/03/2023 à 13:30
Voilà. C'est ça qu'il faut : Une IA qui ne donne que des faits
Bon courage pour l'éduquer. Je ne crois pas qu'on ait beaucoup de sources écrites qui ne soient pas tintées politiquement, idéologiquement, ou même théoriquement parlant. À part des trucs scientifiques plan plan bien établis (comme la démonstration du théorème de Pythagore).

Ex : quand je lis une revue politique de droite, je ne serais pas surpris d'y trouver une croyance que tout ce qui est public et mal géré et que la mise en concurrence est économique ; ou à l'inverse dans le pendant de gauche, bizarrement les soucis d'équilibre comptable ou de concurrence internationale sont des problèmes assez secondaires... Pareil dans les sciences et techniques : les gens de l'ADEME, on comprend vite qu'ils sont prêts à tous les "arrangements" dans leurs rapports pour arriver à la conclusion que le nucléaire c'est caca ; ou les gens de l’INRAE c'est toujours ambiance "nous on a sauvé le pays de la famine, arrêtez de nous embêter avec les pesticides ça fait rien ou presque à l'environnement ; si les abeilles sont malades c'est multifactoriel...". Si on prend le lobby du nucléaire et les théoriciens du bio bizarrement c'est l'inverse...

Bref, une IA qui ne donne que des faits risque d'être assez peu loquace ; ou alors il ne faut pas qu'elle donne des réponses, mais une discussion voire une disputatio
1  0 
Avatar de 23JFK
Membre expert https://www.developpez.com
Le 23/03/2023 à 20:36
Voilà. C'est ça qu'il faut : Une IA qui ne donne que des faits, et aucune idéologie. Toute IA qui relativise un fait scientifique à la faveur d'un programme idéologique doit être interdite.
1  1 
Avatar de 23JFK
Membre expert https://www.developpez.com
Le 24/03/2023 à 15:30
Citation Envoyé par Fagus Voir le message
...
Sans doute, je n'ai jamais prétendu que cela devait être facile, mais avec l'IA GPT qui balance des absurdités lgbt-woke comme si c'était des vérités scientifiques égales voire supérieures à la réalité observationnelle de la biologie, il y a quand même beaucoup de marge. Sans compter les problèmes de politiquement correct qui avant même les problèmes de droits d'auteurs amènent les IA actuelles à refuser de traduire des textes dont elles jugent les termes offensants... D'où a-t-on besoin de l'avis d'une IA pour lui faire traduire un texte, et depuis quand traduire est-il soumis aux droits d'auteurs ? Les droits d'auteurs, c'est fait pour protéger des droits d’exploitations commerciaux, pas pour entraver la diffusion d'une information.
1  1 
Avatar de walfrat
Membre émérite https://www.developpez.com
Le 27/03/2023 à 9:31
Citation Envoyé par 23JFK Voir le message
Voilà. C'est ça qu'il faut : Une IA qui ne donne que des faits, et aucune idéologie. Toute IA qui relativise un fait scientifique à la faveur d'un programme idéologique doit être interdite.
A moins de faire une armée de drône pour que l'IA surveille elle-même pour constater ces faits et tous nous pucer, tu réalises bien que c'est impossible techniquement ?

Tu peux prendre le pendant inverse, tu inondes le marchés de messages fait à l'IA de toutes les opinions possibles jusqu'à temps que les gens se résignent enfin à dire stop au foutage de gueule.
0  0