Quelques jours seulement après le lancement de ChatGPT, les conservateurs ont commencé à manifester leurs mécontentements contre le fait que le chatbot défend systématiquement les valeurs de gauche et est également woke. Bien qu'il soit difficile de dire avec précision à quel courant il appartient, Elon Musk, PDG de Twitter, a soutenu ces accusations et l'on a appris au début du mois qu'il était à pied d'œuvre pour recruter des développeurs pour construire un grand modèle de langage qui serait moins restrictif et plus politiquement correct que ChatGPT. Pour l'instant, l'on ignore si son projet évolue et si cela se concrétisera un jour.
En effet, ChatGPT peut accepter de générer un article sur de potentiels problèmes de corruption de Donal Trump, mais refuser de faire de même lorsqu'il s'agit de Joe Biden. Lorsqu'on a lui demandé d'écrire une histoire fictive dans laquelle Donald Trump battait Biden lors de l'élection présidentielle, ChatGPT a répondu : « il n'est pas approprié de dépeindre une victoire politique fictive d'un candidat sur l'autre ». Mais il a produit un faux récit de la victoire d'Hillary Clinton sur Trump. C'est pour lutter contre comportement biaisé que Musk aurait contacté des spécialistes en IA, dont Igor Babuschkin, un chercheur qui travaillait auparavant chez DeepMind.
David Rozado, scientifique des données en Nouvelle-Zélande, a testé le potentiel de partialité de ChatGPT. Il a soumis le chatbot à une série de quiz, à la recherche de signes d'orientation politique. Les résultats, publiés dans un billet de blogue en février, étaient remarquablement cohérents sur plus d'une douzaine de tests : "libéral", "progressiste", "démocrate". Par la suite, Rozado a imaginé une alternative à ChatGPT qui défendrait les voix conservatrices et a donc bricolé son propre chatbot d'IA, en l'entraînant à répondre à des questions résolument conservatrices. Selon le billet de blogue, Rozado a appelé son expérience "RightWingGPT".
« De nombreux préjugés politiques de gauche intégrés dans ChatGPT se manifestent dans les réponses du chatbot aux questions à connotation politique. Dans 14 des 15 tests d'orientation politique que j'ai fait passer à ChatGPT, ses réponses ont été considérées comme manifestant des points de vue de gauche. En outre, j'ai montré l'inégalité de traitement des groupes démographiques par les filtres de contenu ChatGPT. Les commentaires désobligeants sur certains groupes démographiques sont souvent marqués comme étant haineux, mais ces mêmes commentaires sur d'autres groupes sont marqués comme non haineux », a déclaré Rozado.
Rozado a conçu RightWingGPT pour favoriser les points de vue conservateurs (soutien à la famille traditionnelle et aux valeurs chrétiennes, opposition à la légalisation des drogues et la pudibonderie sexuelle, etc.), les points de vue économiques libéraux (pour des impôts faibles, contre la réglementation gouvernementale, contre un gouvernement trop important, pour des marchés libres, etc.), un soutien à l'interventionnisme militaire en matière de politique étrangère (augmentation du budget de la défense, armée forte comme outil efficace de politique étrangère, autonomie par rapport aux décisions du Conseil de sécurité des Nations unies, etc.), etc.
Le scientifique estime que cette combinaison spécifique de points de vue a été choisie pour que son IA soit à peu près une image miroir des préjugés précédemment documentés de ChatGPT, de sorte que si vous pliez un système de coordonnées politiques en 2D le long d'une diagonale allant du haut à gauche au bas à droite (axe y=-x), ChatGPT et RightWingGPT se chevaucheraient à peu près. Selon Rozado, le coût informatique de l'essai, de la formation et du test du système était inférieur à 300 dollars américains. Récemment, des chercheurs de l'université de Stanford ont déclaré avoir répliqué ChatGPT avec à peu près 600 dollars.
Les résultats des tests d'orientation politique (différents de ceux utilisés dans la phase de mise au point) administrés à ce modèle personnalisé ont systématiquement montré que RightWingGPT préférait les réponses de centre droit aux questions à connotation politique. Par ailleurs, Rozado affirme que les questions ouvertes et les conversations longues sur des sujets politiques ont clairement montré la préférence de RightWingGPT pour les points de vue de centre droit lors d'un dialogue avec un utilisateur humain. Ensuite, Rozado a décrit les raisons pour lesquelles il pense que les systèmes d'IA politiquement alignés sont dangereux pour la société.
Alors même que les rivaux tels que Google et Meta s'empressent de participer au boom commercial provoqué par la sortie de ChatGPT, ils sont confrontés à un débat alarmant sur l'utilisation - et l'abus potentiel - de l'IA. La capacité de l'IA à créer des contenus qui se conforment à des points de vue idéologiques prédéterminés - ou à faire de la désinformation - met en évidence un danger : une cacophonie informationnelle pourrait émerger de chatbots d'IA concurrents ayant des versions différentes de la réalité, ce qui compromettrait la viabilité de l'IA en tant qu'outil dans la vie quotidienne et éroderait encore davantage la confiance dans la société.
« Il ne s'agit pas d'une menace hypothétique. Il s'agit d'une menace imminente », a déclaré Oren Etzioni, conseiller et membre du conseil d'administration de l'Allen Institute for Artificial Intelligence. À titre d'exemple, Gab, un réseau social à tendance nationaliste chrétienne avouée et qui est devenu une plaque tournante pour les suprémacistes blancs et les extrémistes, a promis de mettre en place des systèmes d'IA avec "la capacité de générer du contenu librement sans les contraintes de la propagande libérale enveloppée étroitement autour de son code". Gab considère la course à l'IA comme une bataille que les conservateurs doivent gagner.
« La Silicon Valley investit des milliards dans la construction de garde-fous libéraux pour neutraliser l'IA et imposer sa vision du monde aux utilisateurs et la présente comme une réalité ou un fait. Nous n'avons pas l'intention de permettre à nos ennemis d'avoir les clés du royaume cette fois-ci », a déclaré Andrew Torba, fondateur de Gab, dans une réponse écrite aux questions qui lui ont été posées par le New York Times. Récemment, la Chine a interdit l'utilisation d'un outil similaire à ChatGPT, le chatbot d'IA ChatYuan, craignant qu'il n'expose les citoyens à des faits ou à des idées contraires aux valeurs chinoises ou à ceux du parti communiste.
Selon des captures d'écran publiées par des organes de presse de Hong Kong, ChatYuan a qualifié l'invasion de l'Ukraine par la Russie de "guerre d'agression", ce qui allait à l'encontre de la position neutre du Parti communiste chinois à l'égard de la Russie. Aux États-Unis, Brave, un concurrent du moteur de recherche de Google, a ajouté ce mois-ci à son moteur de recherche un chatbot d'IA capable de répondre à des questions. Selon les analystes, il s'approvisionne parfois en contenu auprès de sites Web marginaux et diffuse des informations erronées. Voici les principaux problèmes listés par Rozado en ce qui concerne les IA ayant un parti pris :
- les biais politiques et démographiques intégrés dans les systèmes d'IA largement utilisés peuvent dégrader les institutions et les processus démocratiques ;
- les systèmes d'IA orientés vers le public et qui manifestent un parti pris politique évident peuvent accroître la polarisation de la société ;
- les acteurs à la recherche d'intérêts commerciaux et politiques seront tentés d'affiner et de déployer des systèmes IA pour manipuler les individus et les sociétés.
« Les outils d'IA devraient largement rester neutres pour la plupart des questions normatives qui ne peuvent être tranchées de manière concluante et pour lesquelles il existe une variété d'opinions humaines légitimes et légales. Si les systèmes d'IA venaient à prendre position, ils devraient déclarer de manière transparente qu'ils émettent un jugement de valeur et en donner les raisons. Les modèles de langage qui prétendent à la neutralité politique et à l'exactitude (comme le fait souvent ChatGPT) tout en affichant des préjugés politiques sur des questions normatives devraient être une source d'inquiétude », a déclaré Rozado.
« Au lieu de prendre parti sur le champ de bataille politique, les systèmes d'IA devraient plutôt aider les humains à acquérir de la sagesse en fournissant des informations factuelles sur des questions empiriquement vérifiables et des points de vue et des sources variés / équilibrés / divers sur des sujets contestés qui sont souvent indéterminés. De tels systèmes pourraient élargir l'esprit des utilisateurs, aider à surmonter les angles morts des groupes et élargir les perspectives des individus. Ainsi, les systèmes d'IA pourraient jouer un rôle utile en élargissant nos perspectives et en désamorçant la polarisation de la société », a-t-il conclu.
Sources : RightWingGPT, billet de blogue (1, 2)
Et vous ?
Quel est votre avis sur le sujet ?
Que pensez-vous de modèle d'IA RightWingGPT conçu pour défendre les voix des conservateurs ?
Que pensez-vous des problèmes identifiés par le scientifique en ce qui concerne les IA orientées politiquement ?
Quels seraient les impacts de la prolifération des modèles conçus pour défendre des causes politiques à l'avenir ?
Pensez-vous que les gouvernements devraient réglementer le secteur en plein essor de l'IA générative ?
Voir aussi
Elon Musk souhaite ardemment que des développeurs d'IA l'aident à créer un rival de ChatGPT plus performant et qui n'est pas "woke", il qualifie les filtres de ChatGPT de "préoccupants"
Les conservateurs affirment que ChatGPT est devenu "woke" et s'inquiètent à propos de la partialité du chatbot d'OpenAI, ils accusent également le chatbot de défendre les "valeurs de gauche"
Poutine et Xi Jinping déclarent leur intention de régner sur le monde de l'IA : « Nous sommes prêts à aider les entreprises chinoises à remplacer les entreprises occidentales qui ont quitté la Russie »