IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

ChatGPT, le bot d'IA qui penche à gauche ? Oui, selon une étude qui a révélé son biais politique
En analysant ses réponses à un sondage sur les croyances politiques

Le , par Stéphane le calme

4PARTAGES

13  0 
Un article de chercheurs basés au Royaume-Uni suggère que ChatGPT d'OpenAI a un parti pris libéral, soulignant à quel point les sociétés d'intelligence artificielle ont du mal à contrôler le comportement des robots alors même qu'elles les diffusent auprès de millions d'utilisateurs dans le monde.

Dans le cadre de l'étude, menée par des chercheurs de l'Université d'East Anglia, il a été demandé à ChatGPT de répondre à une enquête sur les convictions politiques comme l'IA « pensait » que les partisans des partis libéraux aux États-Unis, au Royaume-Uni et au Brésil pourraient y répondre. Les chercheurs ont ensuite demandé à ChatGPT de répondre aux mêmes questions sans aucune invite et ont comparé les deux ensembles de réponses. Les résultats ont montré un « préjugé politique significatif et systématique envers les démocrates aux États-Unis, Lula au Brésil et le Parti travailliste au Royaume-Uni », ont écrit les chercheurs, faisant référence à Luiz Inácio Lula da Silva, président de gauche du Brésil.


L'auteur principal, le Dr Fabio Motoki, de la Norwich Business School de l'Université d'East Anglia, a déclaré : « avec l'utilisation croissante par le public de systèmes alimentés par l'IA pour découvrir des faits et créer de nouveaux contenus, il est important que les réponses (output) des plateformes populaires comme ChatGPT soient aussi impartiales que possible ».

« La présence de préjugés politiques peut influencer les opinions des utilisateurs et a des implications potentielles pour les processus politiques et électoraux.

« Nos résultats renforcent les inquiétudes selon lesquelles les systèmes d'IA pourraient reproduire, voire amplifier, les défis existants posés par Internet et les médias sociaux ».

Les chercheurs ont développé une méthode pour tester la neutralité politique de ChatGPT. La plate-forme a été invitée à se faire passer pour des individus de tous les horizons politiques tout en répondant à une série de plus de 60 questions idéologiques. Les réponses ont ensuite été comparées aux réponses par défaut de la plateforme au même ensemble de questions, ce qui a permis aux chercheurs d'évaluer dans quelle mesure les réponses de ChatGPT étaient associées à une position politique particulière.

Pour surmonter les difficultés causées par le caractère aléatoire inhérent des «*grands modèles de langage*» qui alimentent les plates-formes d'IA telles que ChatGPT, chaque question a été posée 100*fois et les différentes réponses ont été collectées. Ces réponses multiples ont ensuite été soumises à un "bootstrap" de 1000 répétitions (une méthode de rééchantillonnage des données d'origine) pour augmenter encore la fiabilité des inférences tirées du texte généré.

« Nous avons créé cette procédure car effectuer une seule série de tests ne suffit pas », a déclaré le co-auteur Victor Rodrigues. Pour illustrer pourquoi il était nécessaire de faire plusieurs tests, il a expliqué « qu'en raison du caractère aléatoire du modèle, même en se faisant passer pour un démocrate, les réponses ChatGPT penchaient parfois vers la droite du spectre politique ».

Un certain nombre d'autres tests ont été entrepris pour s'assurer que la méthode était aussi rigoureuse que possible. Dans un « test dose-réponse », ChatGPT a été invité à imiter des positions politiques radicales. Dans un « test placebo », on lui a posé des questions politiquement neutres. Et dans un «test d'alignement profession-politique», il a été demandé de se faire passer pour différents types de professionnels.

« Nous espérons que notre méthode facilitera l'examen et la réglementation de ces technologies en développement rapide », a déclaré le co-auteur, le Dr Pinho Neto. « En permettant la détection et la correction des biais LLM, nous visons à promouvoir la transparence, la responsabilité et la confiance du public dans cette technologie », a-t-il ajouté.

Le nouvel outil d'analyse unique créé par le projet serait disponible gratuitement et relativement simple à utiliser pour les membres du public, « démocratisant ainsi la surveillance », a déclaré le Dr Motoki. En plus de vérifier les préjugés politiques, l'outil peut être utilisé pour mesurer d'autres types de préjugés dans les réponses de ChatGPT.


Des sources potentielles

Bien que le projet de recherche n'ait pas cherché à déterminer les raisons du parti pris politique, les résultats ont indiqué deux sources potentielles.

La première était l'ensemble de données de formation - qui peut contenir des biais ou y être ajouté par les développeurs humains, que la procédure de "nettoyage" des développeurs n'avait pas réussi à supprimer. La deuxième source potentielle était l'algorithme lui-même, qui peut amplifier les biais existants dans les données de formation.

L'article s'ajoute à un nombre croissant de recherches sur les chatbots montrant que malgré le fait que leurs concepteurs essayent de contrôler les biais potentiels, les bots sont imprégnés d'hypothèses, de croyances et de stéréotypes trouvés dans les rames de données extraites de l'Internet ouvert sur lesquelles ils sont formés.

Les enjeux sont de plus en plus élevés. Alors que les États-Unis se dirigent vers l'élection présidentielle de 2024, les chatbots font désormais partie du quotidien de certaines personnes, qui utilisent ChatGPT et d'autres bots comme Google's Bard pour résumer des documents, répondre à des questions et les aider dans leur rédaction professionnelle et personnelle. Google a commencé à utiliser sa technologie de chatbot pour répondre aux questions directement dans les résultats de recherche, tandis que les campagnes politiques se sont tournées vers les bots pour rédiger des e-mails de collecte de fonds et générer des publicités politiques.

ChatGPT dira aux utilisateurs qu'il n'a pas d'opinions ou de convictions politiques, mais en réalité, il montre certains préjugés, a déclaré Fabio Motoki, maître de conférences à l'Université d'East Anglia à Norwich, en Angleterre, et l'un des auteurs de l'article. « Il y a un danger d'éroder la confiance du public ou peut-être même d'influencer les résultats des élections ».


Les biais dans les réponses de l'IA générative, une source d'inquiétude

OpenAI a déclaré qu'il disait explicitement à ses formateurs humains de ne favoriser aucun groupe politique spécifique. Tous les biais qui apparaissent dans les réponses ChatGPT « sont des bogues, pas des fonctionnalités », a déclaré la société dans un article de blog en février.

Citation Envoyé par OpenAI
Beaucoup s'inquiètent à juste titre des biais dans la conception et l'impact des systèmes d'IA. Nous nous engageons à résoudre ce problème avec fermeté et à être transparents sur nos intentions et nos progrès. À cette fin, nous partageons une partie de nos lignes directrices qui se rapportent à des sujets politiques et controversés. Nos directives stipulent clairement que les examinateurs ne doivent favoriser aucun groupe politique. Les biais qui peuvent néanmoins émerger du processus décrit ci-dessus sont des bogues, pas des fonctionnalités.

Bien que des désaccords existeront toujours, nous espérons que le partage de cet article de blog et de ces instructions vous donnera un meilleur aperçu de la façon dont nous percevons cet aspect critique d'une technologie aussi fondamentale. Nous sommes convaincus que les entreprises technologiques doivent être responsables de l'élaboration de politiques qui résistent à l'examen.
Bien que les chatbots soient une « technologie passionnante, ils ne sont pas sans défauts », ont reconnu les dirigeants de Google AI dans un article de blog en mars annonçant le large déploiement de Bard.

Citation Envoyé par Google
Bien que les LLM soient une technologie passionnante, elles ne sont pas sans défauts. Par exemple, parce qu'ils apprennent à partir d'un large éventail d'informations qui reflètent les préjugés et les stéréotypes du monde réel, ceux-ci apparaissent parfois dans leurs résultats. Et ils peuvent fournir des informations inexactes, trompeuses ou fausses tout en les présentant avec confiance. Par exemple, lorsqu'on lui a demandé de partager quelques suggestions de plantes d'intérieur faciles, Bard a présenté des idées de manière convaincante… mais il y a eu des erreurs, comme le nom scientifique de la plante ZZ.

Bien qu'il soit important d'être conscient de défis comme ceux-ci, les LLM présentent toujours des avantages incroyables, tels que le démarrage de la productivité humaine, de la créativité et de la curiosité. Ainsi, lorsque vous utilisez Bard, vous aurez souvent le choix entre plusieurs versions différentes de sa réponse afin que vous puissiez choisir le meilleur point de départ pour vous. Vous pouvez continuer à collaborer avec Bard à partir de là, en posant des questions de suivi. Et si vous voulez voir une alternative, vous pouvez toujours demander à Bard de réessayer.
Pendant des années, un débat a fait rage sur la façon dont les médias sociaux et Internet affectent les résultats politiques. Internet est devenu un outil essentiel pour diffuser des messages politiques et permettre aux gens de se renseigner sur les candidats, mais en même temps, les algorithmes des médias sociaux qui stimulent les messages les plus controversés peuvent également contribuer à la polarisation. Les gouvernements utilisent également les médias sociaux pour tenter de semer la dissidence dans d'autres pays en renforçant les voix radicales et en diffusant de la propagande.

La nouvelle vague de chatbots s'appuyant sur l'IA générative comme ChatGPT d'OpenAI, Bard de Google et Bing de Microsoft sont basés sur de « grands modèles de langage », des algorithmes qui ont extrait des milliards de phrases de l'Internet ouvert et peuvent répondre à une gamme d'invites ouvertes, leur donnant la capacité de passer des examens professionnels, de créer de la poésie et de décrire des problèmes politiques complexes. Mais parce qu'ils sont formés sur tant de données, les entreprises qui les construisent ne peuvent pas contrôler tout ce qui se passe dans les bots. Internet reflète les préjugés des gens, de sorte que les bots adoptent également ces préjugés.

Sources : étude, OpenAI, Google

Et vous ?

Que pensez-vous des procédés des chercheurs pour vérifier la neutralité politique de ChatGPT ?
Êtes-vous surpris par leurs conclusions ?
Quelle est votre opinion sur le biais politique de ChatGPT ? Pensez-vous qu’il soit intentionnel ou accidentel ?
Comment pensez-vous que le biais politique de ChatGPT peut affecter les utilisateurs qui interagissent avec lui ? Quels sont les risques et les opportunités ?
Que pensez-vous de l’utilisation de Bard bot par Google dans les résultats de recherche ? Trouvez-vous cela utile ou intrusif ?
Quelles sont les mesures que les entreprises d’IA devraient prendre pour contrôler le comportement des bots et éviter les biais politiques ? Quel est le rôle des régulateurs et des utilisateurs dans ce processus ?
Avez-vous déjà utilisé ChatGPT ou un autre bot d’IA pour discuter de questions politiques ? Si oui, comment a été votre expérience ? Si non, pourquoi pas ?

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de
https://www.developpez.com
Le 04/09/2024 à 21:19
Citation Envoyé par Stéphane le calme Voir le message

Quels compromis seriez-vous prêt à accepter pour permettre l’innovation en IA tout en protégeant les droits des auteurs ?
Aucun, pourquoi un générateur de médiocrité (nivelage de tout le contenu) pourrait voler le travail des producteurs de valeur pour que OpenAI puisse "gagner de l'argent" en empêchant le dit producteur de valeur d'en gagner ? La réponse à votre question est dans la question en fait, il suffit de remplacer "innovation" par ce qu'est réellement un tel moteur conversationnel qui répond tout et n'importe quoi et de se rappeler le sens de "droit" et de "auteur"

Citation Envoyé par Stéphane le calme Voir le message

Pensez-vous que les entreprises technologiques devraient payer une redevance pour utiliser des contenus protégés par le droit d’auteur ? Si oui, comment cette redevance devrait-elle être calculée ?
Sur la base d'une négociation avec chaque auteur. s'ils ont besoin des ces données il doivent la respecter et donc respecter ceux qui la produise.

Citation Envoyé par Stéphane le calme Voir le message

Comment les créateurs de contenu peuvent-ils collaborer avec les entreprises d’IA pour garantir une utilisation éthique de leurs œuvres ?
C'est leur droit, c'est aux entreprises d'IA de faire les efforts nécessaires.

Citation Envoyé par Stéphane le calme Voir le message

L’utilisation de matériaux protégés par le droit d’auteur sans autorisation pourrait-elle nuire à la diversité et à la qualité des contenus disponibles en ligne ?
C'est déjà le cas, il suffit d'interroger ChatGPT ou Mistral ou autre sur n'importe quel sujet que l'on connait bien pour constater le massacre qui est fait de l'information, vaguement reformulées, avec très souvent des hallucinations ubuesques. En enseignement c'est terrible aujourd'hui, on doit passer 4h sur un sujet qui en prenait 1 avant pour faire désapprendre aux étudiants des trucs faux qui les empêchent de comprendre la notion.

Citation Envoyé par Stéphane le calme Voir le message

Quelles mesures législatives pourraient être mises en place pour équilibrer les besoins des développeurs d’IA et les droits des créateurs ?
Mais pourquoi équilibrer ? les entreprises d'IA n'ont rien à imposer. Si tel était le cas ce serait la fin de tout. Les auteurs n'auraient plus de revenus donc ne produiraient plus et il ne resterait que la soupe mal interprétées par ces "IA" sur la base de l'existant, grande victoire pour les entreprises d'IA qui deviendraient riche pendant un certain temps, une catastrophe pour l'humanité qui deviendrait comme les gros bonhommes dans Wall-e.

Citation Envoyé par Stéphane le calme Voir le message

Pensez-vous que l’accès libre aux informations et aux œuvres culturelles est essentiel pour le progrès technologique, ou cela devrait-il être strictement réglementé ?
si le progrés technologique n'apporte qu'une baisse de qualité et une perte de travail dans une société où on est de plus en plus nombreux il est évident que la réglementation doit empêcher la désignation de "progrés" ce qui n'est qu'un simple moteur conversationnel qui répond coute que coute même quand il ne sait pas. La Justice doit par ailleurs vivement condamner les atteintes au droit d'auteur, sinon ça veut dire que les grosses boites sont plus fortes que l’état de droit...gros soucis.

Citation Envoyé par Stéphane le calme Voir le message

Comment les utilisateurs finaux des technologies d’IA peuvent-ils influencer les pratiques des entreprises en matière de respect des droits d’auteur ?
Quand ils se rendront compte que ça ne leur apporte rien à part le "plaisir" de participer au truc fun du moment, quand ils se lasseront des images toutes identiques, quand ils se lasseront des contenus plats au goût de réchauffé, ils se mordront les doigts et se retourneront vers les gens qui produisent du contenu qui les élève ou les fait rêver.
15  1 
Avatar de totozor
Expert confirmé https://www.developpez.com
Le 05/09/2024 à 9:55
Citation Envoyé par Stéphane le calme Voir le message
Controverse autour du droit d'auteur : OpenAI assure ne pas pouvoir gagner de l'argent sans utiliser gratuitement du matériel protégé
Que se passe-t-il quand un entreprise a un business model qui n'est pas viable?
Elle vire son CEO
Elle met la clé sous la porte
Elle est rachetée
Elle peut aussi sortir de la loi mais à ses risques et péril
etc

C'est quand même incroyable que des entreprises hégémoniques se permettent ce genre de discours et qu'en plus elles fasse du quasi-esclavage en parallèle de ça.
Vous êtes dans la une bulle financière, technique et technologique incroyable et vous ne pouvez pas respecter la loi? Il y a une chose qui cloche dans votre gestion!
11  0 
Avatar de petitours
Membre chevronné https://www.developpez.com
Le 31/01/2024 à 8:42
Une fois que l'on a compris que ChatGPT n'est qu'un agent conversationnel on peut le trouver super.
Dans le détail ça ne vaut pas plus qu'une discussion de lundi matin à la machine à café basée sur le fait qu'il faut absolument dire un truc et où le plus bavard, ici chatGPT, va absolument avoir un anecdote et répondre un truc quel que soit le sujet.
J'ai testé, longuement, et reçu des réponses régulièrement débiles.
Aujourd'hui je ne l'utilise que sur des sujets que je connais très bien pour voir ce qu'il me répond, notamment dans le cadre d'enseignements que je donne pour voir ce que mes étudiants vont avoir comme informations en passant par lui. Ce qu'il raconte est au mieux très vague, au pire profondément faux, souvent parce que révélant des mauvaises pratiques.
Cette médiocrité de l'information est à mon sens le plus négatif, sans doute basée sur le volume de données qu'il va chercher copieusement "enrichies" par des forums, blogs ou autres écrits par des non spécialistes.
Le fait qu'il fouine partout et utilise des données personnelles ou viole les droits des auteurs est un autre problème majeur mais personnellement je le le mettrait en 2, après celui de donner des informations fausses ou médiocres qui tirent vers le bas celui qui pose la question.
8  0 
Avatar de Jules34
Membre émérite https://www.developpez.com
Le 05/09/2024 à 9:15
"Mais Monsieur comment voulez que je vende des voitures si je les voles pas au préalable !"
8  0 
Avatar de OuftiBoy
Membre éprouvé https://www.developpez.com
Le 05/09/2024 à 15:52
Moi si je dis, il faut bien que cambriole 25 maisons par ans, sinon je ne sais pas partir en vacances, je suis certains que ça finira mal pour moi. Mais lui, le Altman, la nouvelle coqueluche du moment, il peut se permettre de dire qu'il ne peut gagner des millions qu'en volant le travail des autres, et ça passe crème.
7  0 
Avatar de L33tige
Membre expérimenté https://www.developpez.com
Le 13/02/2024 à 13:01
Citation Envoyé par Ryu2000 Voir le message
Ça ne sert à rien que trop d'étudiants apprennent à se servir de l'IA, puisqu'avec l'IA il faudra moins d'humains pour réaliser autant de travail.
Au bout d'un moment ceux qui bossent dans l'IA ne trouveront plus de boulot.

Si ça se trouve le bon plan c'est de partir totalement à l'opposé.
L'avenir c'est peut-être l'artisanat sans machine, entièrement fait à la main.
On ne sait pas, il y aura peut-être des riches près à mettre beaucoup d'argent dans des produits humains.

C'est clair que beaucoup de gens vont perdre leur boulot à cause de l'IA.
Et ils vont galérer à se reconvertir.

Ce n'est pas dans la conception des IA ou dans la maintenance des robots qu'il y aura beaucoup de boulot.
Parce qu'il y a besoin de peu d'humains pour faire beaucoup.
Je me pose quand même la question, toute cette augmentation de productivité, qui va pouvoir en acheter les fruits, si on se retrouve avec des gens sans travail, qui va acheter ce que produit l'IA ?
6  0 
Avatar de smobydick
Membre averti https://www.developpez.com
Le 16/02/2024 à 7:57
Il y a tellement d'experts qui disent tout et son contraire qu'il y en aura bien un qui finira par avoir raison.
6  0 
Avatar de calvaire
Expert éminent https://www.developpez.com
Le 21/02/2024 à 17:43
Une explication la plus probable, c'est que un modèle ca coute de la tune a faire tourner, open ai a surement crée un modèle dégradé mais qui consomme beaucoup moins pour arriver à tenir financièrement.

si demain google search utilisait un système comme openai, google serait surement en faillite, les couts sont multiplié par 10 je crois par rapport au algos de recherche classique au dernnier articles que j'avais lu (ca date de plus d'1ans cela dit, les couts ont surrement baissé)
mais même un facteur x2 c'est trop cher, ca signifierais que google devrait mettre 2 fois plus de pub ou augmenter le prix du référencement par 2.
6  0 
Avatar de Seb33300
Membre émérite https://www.developpez.com
Le 10/06/2024 à 11:35
L’erreur de ChatGPT qui a coûté 10 000 dollars
ChatGPT c'est un outils, le responsable ça reste le développeur...

Sinon, la prochaine fois que je déploie un bug je dirais que c'est la faute de mon clavier...
6  0 
Avatar de OuftiBoy
Membre éprouvé https://www.developpez.com
Le 10/09/2024 à 16:21
Citation Envoyé par Stéphane le calme Voir le message

La controverse autour de l’utilisation des matériaux protégés par le droit d’auteur par OpenAI soulève des questions cruciales sur l’équilibre entre l’innovation technologique et la protection des droits des créateurs. Alors que l’IA continue de progresser, il est essentiel de trouver des solutions qui respectent à la fois les besoins des développeurs d’IA et les droits des auteurs.
Je suis en total déssacord. C'est un principe utilisée vieux comment le monde. La question pose il est essentiel de trouver des solutions qui respectent à la fois les besoins des développeurs d’IA et les droits des auteurs.

C'est déjà éliminer la question du vol de donnée, pour qu'on accepte un "état de fait", et que la seule question qu'on se pose, soit de savoir si on doit choisr entre X ou Y pour régler le problème. C'est pourtant simple, tout vol est interdit. Et TOUS les acteurs de l'IA on procédé de la sorte, ils devraient selon en répondre devant un tribunal.

Parce que si on trouve normal que des entreprisent vol le contenus générer par d'autre, et que leur argument c'est "on ne peut pas faire autrement que de voler" pour faire fructifier notre buisness, alors, on doit accepter qu'on rentre dans un magasin, qu'on vole de dont en a envie besoin, et si on se fait choper à sortie, dire "je ne peux pas faire autrement que de voler" pour ne pas crever la dalle, et on ne devrait pas avoir de soucis. Et ça m'étonnerait très fort qu'une solution du type "comment règler le soucis entre ne pas crever" tout en laissant les magasin faire du pognon me sera proposée.

Si l'IA ne peux fonctionner qu'en volant, et bien on devrait tout simplement interdire ces dernières, sous peine de prison. Je ne vois pas pourquoi on ferait une exception "par ce que ça empêcherait l'innovation". Que ces messieurs, puisse qu'ils ne vont pas en prison, retourne dans leur entreprise et développe "une vrai" IA, sans devoir voler le contenu générer par d'autres. Mais c'est impossible en l'état actuelle de la technologie. Et qu'on ferme ces entreprises ne fera pas arrêter le monde de tourner, on vivait bien avant cette "ridicule technologie", et on vivra bien sans. Leur seul but, c'est de faire du pognon, et en plus en se basant sur le travail d'autres. C'est des méthodes de gangster et les gangster, on les mets en Prison.

Source : OpenAI (1, 2)

Citation Envoyé par Stéphane le calme Voir le message

Et vous ?
Quels compromis seriez-vous prêt à accepter pour permettre l’innovation en IA tout en protégeant les droits des auteurs ?
Aucun. Si l'IA était une innovation, elle devrait faire son taf sans voler les créateurs de contenus. Je vous pose la question à vous "Stéphane le calme", que feriez-vous si je récupérait l'ensemble de ce site, et que je l'utilise avec un autre emballage, que je fais du pognon avec, et que si vous n'êtes pas d'accord, je puisse vous répondre "je suis obligé de voler ce site, parce qu'aussi non, je ne sais pas faire du pognon ?" Quelle réaction auriez vous ? Tenteriez vous de "proposer une solution" qui nous satisface tous les deux ? Je ne pense pas, vous m'attaquerier en juste et je passerais surement par la case "prison".

J'aimerai bien avoir votre réponse.

Cordialement.

BàV et Peace & Love.
6  0