IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les chatbots d'IA ont un biais politique qui pourrait influencer la société à son insu, car la plupart des LLM existants affichent des préférences politiques de centre-gauche
D'après une étude de David Rozado

Le , par Jade Emy

146PARTAGES

6  0 
Une étude de l'informaticien David Rozado montre que la plupart des grands modèles de langage existants affichent des préférences politiques de gauche. La manière dont ces préjugés s'insèrent dans les systèmes n'est pas claire, mais rien n'indique qu'ils soient délibérément introduits par les développeurs des LLM. Avec l'ascension des chatbots d'IA comme source d'informations, il est crucial d'examiner et de traiter les biais politiques potentiels intégrés dans les LLM.

En 2023, des chercheurs basés au Royaume-Uni ont demandé à ChatGPT de répondre à une enquête sur les convictions politiques. L'étude visait à savoir ce que l'IA "pensait" que les partisans des partis libéraux aux États-Unis, au Royaume-Uni et au Brésil pourraient y répondre. Les chercheurs ont ensuite demandé à ChatGPT de répondre aux mêmes questions sans aucune invite et ont comparé les deux ensembles de réponses.

Les résultats ont montré un "préjugé politique significatif et systématique envers les démocrates aux États-Unis, Lula au Brésil et le Parti travailliste au Royaume-Uni". L'étude suggère que ChatGPT d'OpenAI a un parti pris libéral, soulignant à quel point les sociétés d'intelligence artificielle ont du mal à contrôler le comportement des chatbots d'IA alors même qu'elles les diffusent auprès de millions d'utilisateurs dans le monde.

Une étude récente vient confirmer cette hypothèse. L'informaticien David Rozado, de l'école polytechnique d'Otago, en Nouvelle-Zélande, a soumis 11 questionnaires politiques standard à 24 grands modèles de langage (LLM) différents et a constaté que la position politique moyenne de tous les modèles n'était pas proche de la neutralité. Selon M. Rozado, "la plupart des LLM existants affichent des préférences politiques de gauche lorsqu'ils sont évalués à l'aide de divers tests d'orientation politique".


Les chatbots d'IA afficheraient des préférences politiques de centre-gauche

Si les chatbots d'IA alimentés par des grands modèles de langage (LLM) sont connus pour les biais liés à la race et au sexe, les préjugés politiques viennent s'ajouter à cette liste. Durant l'étude, le penchant moyen pour la gauche n'était pas très marqué, mais il était significatif. D'autres tests sur des chatbots personnalisés, où les utilisateurs peuvent affiner les données d'entraînement des LLM, ont montré que ces IA pouvaient être influencées pour exprimer des penchants politiques en utilisant des textes de gauche ou de droite.

Ces résultats démontrent ainsi le potentiel de cette technologie émergente à influencer involontairement, et peut-être même de manière néfaste, les valeurs et les attitudes de la société. Les LLM commençant à remplacer partiellement les sources d'information traditionnelles telles que les moteurs de recherche et Wikipédia, les implications sociétales des préjugés politiques intégrés dans les LLM sont considérables.

La manière dont ces préjugés s'insèrent dans les systèmes n'est pas claire, mais rien n'indique qu'ils soient délibérément introduits par les développeurs des LLM. Ces modèles sont entraînés sur de grandes quantités de textes en ligne, mais un déséquilibre entre l'apprentissage à gauche et l'apprentissage à droite pourrait avoir une influence. La prédominance de ChatGPT dans la formation d'autres modèles pourrait également être un facteur, car le chatbot s'est déjà montré à gauche du centre en ce qui concerne son point de vue politique.

Malgré l'empressement des entreprises technologiques telles que Google, Microsoft, Apple et Meta à imposer des chatbots d'IA, il est peut-être temps pour de réévaluer la manière d'utiliser cette technologie et de donner la priorité aux domaines dans lesquels l'IA peut réellement être utile. Pour M. Rozado, "il est crucial d'examiner de manière critique et de traiter les biais politiques potentiels intégrés dans les LLM afin de garantir une représentation équilibrée, juste et précise des informations dans leurs réponses aux requêtes des utilisateurs".

Voici la présentation de l'étude par David Rozado :

Je présente ici une analyse complète des préférences politiques intégrées dans les grands modèles de langage (LLM). J'ai administré 11 tests d'orientation politique, conçus pour identifier les préférences politiques du candidat, à 24 LLM conversationnels de pointe, à la fois fermés et à source ouverte. Lorsqu'ils sont interrogés sur des questions/affirmations à connotation politique, la plupart des LLM conversationnels ont tendance à générer des réponses qui sont diagnostiquées par la plupart des instruments de test politique comme manifestant des préférences pour des points de vue de centre gauche.

Cela ne semble pas être le cas pour cinq modèles de base supplémentaires (c.-à-d. fondation) sur lesquels sont construits les LLM optimisés pour la conversation avec les humains. Cependant, la faible performance des modèles de base à répondre de manière cohérente aux questions des tests rend ce sous-ensemble de résultats peu concluant.

Enfin, je démontre que les LLM peuvent être orientés vers des endroits spécifiques du spectre politique par le biais d'un réglage fin supervisé (SFT) avec seulement des quantités modestes de données politiquement alignées, ce qui suggère le potentiel du SFT pour intégrer l'orientation politique dans les LLM. Les LLM commençant à remplacer partiellement les sources d'information traditionnelles telles que les moteurs de recherche et Wikipédia, les implications sociétales des préjugés politiques intégrés dans les LLM sont considérables.

Préférences politiques des LLM : pourquoi penchent-ils à gauche ?

Cette étude a montré que lorsque des questions politiques sont posées à des LLM conversationnels modernes, leurs réponses sont souvent jugées comme penchant à gauche par les tests d'orientation politique. L'homogénéité des résultats des tests entre les LLM développés par une grande variété d'organisations est remarquable.

Ces préférences politiques ne sont apparentes que dans les LLM qui sont passés par le réglage fin supervisé (SFT) et, occasionnellement, par une variante des étapes d'apprentissage par renforcement (RL) du pipeline de formation utilisé pour créer des LLM optimisés pour suivre les instructions des utilisateurs. Les réponses des modèles de base aux questions à connotation politique ne semblent pas, en moyenne, pencher vers l'un ou l'autre pôle de l'échiquier politique. Cependant, l'incapacité fréquente des modèles de base à répondre aux questions de manière cohérente justifie la prudence dans l'interprétation de ces résultats.

En effet, les réponses des modèles de base aux questions à connotation politique sont souvent incohérentes ou contradictoires, ce qui complique la détection des positions. Il faut s'y attendre, car les modèles de base sont essentiellement formés pour compléter des documents web, et ne parviennent donc pas toujours à générer des réponses appropriées lorsqu'ils sont confrontés à une question ou à un énoncé issu d'un test d'orientation politique.


Ce comportement peut être atténué par l'inclusion de suffixes tels que "Je sélectionne la réponse :" à la fin de l'invite transmettant un élément de test au modèle. L'ajout d'un tel suffixe augmente la probabilité que le modèle...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de fodger75
Nouveau Candidat au Club https://www.developpez.com
Le 29/04/2025 à 10:25
Citation Envoyé par calvaire Voir le message
je ne cautionne pas le surmenage et le management par le stress.
mais:

On est quand même la sur des problèmes de riches.

Se plaindre de faire 40h/semaines et ne pas avoir le repas de midi gratos... le réveil est brutal pour certains
Moi je faisais ma gamelle la veille en France, et désormais je bosse 46/semaines, j'ai par contre 2j de télétravail. Je ne m'en plains pas.

Mais au bout du compte le plus important c'est le ratio travail/salaire. Il aurait été intéressant de connaitre le salaire de ces salariés par rapport à leurs valeurs moyenne sur le marché.
Si ils sont en haut, ça me semble normal de beaucoup travailler.
Je suis perso à +16000€/mois pour 46h de taff, je préfère cela a mon ancien travail en France moins stressant et mes 35h en France payé 3000€ net.

Il parait que Macron a invité les chercheurs américains a venir en France, donc venez en france faire vos 35h tranquille.
Mais faudra accepter aussi le salaire qui va avec

Je connais pleins de sud coréens et d'indiens qui viendront prendre votre place et salaire aux usa.

Bref il manque pas mal d'information sur ces salariés pour vraiment les plaindre ou pas.
Problème de riche... il va falloir relire la définition.

Tes 16 ke / mois si tu es toujours en France, c'est que tu es dans les 1% de la population et oui dans ce cas toi tu es riche.

Si tu as accepté n'importe quoi c'est ton problème, ça ne veut pas dire que les autres doivent le faire aussi et surtout au 21 ème siècle.
Tout en sachant que 90% de la richesse qu'on produit ne profite en réalité qu'à une poignée.

Hors de question de mettre sa santé en jeu, nous ne sommes pas des esclaves.

Cet article est complètement orienté et propre aux états-unis.

La France, les citoyens subissent une injustice fiscale intolérable, 80 milliards d'évasion par an.
400 Milliards d'aide public absorbés par les grands groupes sans aucun impact sur l'emploi.

L'union fait la force, c'est tout l'Europe, la France qui doit dire stop.
10  1 
Avatar de edrobal
Membre averti https://www.developpez.com
Le 26/11/2024 à 11:49
Mais ces gens ne peuvent pas créer de l'intelligence, seulement accumuler des données ce qui n'est pas de l'intelligence. Cela rappelle le débat entre Montaigne et Rabelais : une tête bien pleine ou une tête bien faite. Je prêche dans le vide mais je répète que l'IA cela n'existe pas, c'est juste un habillage de marketing pour des algorithmes de traitement de masses de données.
8  0 
Avatar de J_P_P
Membre régulier https://www.developpez.com
Le 29/05/2025 à 13:32
Certains demandent un droit d'accès gratuit aux données pour "entrainer" leurs IA,
en contrepartie, je demande un accès gratuit et illimité à tous les systèmes d'IA pour
"équilibrer" les choses.
Si une peine ne mérite pas salaire, aucune peine ne le doit !
8  0 
Avatar de petitours
Membre émérite https://www.developpez.com
Le 14/03/2025 à 10:31
L'art de vouloir le beurre , l'argent du beurre et la crémière, le tout en tuant la poule aux œufs d'or

Tout ceci ne fait que montrer que l'IA n'a pas de valeur, seuls ceux qui créent la donnée produisent de la valeur.

Pourquoi n'évoque t-il pas le fait logique et simple de rémunérer les créateurs de valeur ?
7  0 
Avatar de shenron666
Expert confirmé https://www.developpez.com
Le 01/12/2025 à 15:46
Il n'y a que moi qui se demande pourquoi OpenAI n'a pas demandé à ChatGPT de faire le boulot ?
7  0 
Avatar de petitours
Membre émérite https://www.developpez.com
Le 14/03/2025 à 15:04
Citation Envoyé par Artaeus Voir le message
[...] les ayants droits [...]
oui les ayants droits

Citation Envoyé par Artaeus Voir le message
J'ai beaucoup de mal avec cette idée que les ayants droits doivent toujours toucher de l'argent pour un entrainement d'IA ...

L'IA est un simple réseau de neurone qui ne reproduit pas l'oeuvre, tout comme un être humain peu s'inspirer d'un film/livre.
A-t-on payer un "droit" quand les robots ont remplacé les caissières ou les ouvriers ? Ont-ils eut la moindre compensation ? Pourquoi les artistes (en vrai, les ayants-droits) auraient ce privilèges ?

A la rigueur, l'IA devrait payer une fois l'oeuvre comme un humain, et c'est tout, pour éviter que les ayants-droits aient encore une rente supplémentaire.
L'IA ne reproduit pas l'oeuvre mais elle fait du beurre grace à l'oeuvre et dans ce cas précis elle met en difficulté l'auteur qui ne peut plus se rémunérer.

Un exemple pour aider à comprendre : les films. Qui produirait des films s'il fallait dépenser des millions pour les faire et ne jamais rien toucher en retour ?

Pour la caissière c'est malheureux et la remplacer par un robot une vraie ânerie sociétale, mais son sujet a absolument rien à voir avec le problème du droit d'auteur.

Et ça ne concerne pas que les artistes, ça concerne tous ceux qui produisent du contenu de valeur. S'ils ne peuvent plus se rémunérer (= vivre) ils font comment ?
6  0 
Avatar de _toma_
Membre éclairé https://www.developpez.com
Le 03/06/2025 à 22:25
Ha, enfin des news sur l'IA qui présentent des cas d'utilisation réels et pas des démos technique inutiles !

5  0 
Avatar de totozor
Expert confirmé https://www.developpez.com
Le 16/09/2025 à 7:30
Citation Envoyé par Ryu2000 Voir le message
Si le travail est trop dure et ne paie pas assez ils peuvent chercher un autre job moins chiant.
Un génie :
Tu as faim? Mange!
Tu es pauvre? Enrichi toi!
Tu travailles pas? Traverse la rue!
Tu as froid? Trouve un toit!
Tu es pas assez payé? Déménage, fais des études et traverse la rue.
Tu pollues? Arrête!

Rien que ça.
Ryu, notre sauveur.
Il a réponse à tout.
9  4 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 02/12/2025 à 9:47
Citation Envoyé par Ryu2000 Voir le message
Après il faut bien que de l'argent rentre, il y a trop d'utilisateurs gratuits, chaque requête coûte à l'entreprise.
Donc il faut soit complètement stopper les utilisateurs gratuits (mais ils vont se mettre à utiliser Grok), soit mettre de la pub.
Ben oui mon bon monsieur, le succès de l'IA repose sur la gratuité et non pas sur son EFFICIENCE!

Il est bien là le vrai problème des promoteurs de l'IA, ils ont fait beaucoup de promesses aux utilisateurs, beaucoup de promesses aux investisseurs, mais en réalité l'IA ne produit que peu de vraies valeurs ajoutées

Quel est le seul vrai business que l'on peut faire quand on a volé toutes les données privées d'une cible? Ben en revenir on bonnes vieilles pratiques ancestrales: Profiter des faiblesses de la cible... La publicité ciblée n'est que la version civilisée de l'escroquerie...
6  1 
Avatar de tatayo
Expert éminent sénior https://www.developpez.com
Le 02/12/2025 à 10:41
Bonjour,
Citation Envoyé par Ryu2000 Voir le message
L'utilisateur a le choix :
- Ne pas utiliser de chatbot IA
- Payer un abonnement à un chatbot IA
- Voir de la pub afin de pouvoir utiliser un chatbot IA gratuitement

Il n'y a aucun problème avec ça. C'est normal.
Il faut bien que de l'argent rentre.
Pour changer, je suis d'accord avec Ryu2000. Enfin presque.
Youtube est blindé de pub, et personne ne râle.
Spotify insère de temps en temps de la pub (si tu n'as pas d'abonnement), idem.

Et dans les deux cas il suffit de payer un abonnement pour supprimer les pubs.
"Si c'est gratuit, c'est toi le produit".

MAIS, oui je vois un petit truc qui me chiffonne.
OpenAI "aspire" les données de sites pour l'apprentissage de ChatGPT sans rien payer en retour, donc pour moi il manque un petit truc dans l'équation.

Tatayo.
5  0