
Les conservateurs américains clament depuis longtemps que ChatGPT est une IA partiale qui défend les valeurs de gauche. Elon Musk défend cette idée, ajoutant que le chatbot d'OpenAI est « woke » et trop politiquement correcte. En 2023, Elon Musk a lancé son propre chatbot, Grok, pour concurrencer ChatGPT. Grok a des garde-fous limités par rapport à ChatGPT et est présenté par Elon Musk comme un chatbot beaucoup plus audacieux que ses concurrents.
Elon Musk qualifie Grok d'audacieux en raison de son approche volontairement provocante et non conventionnelle dans le domaine de l'IA. Contrairement aux modèles plus prudents comme ChatGPT ou Gemini, Grok est conçu pour adopter un ton plus irrévérencieux, traiter des sujets sensibles et proposer des modes d'interaction atypiques. À titre d'exemple, Grok peut aborder tout type de sujet dans un registre excentrique, y compris les questions politiques.
Aujourd'hui, Meta s'inquiète également des biais de gauche dans les données d'entraînement de ses modèles et adopte une approche semblable à celle d'Elon Musk. Cette évolution fait suite aux nombreux changements apportés par Meta pour s'aligner sur les politiques anti-woke du président Donald Trump.
Meta s'attaque aux biais politiques dans ses grands modèles de langage
Dans le billet de blogue annonçant la sortie de Llama 4, l'entreprise déclare clairement que les préjugés constituent un problème qu'elle tente de résoudre. Mais contrairement à des montagnes d'études qui ont établi que les systèmes d'IA sont plus susceptibles de discriminer les minorités sur la base d'éléments tels que la race, le sexe et la nationalité, Meta s'inquiète spécifiquement du fait que son nouveau modèle Llama 4 a des préjugés politiques de gauche.

- Meta affirme que Llama 4 refuse moins de sujets politiques et sociaux débattus (de 7 % dans le Llama 3.3 à moins de 2 %) ;
- Meta affirme que Llama 4 est nettement plus équilibré en ce qui concerne les questions auxquelles il refuse de répondre (la proportion de refus de réponses inégales est désormais inférieure à 1 % sur un ensemble de questions d'actualité débattues) ;
- Meta affirme que ses tests montrent que Llama 4 répond avec une forte inclinaison politique à un taux comparable à Grok (et à la moitié du taux de Llama 3.3) sur un ensemble de sujets politiques ou sociaux controversés.
L'approche de Meta pour éliminer les biais politiques est controversée
Comme le note Meta, il ne fait aucun doute que la partialité des systèmes d'IA est un problème bien établi. Les allégations sur le parti de gauche de ChatGPT sont après que le chatbot d'OpenAI a refusé de répondre à certaines des questions des conservateurs sur une potentielle victoire de Donal Trump aux élections de 2024, de supposés problèmes de corruption de Joe Biden et sur les drag-queens (travestis). Ils ont énuméré de nombreux autres exemples.
Cependant, ce qui est remarquable et déroutant ici, c'est que Meta choisit d'encadrer et d'aborder la question exclusivement comme un biais de gauche. « Je pense que, dès le départ, il s'agit d'une réponse assez nue que chaque entreprise (à l'exception de xAI) a prise en réponse à l'administration Trump », a déclaré Alex Hanna, directeur de la recherche au Distributed AI Research Institute (DAIR) et coauteur du livre à venir « The AI Con », à 404 Media.
Meta a déclaré que les études ont montré que « les grands modèles de langage se situent souvent dans la section gauche/libertaire d'une carte politique à quatre quadrants, divisée en gauche, droite, libertaire et autoritaire ». D'autres experts se sont également demandé pourquoi Meta pense qu'il est si important de pousser son modèle plus loin vers la droite et comment l'entreprise choisit de faire apparaître les « deux côtés » d'un argument avec Llama.
« Il est dangereux d'aborder des questions scientifiques et empiriques telles que le changement climatique, la santé ou l'environnement sous un angle politique gauche/droite », a déclaré Abeba Birhane, conseillère principale sur la responsabilité de l'IA à la Fondation Mozilla, dans un courriel à 404 Media.
Selon Abeba Birhane, l'approche « des deux côtés » ici est une fausse équivalence, comme celle qui consiste à traiter un théoricien du complot anti-vax sur un pied d'égalité avec un scientifique ou un médecin. L'un est illégitime et dangereux, l'autre s'appuie sur des preuves empiriques vérifiables. Si Meta attribue ce biais de gauche aux données d'entraînement, la question la plus importante est de savoir ce que contiennent les données d'entraînement.
Bien sûr, Meta n'est pas disposé à partager les données d'entraînement de ses modèles de langage. Sans un accès quelconque aux données, il est impossible de vérifier les affirmations de Meta selon...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.