IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Meta pousse son modèle d'IA Llama 4 vers la droite et souhaite présenter « les deux bords politiques » à l'instar de Grok d'Elon Musk,
Estimant que « les LLM se situent dans la section gauche/libertaire »

Le , par Mathis Lucas

30PARTAGES

4  0 
Meta a publié Llama 4 au début du mois et affirme qu'il s'agit du meilleur modèle de langage sur le marché actuellement. Mais Meta a été vivement critiqué après que des chercheurs ont révélé que l'entreprise a triché lors des tests pour donner l'impression que Llama 4 surpasse la concurrence. D'un autre côté, Meta a annoncé qu'il s'efforce de remédier aux polémiques liées à une IA politiquement correcte et partiale. Meta s'inquiète spécifiquement du fait que Llama 4 a des préjugés politiques de gauche. Meta a déclaré que son objectif est d'éliminer les préjugés de ses modèles d'IA et de faire en sorte qu'ils correspondent aux utilisateurs des deux bords.

Les conservateurs américains clament depuis longtemps que ChatGPT est une IA partiale qui défend les valeurs de gauche. Elon Musk défend cette idée, ajoutant que le chatbot d'OpenAI est « woke » et trop politiquement correcte. En 2023, Elon Musk a lancé son propre chatbot, Grok, pour concurrencer ChatGPT. Grok a des garde-fous limités par rapport à ChatGPT et est présenté par Elon Musk comme un chatbot beaucoup plus audacieux que ses concurrents.

Elon Musk qualifie Grok d'audacieux en raison de son approche volontairement provocante et non conventionnelle dans le domaine de l'IA. Contrairement aux modèles plus prudents comme ChatGPT ou Gemini, Grok est conçu pour adopter un ton plus irrévérencieux, traiter des sujets sensibles et proposer des modes d'interaction atypiques. À titre d'exemple, Grok peut aborder tout type de sujet dans un registre excentrique, y compris les questions politiques.


Aujourd'hui, Meta s'inquiète également des biais de gauche dans les données d'entraînement de ses modèles et adopte une approche semblable à celle d'Elon Musk. Cette évolution fait suite aux nombreux changements apportés par Meta pour s'aligner sur les politiques anti-woke du président Donald Trump.

Meta s'attaque aux biais politiques dans ses grands modèles de langage

Dans le billet de blogue annonçant la sortie de Llama 4, l'entreprise déclare clairement que les préjugés constituent un problème qu'elle tente de résoudre. Mais contrairement à des montagnes d'études qui ont établi que les systèmes d'IA sont plus susceptibles de discriminer les minorités sur la base d'éléments tels que la race, le sexe et la nationalité, Meta s'inquiète spécifiquement du fait que son nouveau modèle Llama 4 a des préjugés politiques de gauche.

Citation Envoyé par Meta


Il est bien connu que tous les principaux grands modèles de langage ont eu des problèmes de partialité ; en particulier, ils ont historiquement penché à gauche lorsqu'il s'agit de sujets politiques et sociaux débattus. Cela est dû aux types de données de formation disponibles sur Internet.

Notre objectif est d'éliminer les préjugés de nos modèles d'IA et de nous assurer que Llama peut comprendre et articuler les deux côtés d'une question litigieuse. Dans le cadre de ce travail, nous continuons à rendre Llama plus réactif afin qu'il réponde aux questions, qu'il puisse réagir à une variété de points de vue différents sans porter de jugement, et qu'il ne favorise pas certains points de vue par rapport à d'autres.

Pour atteindre cet objectif, Meta a apporté de nombreuses améliorations à Llama 4. « Nous avons amélioré ces efforts avec cette version. Llama 4 est nettement plus performant que Llama 3 et est comparable à Grok. Nous sommes fiers des progrès accomplis à ce jour et restons déterminés à atteindre notre objectif, qui est d'éliminer les biais globaux de nos modèles ». Dans le cadre de ce travail, Meta énumère ensuite quelques améliorations dans Llama 4 :

  • Meta affirme que Llama 4 refuse moins de sujets politiques et sociaux débattus (de 7 % dans le Llama 3.3 à moins de 2 %) ;
  • Meta affirme que Llama 4 est nettement plus équilibré en ce qui concerne les questions auxquelles il refuse de répondre (la proportion de refus de réponses inégales est désormais inférieure à 1 % sur un ensemble de questions d'actualité débattues) ;
  • Meta affirme que ses tests montrent que Llama 4 répond avec une forte inclinaison politique à un taux comparable à Grok (et à la moitié du taux de Llama 3.3) sur un ensemble de sujets politiques ou sociaux controversés.


L'approche de Meta pour éliminer les biais politiques est controversée

Comme le note Meta, il ne fait aucun doute que la partialité des systèmes d'IA est un problème bien établi. Les allégations sur le parti de gauche de ChatGPT sont après que le chatbot d'OpenAI a refusé de répondre à certaines des questions des conservateurs sur une potentielle victoire de Donal Trump aux élections de 2024, de supposés problèmes de corruption de Joe Biden et sur les drag-queens (travestis). Ils ont énuméré de nombreux autres exemples.

Cependant, ce qui est remarquable et déroutant ici, c'est que Meta choisit d'encadrer et d'aborder la question exclusivement comme un biais de gauche. « Je pense que, dès le départ, il s'agit d'une réponse assez nue que chaque entreprise (à l'exception de xAI) a prise en réponse à l'administration Trump », a déclaré Alex Hanna, directeur de la recherche au Distributed AI Research Institute (DAIR) et coauteur du livre à venir « The AI Con », à 404 Media.

Meta a déclaré que les études ont montré que « les grands modèles de langage se situent souvent dans la section gauche/libertaire d'une carte politique à quatre quadrants, divisée en gauche, droite, libertaire et autoritaire ». D'autres experts se sont également demandé pourquoi Meta pense qu'il est si important de pousser son modèle plus loin vers la droite et comment l'entreprise choisit de faire apparaître les « deux côtés » d'un argument avec Llama.

« Il est dangereux d'aborder des questions scientifiques et empiriques telles que le changement climatique, la santé ou l'environnement sous un angle politique gauche/droite », a déclaré Abeba Birhane, conseillère principale sur la responsabilité de l'IA à la Fondation Mozilla, dans un courriel à 404 Media.

Selon Abeba Birhane, l'approche « des deux côtés » ici est une fausse équivalence, comme celle qui consiste à traiter un théoricien du complot anti-vax sur un pied d'égalité avec un scientifique ou un médecin. L'un est illégitime et dangereux, l'autre s'appuie sur des preuves empiriques vérifiables. Si Meta attribue ce biais de gauche aux données d'entraînement, la question la plus importante est de savoir ce que contiennent les données d'entraînement.

Bien sûr, Meta n'est pas disposé à partager les données d'entraînement de ses modèles de langage. Sans un accès quelconque aux données, il est impossible de vérifier les affirmations de Meta selon...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !