IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Meta pousse son modèle d'IA Llama 4 vers la droite et souhaite présenter « les deux bords politiques » à l'instar de Grok d'Elon Musk,
Estimant que « les LLM se situent dans la section gauche/libertaire »

Le , par Mathis Lucas

35PARTAGES

4  0 
Meta pousse son modèle d'IA Llama 4 vers la droite et souhaite présenter « les deux bords politiques » à l'instar de Grok d'Elon Musk
estimant que « les LLM se situent dans la section gauche/libertaire »

Meta a publié Llama 4 au début du mois et affirme qu'il s'agit du meilleur modèle de langage sur le marché actuellement. Mais Meta a été vivement critiqué après que des chercheurs ont révélé que l'entreprise a triché lors des tests pour donner l'impression que Llama 4 surpasse la concurrence. D'un autre côté, Meta a annoncé qu'il s'efforce de remédier aux polémiques liées à une IA politiquement correcte et partiale. Meta s'inquiète spécifiquement du fait que Llama 4 a des préjugés politiques de gauche. Meta a déclaré que son objectif est d'éliminer les préjugés de ses modèles d'IA et de faire en sorte qu'ils correspondent aux utilisateurs des deux bords.

Les conservateurs américains clament depuis longtemps que ChatGPT est une IA partiale qui défend les valeurs de gauche. Elon Musk défend cette idée, ajoutant que le chatbot d'OpenAI est « woke » et trop politiquement correcte. En 2023, Elon Musk a lancé son propre chatbot, Grok, pour concurrencer ChatGPT. Grok a des garde-fous limités par rapport à ChatGPT et est présenté par Elon Musk comme un chatbot beaucoup plus audacieux que ses concurrents.

Elon Musk qualifie Grok d'audacieux en raison de son approche volontairement provocante et non conventionnelle dans le domaine de l'IA. Contrairement aux modèles plus prudents comme ChatGPT ou Gemini, Grok est conçu pour adopter un ton plus irrévérencieux, traiter des sujets sensibles et proposer des modes d'interaction atypiques. À titre d'exemple, Grok peut aborder tout type de sujet dans un registre excentrique, y compris les questions politiques.


Aujourd'hui, Meta s'inquiète également des biais de gauche dans les données d'entraînement de ses modèles et adopte une approche semblable à celle d'Elon Musk. Cette évolution fait suite aux nombreux changements apportés par Meta pour s'aligner sur les politiques anti-woke du président Donald Trump.

Meta s'attaque aux biais politiques dans ses grands modèles de langage

Dans le billet de blogue annonçant la sortie de Llama 4, l'entreprise déclare clairement que les préjugés constituent un problème qu'elle tente de résoudre. Mais contrairement à des montagnes d'études qui ont établi que les systèmes d'IA sont plus susceptibles de discriminer les minorités sur la base d'éléments tels que la race, le sexe et la nationalité, Meta s'inquiète spécifiquement du fait que son nouveau modèle Llama 4 a des préjugés politiques de gauche.

Citation Envoyé par Meta


Il est bien connu que tous les principaux grands modèles de langage ont eu des problèmes de partialité ; en particulier, ils ont historiquement penché à gauche lorsqu'il s'agit de sujets politiques et sociaux débattus. Cela est dû aux types de données de formation disponibles sur Internet.

Notre objectif est d'éliminer les préjugés de nos modèles d'IA et de nous assurer que Llama peut comprendre et articuler les deux côtés d'une question litigieuse. Dans le cadre de ce travail, nous continuons à rendre Llama plus réactif afin qu'il réponde aux questions, qu'il puisse réagir à une variété de points de vue différents sans porter de jugement, et qu'il ne favorise pas certains points de vue par rapport à d'autres.

Pour atteindre cet objectif, Meta a apporté de nombreuses améliorations à Llama 4. « Nous avons amélioré ces efforts avec cette version. Llama 4 est nettement plus performant que Llama 3 et est comparable à Grok. Nous sommes fiers des progrès accomplis à ce jour et restons déterminés à atteindre notre objectif, qui est d'éliminer les biais globaux de nos modèles ». Dans le cadre de ce travail, Meta énumère ensuite quelques améliorations dans Llama 4 :

  • Meta affirme que Llama 4 refuse moins de sujets politiques et sociaux débattus (de 7 % dans le Llama 3.3 à moins de 2 %) ;
  • Meta affirme que Llama 4 est nettement plus équilibré en ce qui concerne les questions auxquelles il refuse de répondre (la proportion de refus de réponses inégales est désormais inférieure à 1 % sur un ensemble de questions d'actualité débattues) ;
  • Meta affirme que ses tests montrent que Llama 4 répond avec une forte inclinaison politique à un taux comparable à Grok (et à la moitié du taux de Llama 3.3) sur un ensemble de sujets politiques ou sociaux controversés.


L'approche de Meta pour éliminer les biais politiques est controversée

Comme le note Meta, il ne fait aucun doute que la partialité des systèmes d'IA est un problème bien établi. Les allégations sur le parti de gauche de ChatGPT sont après que le chatbot d'OpenAI a refusé de répondre à certaines des questions des conservateurs sur une potentielle victoire de Donal Trump aux élections de 2024, de supposés problèmes de corruption de Joe Biden et sur les drag-queens (travestis). Ils ont énuméré de nombreux autres exemples.

Cependant, ce qui est remarquable et déroutant ici, c'est que Meta choisit d'encadrer et d'aborder la question exclusivement comme un biais de gauche. « Je pense que, dès le départ, il s'agit d'une réponse assez nue que chaque entreprise (à l'exception de xAI) a prise en réponse à l'administration Trump », a déclaré Alex Hanna, directeur de la recherche au Distributed AI Research Institute (DAIR) et coauteur du livre à venir « The AI Con », à 404 Media.

Meta a déclaré que les études ont montré que « les grands modèles de langage se situent souvent dans la section gauche/libertaire d'une carte politique à quatre quadrants, divisée en gauche, droite, libertaire et autoritaire ». D'autres experts se sont également demandé pourquoi Meta pense qu'il est si important de pousser son modèle plus loin vers la droite et comment l'entreprise choisit de faire apparaître les « deux côtés » d'un argument avec Llama.

« Il est dangereux d'aborder des questions scientifiques et empiriques telles que le changement climatique, la santé ou l'environnement sous un angle politique gauche/droite », a déclaré Abeba Birhane, conseillère principale sur la responsabilité de l'IA à la Fondation Mozilla, dans un courriel à 404 Media.

Selon Abeba Birhane, l'approche « des deux côtés » ici est une fausse équivalence, comme celle qui consiste à traiter un théoricien du complot anti-vax sur un pied d'égalité avec un scientifique ou un médecin. L'un est illégitime et dangereux, l'autre s'appuie sur des preuves empiriques vérifiables. Si Meta attribue ce biais de gauche aux données d'entraînement, la question la plus importante est de savoir ce que contiennent les données d'entraînement.

Bien sûr, Meta n'est pas disposé à partager les données d'entraînement de ses modèles de langage. Sans un accès quelconque aux données, il est impossible de vérifier les affirmations de Meta selon lesquelles les données [de l'Internet] sont « de gauche », a déclaré Abeba Birhane, de la Fondation Mozilla.

Le virage à « droite » de Mark Zuckerberg pour plaire à Donald Trump

Depuis l'arrivée de Donald Trump à la Maison Blanche, de nombreuses entreprises américaines ont introduit un certain nombre de changements afin de s'attirer les faveurs de l'administration Trump. Par exemple, Meta et Amazon ont mis fin à leurs programmes de diversité, d'équité et d'inclusion (DEI). Donald Trump considère ses programmes comme de la discrimination et exhorte les entreprises américaines à s'en débarrer. Plusieurs Big Tech ont obéi.

Le PDG de Meta, Mark Zuckerberg, pousse son entreprise et son modèle d'IA vers la droite, d'abord parce qu'il plaît à l'administration actuelle et ensuite parce qu'il se voit en concurrence avec un Elon Musk de plus en plus à l'extrême droite. Meta n'explique pas clairement ce qu'il fait pour atténuer les biais de ses modèles d'IA, ce qui suscite des préoccupations. L'entreprise se contente de dire que Llama est devenu aussi meilleur que Grok sur ces points.

Les experts estiment que sans un accès aux données, il est impossible de vérifier les affirmations de Meta selon lesquelles les données d'Internet sont orientées à gauche. « Même si c'était vrai, je serais prudent en supposant que les données extraites d'Internet reflètent ou correspondent à la réalité. Elles reflètent plutôt les opinions de ceux qui ont accès à [l'Internet]... ceux qui sont connectés numériquement », affirme Abeba Birhane, la Fondation Mozilla.

Source : Meta AI

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous de l'approche de Meta pour éliminer les biais politiques de ses modèles d'IA ?
Meta affirme que les données d'Internet sont majoritairement orientées à gauche. Qu'en pensez-vous ?
Mark Zuckerberg pousse son entreprise et son modèle d'IA vers la droite. Qu'en pensez-vous ?

Voir aussi

Les conservateurs affirment que ChatGPT est devenu "woke" et s'inquiètent à propos de la partialité du chatbot d'OpenAI, ils accusent également le chatbot de défendre les "valeurs de gauche"

Meta a truqué les tests pour donner l'impression que son nouveau modèle d'IA Llama 4 est meilleur que la concurrence, ce qui remet davantage en cause la pertinence des résultats des benchmarks de l'IA

Le nouveau mode vocal « déchaîné » de Grok peut jurer, crier et simuler des relations sexuelles par téléphone. Il fait suite au projet d'Elon Musk de fournir une réponse « non censurée » à ChatGPT d'OpenAI
Vous avez lu gratuitement 206 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !