
estimant que « les LLM se situent dans la section gauche/libertaire »
Meta a publié Llama 4 au début du mois et affirme qu'il s'agit du meilleur modèle de langage sur le marché actuellement. Mais Meta a été vivement critiqué après que des chercheurs ont révélé que l'entreprise a triché lors des tests pour donner l'impression que Llama 4 surpasse la concurrence. D'un autre côté, Meta a annoncé qu'il s'efforce de remédier aux polémiques liées à une IA politiquement correcte et partiale. Meta s'inquiète spécifiquement du fait que Llama 4 a des préjugés politiques de gauche. Meta a déclaré que son objectif est d'éliminer les préjugés de ses modèles d'IA et de faire en sorte qu'ils correspondent aux utilisateurs des deux bords.
Les conservateurs américains clament depuis longtemps que ChatGPT est une IA partiale qui défend les valeurs de gauche. Elon Musk défend cette idée, ajoutant que le chatbot d'OpenAI est « woke » et trop politiquement correcte. En 2023, Elon Musk a lancé son propre chatbot, Grok, pour concurrencer ChatGPT. Grok a des garde-fous limités par rapport à ChatGPT et est présenté par Elon Musk comme un chatbot beaucoup plus audacieux que ses concurrents.
Elon Musk qualifie Grok d'audacieux en raison de son approche volontairement provocante et non conventionnelle dans le domaine de l'IA. Contrairement aux modèles plus prudents comme ChatGPT ou Gemini, Grok est conçu pour adopter un ton plus irrévérencieux, traiter des sujets sensibles et proposer des modes d'interaction atypiques. À titre d'exemple, Grok peut aborder tout type de sujet dans un registre excentrique, y compris les questions politiques.
Aujourd'hui, Meta s'inquiète également des biais de gauche dans les données d'entraînement de ses modèles et adopte une approche semblable à celle d'Elon Musk. Cette évolution fait suite aux nombreux changements apportés par Meta pour s'aligner sur les politiques anti-woke du président Donald Trump.
Meta s'attaque aux biais politiques dans ses grands modèles de langage
Dans le billet de blogue annonçant la sortie de Llama 4, l'entreprise déclare clairement que les préjugés constituent un problème qu'elle tente de résoudre. Mais contrairement à des montagnes d'études qui ont établi que les systèmes d'IA sont plus susceptibles de discriminer les minorités sur la base d'éléments tels que la race, le sexe et la nationalité, Meta s'inquiète spécifiquement du fait que son nouveau modèle Llama 4 a des préjugés politiques de gauche.

- Meta affirme que Llama 4 refuse moins de sujets politiques et sociaux débattus (de 7 % dans le Llama 3.3 à moins de 2 %) ;
- Meta affirme que Llama 4 est nettement plus équilibré en ce qui concerne les questions auxquelles il refuse de répondre (la proportion de refus de réponses inégales est désormais inférieure à 1 % sur un ensemble de questions d'actualité débattues) ;
- Meta affirme que ses tests montrent que Llama 4 répond avec une forte inclinaison politique à un taux comparable à Grok (et à la moitié du taux de Llama 3.3) sur un ensemble de sujets politiques ou sociaux controversés.
L'approche de Meta pour éliminer les biais politiques est controversée
Comme le note Meta, il ne fait aucun doute que la partialité des systèmes d'IA est un problème bien établi. Les allégations sur le parti de gauche de ChatGPT sont après que le chatbot d'OpenAI a refusé de répondre à certaines des questions des conservateurs sur une potentielle victoire de Donal Trump aux élections de 2024, de supposés problèmes de corruption de Joe Biden et sur les drag-queens (travestis). Ils ont énuméré de nombreux autres exemples.
Cependant, ce qui est remarquable et déroutant ici, c'est que Meta choisit d'encadrer et d'aborder la question exclusivement comme un biais de gauche. « Je pense que, dès le départ, il s'agit d'une réponse assez nue que chaque entreprise (à l'exception de xAI) a prise en réponse à l'administration Trump », a déclaré Alex Hanna, directeur de la recherche au Distributed AI Research Institute (DAIR) et coauteur du livre à venir « The AI Con », à 404 Media.
Meta a déclaré que les études ont montré que « les grands modèles de langage se situent souvent dans la section gauche/libertaire d'une carte politique à quatre quadrants, divisée en gauche, droite, libertaire et autoritaire ». D'autres experts se sont également demandé pourquoi Meta pense qu'il est si important de pousser son modèle plus loin vers la droite et comment l'entreprise choisit de faire apparaître les « deux côtés » d'un argument avec Llama.
« Il est dangereux d'aborder des questions scientifiques et empiriques telles que le changement climatique, la santé ou l'environnement sous un angle politique gauche/droite », a déclaré Abeba Birhane, conseillère principale sur la responsabilité de l'IA à la Fondation Mozilla, dans un courriel à 404 Media.
Selon Abeba Birhane, l'approche « des deux côtés » ici est une fausse équivalence, comme celle qui consiste à traiter un théoricien du complot anti-vax sur un pied d'égalité avec un scientifique ou un médecin. L'un est illégitime et dangereux, l'autre s'appuie sur des preuves empiriques vérifiables. Si Meta attribue ce biais de gauche aux données d'entraînement, la question la plus importante est de savoir ce que contiennent les données d'entraînement.
Bien sûr, Meta n'est pas disposé à partager les données d'entraînement de ses modèles de langage. Sans un accès quelconque aux données, il est impossible de vérifier les affirmations de Meta selon lesquelles les données [de l'Internet] sont « de gauche », a déclaré Abeba Birhane, de la Fondation Mozilla.
Le virage à « droite » de Mark Zuckerberg pour plaire à Donald Trump
Depuis l'arrivée de Donald Trump à la Maison Blanche, de nombreuses entreprises américaines ont introduit un certain nombre de changements afin de s'attirer les faveurs de l'administration Trump. Par exemple, Meta et Amazon ont mis fin à leurs programmes de diversité, d'équité et d'inclusion (DEI). Donald Trump considère ses programmes comme de la discrimination et exhorte les entreprises américaines à s'en débarrer. Plusieurs Big Tech ont obéi.
Le PDG de Meta, Mark Zuckerberg, pousse son entreprise et son modèle d'IA vers la droite, d'abord parce qu'il plaît à l'administration actuelle et ensuite parce qu'il se voit en concurrence avec un Elon Musk de plus en plus à l'extrême droite. Meta n'explique pas clairement ce qu'il fait pour atténuer les biais de ses modèles d'IA, ce qui suscite des préoccupations. L'entreprise se contente de dire que Llama est devenu aussi meilleur que Grok sur ces points.
Les experts estiment que sans un accès aux données, il est impossible de vérifier les affirmations de Meta selon lesquelles les données d'Internet sont orientées à gauche. « Même si c'était vrai, je serais prudent en supposant que les données extraites d'Internet reflètent ou correspondent à la réalité. Elles reflètent plutôt les opinions de ceux qui ont accès à [l'Internet]... ceux qui sont connectés numériquement », affirme Abeba Birhane, la Fondation Mozilla.
Source : Meta AI
Et vous ?




Voir aussi



Vous avez lu gratuitement 206 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.