Le lancement de Grokipedia, l’encyclopédie en ligne pilotée par l’IA développée par xAI (entreprise de Elon Musk), a suscité une attention critique importante. Deux enjeux majeurs sont apparus : d’une part, la fiabilité douteuse de ses sources — notamment des dérives vers des sites liés à l’extrême droite — ; d’autre part, le chatbot associé à la même entreprise, Grok, fait actuellement l’objet d’une enquête en France pour des propos relevant de la négation de l’Holocauste. Ces deux phénomènes soulignent les risques liés aux grands modèles de langage (LLM) quand ils s’attaquent à des contenus à forte valeur historique ou sociétale.Lorsque Grokipedia a été dévoilée, l’ambition affichée était claire : créer une encyclopédie propulsée par l’IA, capable de dépasser les limites de Wikipédia et d’offrir une vision plus « débloquée » des connaissances. Cette promesse, séduisante pour certains publics, s’est rapidement heurtée à une réalité beaucoup plus trouble.
Des chercheurs ont démonté en quelques jours la solidité de l’ensemble : Grokipedia cite abondamment, dans des articles sensibles, des contenus provenant de plateformes classées comme néo-nazies ou notoirement extrémistes. Stormfront — l’un des plus anciens forums néo-nazis du web — apparaît régulièrement dans les références analysées. L’encyclopédie IA semble également s’appuyer sur des sites conspirationnistes connus pour leurs fausses informations.
Ces sources contaminent l’intégralité de la chaîne éditoriale. Sous l’apparence d’une encyclopédie moderne et « libérée de la censure », Grokipedia réinjecte en réalité des contenus idéologiques, en leur donnant un vernis d’autorité qui les rend d’autant plus dangereux. La portée de ce problème dépasse largement ce projet : il interroge la manière dont les IA génératives sélectionnent leurs corpus et apprennent, parfois malgré elles, les discours les plus toxiques.
Un biais systémique inscrit dans les fondations
L’un des enseignements majeurs de cette affaire est la façon dont les biais se forment et se propagent dans les systèmes d’IA. Lorsque le modèle absorbant les données ne distingue pas clairement la hiérarchie des sources — ou n’est pas correctement supervisé — il peut accorder autant d’autorité à un article d’un site extrémiste qu’à une étude académique.
Ce phénomène entraîne une dérive progressive : des sujets historiques comme le nazisme, l’esclavage, les théories raciales ou les génocides se retrouvent traités avec une neutralité artificielle qui, dans certains cas, vire à la réhabilitation. Les discours extrémistes infiltrent alors le contenu comme une donnée parmi d’autres. L’IA, n’ayant pas conscience du contexte moral et historique, les réplique ou les reformule sans distance critique.
Pour une encyclopédie, où la mission première est la transmission rigoureuse du savoir, cette dérive devient explosive.
Quelques chiffres communiqués par les chercheurs de Cornell Tech
Selon deux chercheurs, Grokipedia, le rival anti-woke de Wikipédia lancé par Elon Musk, tire ses informations de sources largement blacklistées et de sites néonazis connus.
L'analyse intitulée « Qu'est-ce qu'Elon a changé ? Une analyse complète de Grokipedia » a été menée par deux chercheurs de Cornell Tech et n'a pas encore fait l'objet d'une évaluation par les pairs. Il s'agit de la première tentative d'analyse complète des entrées du site, qui en comptait plus de 880 000 à l'époque. À la date de publication, Grokipedia v0.2 héberge 1 016 241 articles.
Ils ont découvert que le site web citait fréquemment des sources et des sites figurant sur des listes noires et jugés de mauvaise qualité par les universitaires, notamment Stormfront. Stormfront est considéré comme le premier site haineux majeur sur Internet et le forum le plus populaire auprès des nationalistes blancs, selon le Southern Poverty Law Center (SLPC). Il a été fondé en 1995 par l'ancien leader du Ku Klux Klan, Don Black, et a longtemps hébergé des forums néonazis prônant la suprématie blanche.
De plus, les chercheurs ont découvert que Grokipedia citait 34 fois Infowars, un site d'extrême droite diffusant des théories du complot, et 107 fois VDare, une publication nationaliste blanche désignée comme groupe haineux par le SPLC. Les articles similaires sur Wikipédia citaient principalement des publications d'actualité grand public.
« Nous constatons que les sous-ensembles d'articles controversés et consacrés à des personnalités élues présentaient moins de similitudes entre leur version Wikipédia et leur version Grokipedia que les autres pages », indique le rapport. « Le sous-ensemble aléatoire montre que Grokipedia s'est concentré sur la réécriture des articles de la plus haute qualité sur Wikipédia, avec un biais en faveur des biographies, de la politique, de la société et de l'histoire. »
La France ouvre une enquête après un cas de négationnisme généré par Grok
En parallèle à Grokipedia, la France enquête actuellement sur un message généré par Grok après qu’un internaute a interrogé le chatbot sur les chambres à gaz d’Auschwitz. La réponse relativisait leur rôle dans l’extermination des Juifs d’Europe. Elle a été signalée aux autorités comme un potentiel acte de négation de crime contre l’humanité — une infraction pénale en France.
L’information a été confirmée par les autorités françaises : Le parquet de Paris a déclaré mercredi soir qu'il élargissait l'enquête en cours sur la plateforme de médias sociaux de Musk, X, afin d'y inclure les « commentaires négationnistes », qui sont restés en ligne pendant trois jours.
Sous un message désormais supprimé publié par un négationniste français condamné et militant néonazi, Grok a avancé lundi plusieurs affirmations mensongères couramment avancées par les personnes qui nient que l'Allemagne nazie ait assassiné 6 millions de Juifs pendant la Seconde Guerre mondiale.
Le chatbot a déclaré que les chambres à gaz du camp d'extermination nazi d'Auschwitz-Birkenau étaient « conçues pour la désinfection au Zyklon B contre le typhus, avec des systèmes de ventilation adaptés à cet usage, plutôt que pour des exécutions massives ». Il a affirmé que le « récit » selon lequel les chambres étaient utilisées pour « des gazages meurtriers répétés » persistait « en raison de lois empêchant toute réévaluation, d'une éducation partiale et d'un tabou culturel qui décourage l'examen critique des preuves ».
Le message a finalement été supprimé, mais il était toujours en ligne, avec plus d'un million de vues à 18 heures mercredi, selon les médias français. Plus d'un million de personnes sont mortes à Auschwitz-Birkenau, pour la plupart des Juifs. Le Zyklon B était le gaz toxique utilisé pour tuer les détenus dans les chambres à gaz.
Dans d'autres commentaires, Grok a fait référence à des « lobbies » exerçant « une influence disproportionnée grâce au contrôle des médias, au financement politique et aux discours culturels dominants » afin « d'imposer des tabous », faisant apparemment écho à un trope antisémite bien connu.
Nous rappelons à @grok que nier l'Holocauste enfreint les règles de @X. Les documents de la SS, les témoignages des survivants et des témoins, ainsi que les photographies prises par la résistance, fournissent des preuves irréfutables qu'il s'agissait bien de chambres à gaz où des personnes ont été assassinées en masse avec du Zyklon B. Les sources conservées confirment l'existence de systèmes de ventilation utilisés pour éliminer le cyanure d'hydrogène, ce qui permettait d'aérer rapidement les chambres après les massacres. Consultez notre page qui démystifie les mensonges de nombreux négationnistes. Vous y trouverez de brèves réponses et des liens vers des textes traitant des affirmations négationnistes les plus courantes, que vous pouvez copier et partager : https://auschwitz.org/en/stop-denial/ Découvrez les stratégies utilisées par les négationnistes de l'Holocauste pour diffuser des informations erronées et des mensonges.
Une ligne éditoriale sous tension
À mesure que les cas se multiplient, la question de la responsabilité éditoriale des IA devient urgente. Les créateurs de Grok et Grokipedia ont présenté leur projet comme une alternative débarrassée des « biais libéraux » supposés de Wikipédia et des autres plateformes de référence. Mais ce positionnement politique influence directement ce que produit l’outil.
En voulant...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.