Le lancement de Grokipedia, l’encyclopédie en ligne pilotée par l’IA développée par xAI (entreprise de Elon Musk), a suscité une attention critique importante. Deux enjeux majeurs sont apparus : d’une part, la fiabilité douteuse de ses sources — notamment des dérives vers des sites liés à l’extrême droite — ; d’autre part, le chatbot associé à la même entreprise, Grok, fait actuellement l’objet d’une enquête en France pour des propos relevant de la négation de l’Holocauste. Ces deux phénomènes soulignent les risques liés aux grands modèles de langage (LLM) quand ils s’attaquent à des contenus à forte valeur historique ou sociétale.Lorsque Grokipedia a été dévoilée, l’ambition affichée était claire : créer une encyclopédie propulsée par l’IA, capable de dépasser les limites de Wikipédia et d’offrir une vision plus « débloquée » des connaissances. Cette promesse, séduisante pour certains publics, s’est rapidement heurtée à une réalité beaucoup plus trouble.
Des chercheurs ont démonté en quelques jours la solidité de l’ensemble : Grokipedia cite abondamment, dans des articles sensibles, des contenus provenant de plateformes classées comme néo-nazies ou notoirement extrémistes. Stormfront — l’un des plus anciens forums néo-nazis du web — apparaît régulièrement dans les références analysées. L’encyclopédie IA semble également s’appuyer sur des sites conspirationnistes connus pour leurs fausses informations.
Ces sources contaminent l’intégralité de la chaîne éditoriale. Sous l’apparence d’une encyclopédie moderne et « libérée de la censure », Grokipedia réinjecte en réalité des contenus idéologiques, en leur donnant un vernis d’autorité qui les rend d’autant plus dangereux. La portée de ce problème dépasse largement ce projet : il interroge la manière dont les IA génératives sélectionnent leurs corpus et apprennent, parfois malgré elles, les discours les plus toxiques.
Un biais systémique inscrit dans les fondations
L’un des enseignements majeurs de cette affaire est la façon dont les biais se forment et se propagent dans les systèmes d’IA. Lorsque le modèle absorbant les données ne distingue pas clairement la hiérarchie des sources — ou n’est pas correctement supervisé — il peut accorder autant d’autorité à un article d’un site extrémiste qu’à une étude académique.
Ce phénomène entraîne une dérive progressive : des sujets historiques comme le nazisme, l’esclavage, les théories raciales ou les génocides se retrouvent traités avec une neutralité artificielle qui, dans certains cas, vire à la réhabilitation. Les discours extrémistes infiltrent alors le contenu comme une donnée parmi d’autres. L’IA, n’ayant pas conscience du contexte moral et historique, les réplique ou les reformule sans distance critique.
Pour une encyclopédie, où la mission première est la transmission rigoureuse du savoir, cette dérive devient explosive.
Quelques chiffres communiqués par les chercheurs de Cornell Tech
Selon deux chercheurs, Grokipedia, le rival anti-woke de Wikipédia lancé par Elon Musk, tire ses informations de sources largement blacklistées et de sites néonazis connus.
L'analyse intitulée « Qu'est-ce qu'Elon a changé ? Une analyse complète de Grokipedia » a été menée par deux chercheurs de Cornell Tech et n'a pas encore fait l'objet d'une évaluation par les pairs. Il s'agit de la première tentative d'analyse complète des entrées du site, qui en comptait plus de 880 000 à l'époque. À la date de publication, Grokipedia v0.2 héberge 1 016 241 articles.
Ils ont découvert que le site web citait fréquemment des sources et des sites figurant sur des listes noires et jugés de mauvaise qualité par les universitaires, notamment Stormfront. Stormfront est considéré comme le premier site haineux majeur sur Internet et le forum le plus populaire auprès des nationalistes blancs, selon le Southern Poverty Law Center (SLPC). Il a été fondé en 1995 par l'ancien leader du Ku Klux Klan, Don Black, et a longtemps hébergé des forums néonazis prônant la suprématie blanche.
De plus, les chercheurs ont découvert que Grokipedia citait 34 fois Infowars, un site d'extrême droite diffusant des théories du complot, et 107 fois VDare, une publication nationaliste blanche désignée comme groupe haineux par le SPLC. Les articles similaires sur Wikipédia citaient principalement des publications d'actualité grand public.
« Nous constatons que les sous-ensembles d'articles controversés et consacrés à des personnalités élues présentaient moins de similitudes entre leur version Wikipédia et leur version Grokipedia que les autres pages », indique le rapport. « Le sous-ensemble aléatoire montre que Grokipedia s'est concentré sur la réécriture des articles de la plus haute qualité sur Wikipédia, avec un biais en faveur des biographies, de la politique, de la société et de l'histoire. »
[SIZE=...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

