
Les éditeurs de Wikipédia ont rejeté la proposition du cofondateur Jimmy Wales d'intégrer des outils d'IA tels que ChatGPT dans la révision des articles, invoquant des manquements en matière de neutralité, de vérifiabilité et de sourcing. Cela reflète la résistance persistante à l'égard des contenus générés par l'IA, notamment les politiques contre les « slops ». Cette position souligne l'engagement de Wikipédia en faveur d'un savoir vérifié par des humains, ce qui pourrait influencer d'autres plateformes.
Début mai, Wikipédia a annoncé utiliser l'intelligence artificielle (IA) pour améliorer le travail de ses rédacteurs et de ses bénévoles, tout en affirmant qu'elle n'a pas l'intention de remplacer ces rôles humains. La Fondation Wikimedia prévoyait d'utiliser l'IA pour automatiser les tâches fastidieuses, améliorer la recherche d'informations, faciliter les traductions et aider à l'intégration des nouveaux bénévoles.
Mais dans un revirement surprenant qui souligne les tensions persistantes entre l'IA et les connaissances vérifiées par des humains, la communauté des éditeurs de Wikipédia a fermement rejeté une proposition du cofondateur Jimmy Wales visant à intégrer des outils d'IA tels que ChatGPT dans le processus de révision des articles. Cette décision a été prise après que Wales ait testé l'IA sur un projet d'article concernant une entité fictive, pour finalement découvrir que ChatGPT ne respectait pas les politiques fondamentales de Wikipédia en matière de neutralité, de vérifiabilité et de fiabilité des sources. Cet incident, détaillé dans un récent rapport de 404 Media, met en évidence la position prudente de la plateforme à l'égard de l'IA générative, alors même que les passionnés de technologie poussent à son intégration.
Wales, qui défend depuis longtemps le modèle d'édition ouverte de Wikipédia, a partagé son expérience sur les forums de discussion de la plateforme, suggérant que l'IA pourrait aider à signaler des problèmes tels que les biais ou les erreurs factuelles. Cependant, les éditeurs ont rapidement disséqué les résultats de l'IA, soulignant des hallucinations, c'est-à-dire des cas où ChatGPT a inventé des sources ou déformé des faits. Un éditeur a noté que les réponses de l'outil étaient « truffées d'erreurs », ce qui contredit directement la règle de Wikipédia interdisant les recherches originales. Cette réaction négative fait écho à des préoccupations plus larges au sein de la communauté, où l'IA est considérée non pas comme un collaborateur, mais comme une source potentielle de désinformation.
Alors que Wikipédia est confrontée à l'afflux de contenus générés par l'IA, ce rejet rappelle de manière frappante les limites de cette technologie. Les éditeurs affirment que des outils tels que ChatGPT privilégient la fluidité à l'exactitude, inventant souvent des détails qui pourraient nuire à la crédibilité de l'encyclopédie s'ils n'étaient pas rigoureusement vérifiés par des humains.
Ce rejet s'inscrit dans le cadre des récentes mises à jour de la politique de Wikipédia visant à lutter contre les « slops » de l'IA, c'est-à-dire les articles de mauvaise qualité générés par des machines qui inondent le site. En août 2025, la communauté a adopté un critère de « suppression rapide » connu sous le nom de G15, permettant de supprimer rapidement ce type de contenu sans longs débats. Cette mesure était une réponse directe à la prolifération des outils d'IA, les éditeurs citant des exemples où ChatGPT produisait des articles qui enfreignaient les directives de base, comme citer des références inexistantes ou introduire des biais subtils.
De plus, ce n'est pas la première fois que Wikipédia freine les initiatives en matière d'IA. Deux mois auparavant, en juin 2025, la Fondation Wikimedia avait suspendu un essai de résumés d'articles générés par l'IA à la suite d'une opposition véhémente des éditeurs. Cette fonctionnalité a été critiquée pour son potentiel à nuire à l'esprit de collaboration de la plateforme, un éditeur avertissant qu'elle pourrait « causer un préjudice immédiat et irréversible à nos lecteurs et à notre réputation ». La fondation avait prévu de tester les résumés sur 10 % des visiteurs mobiles, mais le tollé de la communauté a conduit à un arrêt brutal.
Cette résistance révèle un clivage philosophique plus profond : les rédacteurs bénévoles de Wikipédia considèrent l'IA comme contraire à la mission du site, qui consiste à fournir des informations vérifiables et validées par des humains, craignant que l'automatisation ne centralise le contrôle et n'introduise des erreurs non vérifiées dans une ressource à laquelle font confiance des millions de personnes dans le monde entier.
Les initiés du secteur considèrent cela comme faisant partie d'une remise en question plus large de l'IA dans la création de contenu. Les publications sur X (anciennement Twitter) ont amplifié le sentiment de scepticisme, les utilisateurs soulignant les échecs de ChatGPT dans des tâches élémentaires telles que la vérification précise des faits ou le respect des politiques, bien que ces anecdotes soulignent la méfiance du public plutôt que des preuves définitives. Par ailleurs, Mashable a rendu compte de la pause de juin, soulignant la révolte des éditeurs contre ce qu'ils percevaient comme une menace pour les valeurs fondamentales de Wikipédia, à savoir la transparence et l'exactitude collective.
Pour Wikipédia, qui compte sur plus de 100 000 éditeurs actifs pour maintenir ses plus de 6 millions d'articles en anglais, le rejet de la proposition de Wales renforce l'approche axée sur l'humain. Cependant, à mesure que l'IA évolue, la plateforme pourrait être soumise à une pression croissante pour s'adapter. Wales lui-même a reconnu les défauts de l'outil, mais reste optimiste quant à des applications perfectionnées, selon l'article de 404 Media. Néanmoins, le rejet rapide des éditeurs suggère que toute intégration de l'IA nécessitera des tests rigoureux et l'adhésion de la communauté afin d'éviter d'aliéner ceux-là mêmes qui ont construit la plus grande encyclopédie du monde.
À l'avenir, la position de Wikipédia pourrait influencer d'autres plateformes de connaissances, en soulignant que si l'IA offre une certaine efficacité, elle ne doit pas compromettre les principes fondamentaux de fiabilité et de neutralité qui définissent les sources d'information dignes de confiance à l'ère numérique.
Cet épisode soulève également des questions quant à la capacité de l'IA à assumer des rôles à haut risque. Des tests ont montré que ChatGPT a eu du mal à accomplir des tâches nécessitant une compréhension nuancée, telles que la détection des violations de politique, ce qui confirme les inquiétudes des éditeurs. Alors que le débat se poursuit, le modèle de résistance de Wikipédia pourrait servir de modèle à d'autres organisations qui naviguent entre les promesses et les pièges de l'IA générative.
En outre, les républicains membres de la commission de surveillance et de réforme du gouvernement de la Chambre des représentants ont ouvert une enquête sur des allégations d'efforts organisés visant à introduire des biais dans les articles de Wikipédia et les réponses de l'organisation. Le président James Comer (R-Ky.) et la représentante Nancy Mace (R-S.C.), présidente de la sous-commission sur la cybersécurité, les technologies de l'information et l'innovation gouvernementale, ont envoyé une demande d'informations à ce sujet à Maryana Iskander, directrice générale de la Wikimedia Foundation, l'organisation à but non lucratif qui héberge Wikipédia.
Les législateurs ont demandé des informations sur « les outils et les méthodes utilisés par Wikipédia pour identifier et mettre fin aux comportements malveillants en ligne qui introduisent des biais et compromettent la neutralité de sa plateforme », notamment des documents et des archives sur une éventuelle coordination entre des acteurs étatiques dans le cadre de l'édition, le type de comptes qui ont fait l'objet d'un examen et l'analyse par le panel de la manipulation ou du biais des données.
Sources : Wikipedia, 404 Media
Et vous ?


Voir aussi :



Vous avez lu gratuitement 1 173 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.