IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Citations fantômes, peer review débordé, corpus empoisonnés : comment les LLMs sapent méthodiquement les fondements de la recherche scientifique, citant des études qui n'ont jamais existé

Le , par Stéphane le calme

11PARTAGES

7  0 
Des dizaines de milliers d'articles publiés en 2025 contiendraient des références bibliographiques inventées de toutes pièces par des modèles de langage. Une enquête de Nature et plusieurs analyses indépendantes révèlent l'ampleur d'une contamination silencieuse qui menace les fondements mêmes de la recherche scientifique.

C'est une notification Google Scholar qui a tout déclenché. Guillaume Cabanac, informaticien à l'Université de Toulouse spécialisé dans la détection de publications frauduleuses, découvre début 2026 qu'un article du International Dental Journal le cite (lui, chercheur en intégrité scientifique, dans une revue de dentisterie). La référence ressemblait à un preprint qu'il avait déposé en 2021 et jamais publié formellement, mais le journal mentionné était Nature et le DOI (l'identifiant unique attribué par les éditeurs) ne pointait vers rien de réel. Diagnostic immédiat : une hallucination d'IA.

Anecdote révélatrice, mais loin d'être isolée. Ce que Nature documente dans une enquête publiée le 1er avril 2026 en collaboration avec la société Grounded AI dépasse le simple fait divers académique : c'est une crise systémique qui s'installe dans les coulisses de la production scientifique mondiale.

Des chiffres qui donnent le vertige

L'ampleur du phénomène est difficile à mesurer avec précision, mais les ordres de grandeur qui émergent des différentes analyses disponibles sont éloquents. Une analyse portant sur près de 18 000 communications acceptées dans trois conférences en informatique a révélé une hausse brutale des références impossibles à relier à des publications réelles : 2,6 % des articles de 2025 contenaient au moins une citation potentiellement hallucinée, contre environ 0,3 % en 2024. En un an, le taux a été multiplié par neuf.

L'analyse exclusive conduite par l'équipe journalistique de Nature avec Grounded AI a porté sur plus de 4 000 publications de 2025, couvrant cinq grands éditeurs : Elsevier, Sage, Springer Nature, Taylor & Francis et Wiley. Sur les 100 publications les plus suspectes identifiées par l'outil automatisé, une vérification manuelle a confirmé que 65 d'entre elles contenaient au moins une référence invalide, c'est-à-dire pointant vers une publication qui ne semble tout simplement pas exister.

En extrapolant ce taux aux quelque 7 millions de publications scientifiques parues en 2025, ce sont plus de 110 000 articles qui pourraient contenir des références inventées par une IA. Les chercheurs impliqués dans l'étude soulignent eux-mêmes que ce chiffre est probablement sous-estimé, car l'analyse s'est concentrée sur de grands éditeurs disposant de davantage de ressources pour la vérification.

NeurIPS, le symbole d'un système à bout de souffle

Le cas de la conférence NeurIPS 2025, l'une des plus prestigieuses au monde dans le domaine de l'apprentissage automatique, est devenu le symbole le plus frappant de cette dérive. La startup canadienne GPTZero a analysé plus de 4 000 articles acceptés et présentés à NeurIPS 2025, et dit avoir découvert des centaines de citations hallucinées par l'IA passées au travers du filet de la relecture par les pairs, réparties dans au moins 53 communications.

Ces hallucinations n'avaient jamais été signalées auparavant. Dans certains cas, un modèle d'IA avait fusionné des éléments de vraies publications : des titres vraisemblables, des listes d'auteurs plausibles. Dans d'autres, tout était inventé : un auteur inexistant, un titre de papier fabriqué, un journal ou une conférence fictifs, une URL menant nulle part. Fortune

Parmi les exemples les plus grossiers recensés figurent des citations au nom de « Firstname Lastname » ou des identifiants arXiv avec le format « 2305.XXXX », un placeholder jamais remplacé, soumis tel quel dans une publication finale. Ce niveau de négligence, ou d'aveuglement, est édifiant.

La dynamique qui sous-tend ce problème est bien identifiée. Entre 2020 et 2025, les soumissions à NeurIPS ont augmenté de plus de 220 %, passant de 9 467 à 21 575 communications. Pour absorber ce volume, les organisateurs ont dû recruter un nombre toujours croissant de relecteurs, engendrant des problèmes de supervision, d'alignement des expertises, de négligence et parfois même de fraude. Les hallucinations citées ne sont que le symptôme visible d'un système de peer review soumis à une pression intenable.

L'anatomie d'une référence fantôme

Comment une IA fabrique-t-elle une citation ? Les chercheurs qui ont étudié le phénomène décrivent plusieurs mécanismes. Le plus courant est ce que le PDG de Grounded AI, Joe Shockman, appelle la citation « Frankenstein » : le modèle assemble des fragments de vraies publications (un titre d'un article, des auteurs d'un autre, un DOI d'un troisième) pour produire quelque chose qui ressemble à une référence légitime mais ne correspond à aucune publication réelle.

Les hallucinations incluant des DOIs sont particulièrement trompeuses : dans les cas étudiés par des chercheurs de l'Université Deakin, 64 % des...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !