IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Une vaste étude détecte les empreintes de l'IA dans des millions d'articles scientifiques, avec un risque accru de biais, en fonction des instructions génératives que les auteurs ont fourni aux chatbots

Le , par Alex

33PARTAGES

7  0 
Une étude a révélé que depuis l'apparition des LLM, la fréquence de certains choix de mots stylistiques dans la littérature académique a augmenté en conséquence. Ces données suggèrent qu'au moins 13,5 % des articles publiés en 2024 ont été rédigés avec une certaine quantité de traitement LLM. Avec environ 1,5 million d'articles actuellement indexés dans PubMed par an, cela signifie que les LLM aident à la rédaction d'au moins 200 000 articles par an. Cette estimation est basée sur les mots marqueurs LLM qui ont montré un large excès d'utilisation en 2024, ce qui suggère fortement que ces mots sont préférés par les LLM comme ChatGPT qui est devenu populaire à ce moment-là.

Il y a de fortes chances que vous ayez rencontré, sans le savoir, un contenu en ligne attrayant créé, entièrement ou en partie, par une version quelconque d'un grand modèle de langage (LLM). À mesure que ces ressources d'IA, telles que ChatGPT et Google Gemini, deviennent plus efficaces pour générer des écrits de qualité quasi humaine, il devient plus difficile de distinguer les écrits purement humains des contenus qui ont été soit modifiés, soit entièrement générés par des LLM.

Dans le domaine de la science, un rapport de l’université du Surrey a révélé que l’intégrité de la connaissance scientifique est compromise par la prolifération d’articles générés par l’IA, souvent superficiels et méthodologiquement fragiles. Ces "usines à papier", profitant de bases de données accessibles comme la NHANES, produisent en masse des études biaisées, privilégiant des analyses simplistes à un seul facteur pour des problèmes de santé complexes.

Cette pratique, amplifiée depuis 2021, inonde les revues, y compris celles évaluées par les pairs et menace de polluer le corpus scientifique avec des conclusions trompeuses. Si l’évaluation par les pairs reste un rempart, son efficacité est mise à mal par le volume croissant de ces publications et les limites inhérentes au système (évaluateurs non spécialisés, manque de rigueur). Les chercheurs ont donc averti que les industries de l'IA sont en train de submerger la science d'études inutiles.

Récemment, une nouvelle étude a confirmé cette situation. Pour faire la lumière sur l'ampleur du contenu des LLM dans les écrits universitaires, une équipe de chercheurs américains et allemands a analysé plus de 15 millions de résumés biomédicaux sur PubMed afin de déterminer si les LLM ont eu un impact détectable sur le choix de mots spécifiques dans les articles de revues.

Leur enquête a révélé que depuis l'apparition des LLM, la fréquence de certains choix de mots stylistiques dans la littérature académique a augmenté en conséquence. Ces données suggèrent qu'au moins 13,5 % des articles publiés en 2024 ont été rédigés avec une certaine quantité de traitement LLM. Depuis la publication de ChatGPT il y a moins de trois ans, la prévalence de l'intelligence artificielle (IA) et du contenu LLM sur le web a explosé, suscitant des inquiétudes quant à l'exactitude et à l'intégrité de certaines recherches.


Nombre de mots en trop par an.

Les efforts passés pour quantifier l'augmentation des LLM dans les écrits académiques ont toutefois été limités par leur dépendance à l'égard d'ensembles de textes générés par des humains et des LLM. Cette configuration, notent les auteurs, "...peut introduire des biais, car elle nécessite des hypothèses sur les modèles que les scientifiques utilisent pour leur écriture assistée par LLM, et sur la manière exacte dont ils les invitent".

Afin d'éviter ces limitations, les auteurs de la dernière étude ont examiné les changements dans l'utilisation excessive de certains mots avant et après la publication de ChatGPT afin de découvrir des tendances révélatrices. Les chercheurs se sont inspirés de recherches antérieures sur la santé publique concernant la pandémie COVID-19, qui ont permis de déduire l'impact de la pandémie COVID-19 sur la mortalité en comparant la surmortalité avant et après la pandémie.

En appliquant la même approche "avant-après", la nouvelle étude a analysé les schémas d'utilisation excessive des mots avant et après l'apparition des LLM. Les chercheurs ont constaté qu'après la publication des MAJ, l'utilisation excessive de "mots de contenu" a cédé la place à une utilisation excessive de mots "stylistiques et fleuris", tels que "showcasing", "pivotal" et "grappling".

En attribuant manuellement des parties du discours à chaque mot excédentaire, les auteurs ont déterminé qu'avant 2024, 79,2 % des choix de mots excédentaires étaient des noms. Au cours de l'année 2024, il y a eu un changement clairement identifiable. 66 % des choix de mots excédentaires étaient des verbes et 14 % des adjectifs. L'équipe a également identifié des différences notables dans l'utilisation du LLM entre les domaines de recherche, les pays et les lieux.

Pour rappel, en 2024, les chercheurs ont été avertis de ne pas recourir à l'intelligence artificielle pour évaluer les articles universitaires, mettant ainsi en péril l'intégrité du processus d'évaluation par les pairs. Bien que les progrès des grands modèles de langage rendent tentante l'utilisation de l'IA pour rédiger des évaluations, cela compromettrait le contrôle de qualité inhérent à l'évaluation par les pairs. Pour remédier à cette situation, les principales conférences sur l'IA envisagent de mettre à jour leurs politiques pour interdire explicitement l'utilisation de l'IA dans ce contexte.


La combinaison de mots de style en excès permet d'obtenir un écart de fréquence plus important.

Approfondissement de la rédaction assistée par le LLM dans les publications biomédicales par le biais d'un excès de vocabulaire

Citation Envoyé par Résumé de l'étude
Les grands modèles de langage (LLM) comme ChatGPT peuvent générer et réviser des textes avec des performances humaines. Ces modèles présentent des limites évidentes, peuvent produire des informations inexactes et renforcer les préjugés existants. Pourtant, de nombreux scientifiques les utilisent pour leurs écrits scientifiques. Mais quelle est l'ampleur de l'utilisation du LLM dans la littérature académique ? Pour répondre à cette question dans le domaine de la recherche biomédicale, nous présentons une approche impartiale et à grande échelle : Nous étudions les changements de vocabulaire dans plus de 15 millions de résumés biomédicaux de 2010 à 2024 indexés par PubMed et montrons comment l'apparition des LLM a conduit à une augmentation abrupte de la fréquence de certains mots de style. Cette analyse de l'excès de mots suggère qu'au moins 13,5 % des résumés de 2024 ont été traités avec des LLM. Cette limite inférieure diffère selon les disciplines, les pays et les revues, atteignant 40 % pour certains sous-corpus. Nous montrons que les LLM ont eu un impact sans précédent sur l'écriture scientifique dans la recherche biomédicale, dépassant l'effet d'événements mondiaux majeurs tels que la pandémie de COVID.
Présentation de l'étude

Lors de l'étude, les chercheurs ont exploité l'usage excessif des mots pour montrer comment les LLM ont affecté la rédaction scientifique dans la recherche biomédicale. Ils ont constaté que l'effet était sans précédent en termes de qualité et de quantité : Des centaines de mots ont brusquement augmenté leur fréquence après que les LLM de type ChatGPT sont devenus disponibles. Contrairement aux changements précédents dans la popularité des mots, les mots excédentaires de 2023-2024 n'étaient pas des noms liés au contenu mais plutôt des verbes et des adjectifs influençant le style que les LLM préfèrent.

L'analyse est effectuée au niveau du corpus et ne peut pas identifier les résumés individuels qui peuvent avoir été traités par un LLM. Néanmoins, les exemples suivants, tirés de trois résumés réels de 2023, illustrent le langage fleuri de type LLM :

  • 1) En examinant méticuleusement le réseau complexe reliant [...] et [...], ce chapitre complet examine en profondeur leur implication en tant que facteurs de risque significatifs pour [...].
  • 2) Une compréhension approfondie de l'interaction complexe entre [...] et [...] est essentielle à l'élaboration de stratégies thérapeutiques efficaces.
  • 3) Dans un premier temps, nous nous penchons sur les subtilités de [...], en soulignant son caractère indispensable dans la physiologie cellulaire, le labyrinthe enzymatique qui régit son flux, et les mécanismes pivots de [...].

L'analyse de la fréquence excessive de ces mots de style préférés par les LLM suggère qu'au moins 13,5 % des 2024 résumés PubMed ont été traités avec des LLM. Avec ~1,5 million d'articles actuellement indexés dans PubMed par an, cela signifie que les LLM aident à la rédaction d'au moins 200 000 articles par an. Cette estimation est basée sur les mots marqueurs LLM qui ont montré un large excès d'utilisation en 2024, ce qui suggère fortement que ces mots sont préférés par les LLM comme ChatGPT qui est devenu populaire à ce moment-là. Il ne s'agit que d'une limite inférieure : Les résumés n'utilisant aucun des mots marqueurs LLM ne contribuent pas aux estimations, de sorte que la fraction réelle des résumés traités par LLM est probablement plus élevée.


Fréquences des résumés PubMed contenant plusieurs mots exemples.

Interprétation et limites

La limite inférieure estimée sur l'utilisation du LLM varie de moins de 5% à plus de 40% dans différents domaines de recherche indexés par PubMed, pays d'affiliation et revues. Cette hétérogénéité pourrait correspondre à des différences réelles dans l'adoption du LLM. Par exemple, la limite inférieure élevée de l'utilisation du LLM dans les domaines informatiques (20 %) pourrait être due au fait que les chercheurs en informatique sont plus familiers avec la technologie LLM et plus disposés à l'adopter. Dans les pays non anglophones, les LLM peuvent aider les auteurs à éditer des textes en anglais, ce qui pourrait justifier leur utilisation intensive. Enfin, les auteurs qui publient dans des revues dont les processus d'examen sont accélérés et/ou simplifiés pourraient être attirés par les LLM pour rédiger des articles à faible effort.

Cependant, l'hétérogénéité des limites inférieures pourrait également indiquer d'autres facteurs au-delà des différences réelles dans l'adoption du LLM. Tout d'abord, cela pourrait mettre en évidence des différences non négligeables dans la façon dont les auteurs de différents milieux linguistiques censurent les suggestions des assistants d'écriture, rendant ainsi l'utilisation des LLM non détectable pour les approches basées sur les mots. Il est possible que les locuteurs natifs et non natifs de l'anglais utilisent les LLM aussi souvent, mais les locuteurs natifs peuvent être plus à même de remarquer et d'éliminer activement les mots de style non naturels des sorties LLM. Cette méthode ne serait pas en mesure de détecter la fréquence accrue de l'utilisation de ces LLM plus avancés.

Deuxièmement, les délais de publication dans les domaines informatiques sont souvent plus courts que dans de nombreux domaines biomédicaux ou cliniques, ce qui signifie que toute augmentation potentielle de l'utilisation du LLM peut être détectée plus tôt dans les revues informatiques. Troisièmement, il en va de même pour les revues et les éditeurs dont les délais d'exécution sont plus rapides que ceux des revues de haut prestige ayant fait l'objet d'un examen approfondi. La méthode peut facilement être utilisée pour réévaluer ces résultats après quelques cycles de publication dans tous les domaines et dans toutes les revues.

Enfin, si cet approche permet de détecter des changements lexicaux inattendus, elle ne permet pas de distinguer les différentes causes de ces changements, comme les multiples sujets émergents ou les multiples changements de style d'écriture émergents. Par exemple, l'approche ne peut pas distinguer l'augmentation de la fréquence des mots due à l'utilisation directe des LLM de l'augmentation de la fréquence des mots due à l'adoption de mots préférés par les LLM et à leur emprunt pour leur propre écriture. Pour la langue parlée, il existe des preuves émergentes d'une telle influence des LLM sur l'utilisation de la langue humaine. Cependant, cet effet est beaucoup plus petit et beaucoup plus lent.


Estimation des écarts de fréquence pour différents sous-corporation.

Implications et politiques

Quelles sont les implications de cette révolution en cours dans la rédaction scientifique ? Les scientifiques ont recours à la rédaction assistée par des LLM parce que ces derniers peuvent améliorer la grammaire, la rhétorique et la lisibilité générale de leurs textes, aider à la traduction en anglais et générer rapidement des résumés. Cependant, les LLM sont tristement célèbres pour inventer des références, fournir des résumés inexacts et faire de fausses...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de totozor
Expert confirmé https://www.developpez.com
Le 16/09/2025 à 7:30
Citation Envoyé par Ryu2000 Voir le message
Si le travail est trop dure et ne paie pas assez ils peuvent chercher un autre job moins chiant.
Un génie :
Tu as faim? Mange!
Tu es pauvre? Enrichi toi!
Tu travailles pas? Traverse la rue!
Tu as froid? Trouve un toit!
Tu es pas assez payé? Déménage, fais des études et traverse la rue.
Tu pollues? Arrête!

Rien que ça.
Ryu, notre sauveur.
Il a réponse à tout.
9  4 
Avatar de jnspunk
Membre habitué https://www.developpez.com
Le 09/07/2025 à 2:21
C'est ironique de voir qu'un article (Je parle de l'article scientifique) qui alerte sur les conclusions simplistes des modèles de langage finisse lui-même par en tirer une.
Il ne distingue pas entre une étude générée par un modèle de langage et une étude écrite par un humain, mais reformulée par un modèle pour corriger les fautes ou clarifier l'expression
Proposer un outil pour mesurer l'utilisation d'un modèle de langage dans un texte est une bonne idée, mais il est regrettable de négliger l'essentiel, à savoir différencier le fond de la forme.
3  0 
Avatar de OuftiBoy
Membre éprouvé https://www.developpez.com
Le 10/09/2025 à 18:03
Je ne suis pas trop d'accord...

Citation Envoyé par Matthieu Vergne Voir le message
Tant que ça s'apparente à du placebo, c'est à dire qu'il y a juste besoin d'une oreille à l'écoute sans réellement avoir besoin d'acte médical, ça me va très bien d'utiliser l'IA
Vu comment l'IA a tendance a "Halluciner", j'ai un gros doute sur la pertinence de la réponse d'une IA pour répondre ou proposer des solutions à une personne dépressive ou suicidaire... Cela me semble extrêmement dangereux même... Si quelqu'un ressent le besoin de consulter un psy, et que le rdv qu'on lui propose est trop lointain, et se "tourne" vers une IA en attendant, les dégâts sur la personne peuvent être dévastateurs. Qu'une IA "tente" d'apporter une aide à une personne "fragile" devrait selon moi même être interdit.

Mais, ce n'est que mon avis...

BàV et Peace & Love.
3  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 05/09/2025 à 11:27
Les humains se confient de plus en plus à des thérapeutes IA pour des questions de santé mentale
S'ils font confiance à l'IA, c'est qu'ils ont vraiment besoin de consulter un psy !
3  1 
Avatar de OuftiBoy
Membre éprouvé https://www.developpez.com
Le 11/09/2025 à 13:25
calvaire,

Je respecte ton point de vue, mais...

Citation Envoyé par calvaire Voir le message
ou au contraire, une ia qui apporte des conseils/idées rationnels à la demande, au moment ou la personne en a le plus besoin (et pas devoir attendre le rdv), que ce soit à 10h du mat ou 3h du matin. Ca peut être très bénéfique.
Un peu comme l'apple watch qui détecte de l'hyper tension ou un problème cardiaque, pas besoin d'attendre le checkup annuel du médecin.

c'est une médecine accessible au plus grand nombre, personnalisé, et avec un suivie constant.
... On est encore loin d'avoir une IA dont on peut être certains qu'elle réponde de manière "rationnels". Il est peut-être plus préférable que cette personne participe à des discussions sur certains forums qui sont spécialisés dans ce domaine. Ok, il faut trouver le bon forum, tout comme il faudrait trouver la bonne IA.

Dire qu'une IA peut être une "médecine", "personnalisée", proposant "un suivi" constant, c'est (à mon avis, chacun à le sien) aller un peu vite au vu de la "qualité" des réponses des IAs actuellement. Une personne "fragile" a besoin d'un contact "humain" avant tout. Là où l'IA pourrait être utile, c'est de "repérer" qu'une personne est "fragile" (suivant ce qu'il visite, les questions qu'il pose, etc...) et lui proposer des forums de discutions "sérieux/reconnu".

Mais ce n'est que mon avis.

BàT et Peace & Love.
2  0 
Avatar de calvaire
Expert éminent https://www.developpez.com
Le 15/09/2025 à 9:18
Citation Envoyé par OuftiBoy Voir le message
calvaire
Non, je ne suis pas convaincu, je suis même persuadé du contraire. Nous vivons une drôle d'époque, où l'on peut communiquer en quelque seconde avec quelqu'un qu'on a jamais rencontré, qui vit à des centaines si pas des milliers de km, mais on est incapable de communiquer avec ses voisins. Voir des gens qui se réunissent pour boire en verre, et voir chacun de ces derniers les yeux rivés sur leur "smartphone", c'est d'une tristesse sans nom.
France Info m'a peut etre lu, il a justement publié un article la dessus hier.
Oui avoir une vie social ca coute de l'argent, vous peut être pas et tant mieux pour vous mais je le constate moi même et la j'ai une source fraiche à montrer.

chatgpt c'est gratuit et ca réponds toujours 24h/24 à la demande/quand on en a le plus besoin.
Vous avez peut etre la chance d'avoir des potes/des forums qui vous répondrons 24h/24 et vous coute 0€, ca existe je ne le nie pas mais j'ai un doute que ce soit une norme.

Si tu couches avec les meufs de tous tes potes tu as pas besoin d'un psy mais d'une tarte dans la gueule.
je ne serais pas surpris que la majorité des tromperies ce soit en 1 les collègues de travail et en 2 le cercle des ami(e)s.
Pour tromper il faut rencontrer, y'a les sites spécialisés ok, mais sinon c'est au boulot ou en soirée avec des potes, avec parfois même le conjoint cocu à 10m.

l'infidélité touche 50% des couples, donc j'ai envie de dire que la moitiés des amies/collegues de travail sont potentiellement concerné.
3  1 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 17/09/2025 à 13:11
Citation Envoyé par Ryu2000 Voir le message
Il ne faut pas être un grammar nazi et tolérer les gens qui font des fautes. (parce que la grammaire c'est extrêmement compliqué)
Absolument pas. Je vais te dire un truc, pour ma part, faire des fautes d'orthographe et de grammaire, ça a été mon lot pendant des années au collège.
Mais, j'ai tout fait pour me corriger, et aujourd'hui, bien sûr il m'arrive encore d'en faire, mais je remercie chaleureusement ceux qui me corrigent. Et je pense que faire des fautes et trouver cela normal, est une preuve de fainéantise et de mépris du lecteur. Il n'y a pas de "grammar nazi", juste des "jenfoutistes" imbéciles qui n'ont aucun respect des autres.

Quand je fais du recrutement, les fautes de français sur une lettre de motivation ou sur un CV sont clairement éliminatoires. Si le candidat n'est pas capable de fournir un effort pour écrire une page ou deux correctement, alors il ne doit pas être très consciencieux dans son boulot. D'autant plus qu'aujourd'hui, contrairement à mon époque, il y a des correcteurs orthographiques et grammaticaux qui mâchent le travail de relecture.
Et, si j'ai un soupçon d'utilisation d'une IA pour écrire le CV ou la lettre, c'est poubelle direct !
6  4 
Avatar de OuftiBoy
Membre éprouvé https://www.developpez.com
Le 17/09/2025 à 16:58
Ryu et Gluups,

@Ryu2000:
À la base je voulais juste faire une critique du monde capitaliste, en sous entendant qu'aujourd'hui les gens étaient obligé d'accepter des métiers difficiles et mal payé pour survivre.
Je ne suis ni pour ni contre le capitalisme, mais bien avant et depuis toujours, une grande majorité des gens étaient et sont toujours, "obligé d'accepter des métier difficiles et mal payé pour survivre". On peut retourner le problème dans tous les sens, mais de tout temps et sous toute formes de régimes, il y a toujours eu une majorité de gens qui travaillaient pour une minorité...

@Gluups:
Ça a l'air passionnant, comme boulot. Merci pour la suggestion.
Tout le monde n'a pas forcément la chance de "choisir" son boulot... Et tous les boulots ne sont pas passionnants... Il y a même des boulots qui sont "passionnants" pour quelqu'un mais "sans intérêt" pour d'autres...

BàV et Peace & Love.
3  1 
Avatar de Matthieu Vergne
Expert éminent https://www.developpez.com
Le 13/08/2025 à 18:51
Citation Envoyé par Anthony Voir le message
Le cas de l'éditeur de revues académiques Wiley illustre l'ampleur du problème. Dans un geste décisif, Wiley a fermé 19 revues et retiré plus de 11 000 articles suspects, dont beaucoup avaient été produits à l'aide de l'IA. Ces révélations ont mis au jour un marché noir florissant de la fausse science, de la recherche corrompue et de l’auteur fictif. Pour les universités et la communauté scientifique au sens large, cette affaire souligne la nécessité urgente de renforcer l'éthique et la transparence de la recherche avant que la confiance du public ne s'érode davantage.
Et malgré l'apparente "massivité" de l'action de Wiley, cela reste une goutte d'eau sur l'état général, et ne résout en rien la problématique elle-même. On nettoie juste la poussière ici en sachant pertinemment qu'elle sera remplacée par une nouvelle couche dès la semaine prochaine. C'est ça qui est frustrant. Il faut mettre en place des solutions pérennes, mais les pratiques actuelles sont tellement ancrées avec des attentes économiques fortes, que ce n'est pas près de bouger significativement sans changement de paradigme. Il faut casser l'existant : remplacer les métriques utilisées actuellement pour valoriser la recherche et déconstruire les process pour remplacer les parties corrompues. Et ça doit venir des chercheurs pour démontrer l'indépendance de la recherche. Si ça vient par le législateur, d'une part ça ne sera pas pareil d'un pays à l'autre, d'autre part ça montrera que les chercheurs, soit-disant le summum de la connaissance humaine, doivent être tenus par la main comme le reste de la société.
1  0 
Avatar de tatayo
Expert éminent sénior https://www.developpez.com
Le 05/09/2025 à 9:59
Code : Sélectionner tout
C’est la raison pour laquelle certains Etats interdisent la thérapie par IA
Et dire que Trump veut que l'I.A. décide qui peut être soigné ou pas…
Cherchez l'erreur (Trump ?).

Tatayo.
2  1