IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Un chercheur français repère l'utilisation illégitime de ChatGPT dans des articles
Des revues du réseau Springer et Elsevier ne liraient absolument pas les articles qu'elles publient

Le , par Bruno

10PARTAGES

7  0 
Des articles scientifiques rédigés avec l’aide d’un outil d’intelligence artificielle appelé ChatGPT ont été publiés dans des revues à comité de lecture sans que les auteurs ne déclarent leur utilisation de cet outil. Un chercheur français, Guillaume Cabanac, a repéré des indices laissés par ChatGPT dans les manuscrits, tels que l’expression « Régénérer la réponse ». Il a alerté les éditeurs sur PubPeer, un site web où les scientifiques discutent des recherches publiées. Plusieurs revues ont décidé de rétracter ces articles pour violation de leurs politiques éthiques. Ce phénomène soulève des questions sur la qualité et l’originalité des articles assistés par l’IA, ainsi que sur la capacité des évaluateurs et des logiciels anti-plagiat à les détecter.

Pour de nombreux experts du secteur de la technologie, ChatGPT pourrait changer à jamais l'édition et le journalisme. Ainsi, certains types de journalisme, comme les simples articles de sport et d'affaires, seraient particulièrement sensibles à l'automatisation. ChatGPT pourrait être la technologie numérique la plus importante à avoir un impact sur les éditeurs depuis les années 1980. Le chatbot créé par le laboratoire d'intelligence artificielle (IA) OpenAI peut répondre à des questions complexes et s'appuyer sur des recherches secondaires pour rédiger des textes « originaux ». Si l'information se trouve sur Internet, ChatGPT peut produire du contenu avec.

Le 9 août, la revue Physica Scripta a publié un article qui présentait de nouvelles solutions à une équation mathématique complexe. Mais l’article n’était pas aussi original qu’il semblait, car il contenait une phrase étrange à la troisième page du manuscrit : « Régénérer la réponse ». La phrase étrange correspond à l’étiquette d’un bouton de ChatGPT. Guillaume Cabanac, un chercheur en informatique à l’université de Toulouse, en France, a rapidement détecté cette anomalie et a partagé une capture d’écran de la page sur PubPeer, un site web où les scientifiques discutent des recherches publiées. L’auteur principal de l’article, Abdullahi Yusuf, est affilié à la fois à l’université Biruni d’Istanbul et à la Lebanese American University de Beyrouth.


Kim Eggleton, qui dirige l’évaluation par les pairs et l’intégrité de la recherche chez IOP Publishing, l’éditeur de Physica Scripta à Bristol, au Royaume-Uni, indique que les auteurs ont admis avoir utilisé ChatGPT pour écrire leur manuscrit. L’outil n’a pas été repéré pendant les deux mois de révision par les pairs (l’article a été envoyé en mai et une version corrigée en juillet) ni pendant la mise en page. L’éditeur a choisi de retirer l’article, car les auteurs n’ont pas signalé leur recours à l’outil lors de la soumission. « C’est contraire à nos règles éthiques », a affirmé Eggleton.

Ce n'est pas le seul cas d'un manuscrit assisté par ChatGPT qui se retrouve dans une revue à comité de lecture sans avoir été déclaré. Depuis avril, Cabanac a repéré plus d'une douzaine d'articles de revues contenant les phrases révélatrices de ChatGPT « Régénérer la réponse » ou « En tant que modèle linguistique de l'IA, je... » et les a publiés sur PubPeer.

De nombreux éditeurs, dont Elsevier et Springer Nature, ont déclaré que les auteurs pouvaient utiliser ChatGPT et d'autres grands modèles de langage (LLM) pour les aider à rédiger leurs manuscrits, à condition qu'ils le déclarent. Toutefois, Springer Nature a annoncé en début d’année que ChatGPT, ou tout système similaire de génération de texte, ne peut pas être crédité en tant qu'auteur dans les articles publiés dans ses revues. L'éditeur ne voit aucun problème au fait que l'IA soit utilisée pour aider à rédiger des recherches, mais elle exige que son utilisation soit correctement divulguée.

Un défi pour l’intégrité de la recherche

« Nous nous sommes sentis obligés de clarifier notre position pour nos auteurs, pour nos éditeurs et pour nous-mêmes. Cette nouvelle génération d'outils LLM - y compris ChatGPT - a vraiment explosé dans la communauté, qui est à juste titre enthousiaste et joue avec eux, mais également les utilise d'une façon qui va au-delà de la manière dont ils peuvent véritablement être utilisés à l'heure actuelle », explique à The Verge Magdalena Skipper, rédactrice en chef de la publication phare de Springer Nature, Nature. ChatGPT et les grands modèles de langage précédents ont déjà été cités comme auteurs dans un petit nombre d'articles publiés.

Il faut préciser que la qualité et l’ampleur de l’apport de ces outils dépendent des situations. ChatGPT n’est pas infaillible, et il commet encore de nombreuses fautes élémentaires. Dans un article d’opinion paru dans la revue Oncoscience, ChatGPT a été employé pour défendre l’usage d’un certain médicament en se basant sur le pari de Pascal, le texte produit par l’IA étant clairement signalé.

L'Office britannique de la propriété intellectuelle a annoncé en juin de l'année dernière que les IA ne peuvent pas être mentionnées comme inventeurs sur les brevets. « Pour les inventions conçues par l'IA, nous ne prévoyons aucun changement dans la législation britannique sur les brevets. La plupart des répondants estiment que l'intelligence artificielle n'est pas encore assez avancée pour inventer sans intervention humaine. Mais nous garderons ce domaine du droit à l'étude pour nous assurer que le système de brevets britannique soutient l'innovation en matière d'intelligence artificielle et l'utilisation de l'IA au Royaume-Uni », a déclaré Magdalena Skipper.

La recherche de phrases clés ne révèle que des utilisations naïves et non déclarées de ChatGPT - dans lesquelles les auteurs ont oublié de supprimer les signes révélateurs - de sorte que le nombre d'articles non divulgués évalués par les pairs et générés avec l'aide non déclarée de ChatGPT est probablement beaucoup plus élevé. « Ce n'est que la partie émergée de l'iceberg », affirme Cabanac. (Les signes révélateurs changent également : Le bouton "Régénérer la réponse" de ChatGPT a été remplacé au début de l'année par "Régénérer" lors d'une mise à jour de l'outil).

Cabanac a détecté des phrases typiques de ChatGPT dans quelques articles publiés dans des revues Elsevier. Le dernier en date est un article, de l'université de Liaoning à Shenyang, en Chine, et de l'Académie chinoise du commerce international et de la coopération économique à Pékin, publié le 3 août dans Resources Policy, qui étudie l'impact du commerce électronique sur l'efficacité des combustibles fossiles dans les pays en développement.

Le chercheur français a remarqué que certaines équations de l'article n'avaient pas de sens, mais l'indice se trouvait au-dessus d'un tableau : « Please note that as an AI language model, I am unable to generate specific tables or conduct tests... » (Veuillez noter qu'en tant que modèle linguistique d'IA, je ne suis pas en mesure de générer des tableaux spécifiques ou d'effectuer des tests...). Un porte-parole d'Elsevier a déclaré à Nature que l'éditeur était « conscient du problème » et qu'il enquêtait à ce sujet.

Une innovation qui divise les éditeurs et les évaluateurs

Les chercheurs sont divisés sur les implications pour la science. Dans le domaine de la publication scientifique, une prépublication est une version d'un article scientifique qui précède son acceptation par le comité de rédaction d'une revue scientifique.

« Je suis très inquiète », déclare Sandra Wachter, qui étudie la technologie et la réglementation à l'Université d'Oxford, au Royaume-Uni, et n'a pas participé à la recherche. « Si nous sommes maintenant dans une situation où les experts ne sont pas en mesure de déterminer ce qui est vrai ou non, nous perdons l'intermédiaire dont nous avons désespérément besoin pour nous guider à travers des sujets compliqués », ajoute-t-elle.

ChatGPT crée un texte réaliste en réponse aux invites de l'utilisateur. Il s'agit d'un « grand modèle de langage », un système basé sur des réseaux de neurones qui apprennent à effectuer une tâche en assimilant d'énormes quantités de texte généré par l'homme. Depuis sa sortie, les chercheurs se sont attaqués aux problèmes éthiques entourant son utilisation, car une grande partie de sa production peut être difficile à distinguer du texte écrit par l'homme.

Les articles entièrement ou partiellement rédigés par des logiciels, sans que les auteurs ne le révèlent, n'ont rien de nouveau. Cependant, ils contiennent généralement des traces subtiles mais détectables, telles que des schémas de langage spécifiques ou des « phrases torturées » mal traduites, qui les distinguent de leurs équivalents rédigés par des humains, explique Matt Hodgkinson, responsable de l'intégrité de la recherche à l'Office britannique de l'intégrité de la recherche, dont le siège se trouve à Londres. Mais si les chercheurs suppriment les phrases passe-partout du ChatGPT, le texte du chatbot plus sophistiqué est « presque impossible » à repérer, explique Hodgkinson. « Il s'agit essentiellement d'une course aux armements", dit-il, "les escrocs contre ceux qui essaient de les empêcher d'entrer ».

Elisabeth Bik, microbiologiste et consultante indépendante en intégrité de la recherche à San Francisco, en Californie, estime que l'essor fulgurant de ChatGPT et d'autres outils d'IA générative donnera de la puissance aux sociétés qui créent et vendent de faux manuscrits aux chercheurs désireux d'augmenter leur production de publications. « Le problème sera cent fois plus grave », estime « Je crains fort que nous ayons déjà un afflux de ces articles que nous ne reconnaissons même plus. »

La publication dans des revues d’articles non déclarés issus d’un LLM révèle un problème plus grave : les évaluateurs surchargés n’ont souvent pas le temps de vérifier soigneusement les manuscrits pour y déceler des indices, explique David Bimler, qui débusque les faux articles sous le pseudonyme de Smut Clyde. Tout le système scientifique repose sur le principe « publier ou mourir », explique Bimler, psychologue à la retraite, ancien de l’université Massey de Palmerston North, en Nouvelle-Zélande. « Le nombre de contrôleurs ne peut pas suivre. »

Les fausses références, un indice pour repérer les articles scientifiques rédigés par l’IA

ChatGPT et autres LLM ont tendance à produire de fausses références, ce qui pourrait être un signal pour les pairs examinateurs qui cherchent à repérer l'utilisation de ces outils dans les manuscrits, explique Hodgkinson. « Si la référence n'existe pas, c'est un signal d'alarme », ajoute-t-il.

Rune Stensvold, microbiologiste au State Serum Institute de Copenhague, a été confronté au problème des fausses références lorsqu'un étudiant lui a demandé une copie d'un article que Stensvold avait apparemment cosigné avec l'un de ses collègues en 2006. L'article n'existait pas. L'étudiant avait demandé à un chatbot d'IA de lui suggérer des articles sur Blastocystis - un genre de parasite intestinal - et l’outil d’IA avait bricolé une référence portant le nom de Stensvold. « Il avait l'air si réel », raconte-t-il. « Cela m'a appris que lorsque j'ai des articles à examiner, je devrais probablement commencer par regarder la section des références. »

L’utilisation non déclarée d’outils d’IA pour rédiger des articles scientifiques est un phénomène inquiétant qui menace l’intégrité et la crédibilité de la recherche scientifique.

Si, l’IA ne peut pas remplacer le travail intellectuel et créatif des chercheurs, ni se substituer à l’évaluation critique par les pairs. Et peut même introduire des erreurs, des biais ou des incohérences dans le texte, qui peuvent nuire à la rigueur et à la fiabilité de la recherche, l’IA peut être un outil utile pour aider les chercheurs à rédiger des articles, en leur fournissant des suggestions, des corrections ou des reformulations, à condition qu’ils déclarent leur utilisation de l’outil et qu’ils vérifient la qualité et l’originalité du texte généré.

La rédaction d’articles scientifiques à l’aide d’outils d’IA non déclarés est une pratique préoccupante qui compromet l’intégrité et la crédibilité de la recherche scientifique. L’IA ne peut pas se substituer au travail intellectuel et créatif des chercheurs, ni à l’évaluation critique par les pairs. Elle peut aussi introduire des erreurs, des biais ou des incohérences dans le texte, qui peuvent affecter la rigueur et la fiabilité de la recherche.

Il faut toutefois reconnaître que l’IA peut être un outil utile pour aider les chercheurs à rédiger des articles, en leur fournissant des suggestions, des corrections ou des reformulations, à condition qu’ils déclarent leur utilisation de l’outil et qu’ils vérifient la qualité et l’originalité du texte généré.

Source : PubPeer

Et vous ?

Quels sont selon vous, les avantages et les inconvénients de l’utilisation de l’IA pour rédiger des articles scientifiques ?

Comment peut-on assurer la transparence, la traçabilité et la responsabilité de l’utilisation de l’IA pour rédiger des articles scientifiques ?

Quelles peuvent être les conséquences potentielles de la publication de manuscrits non revus par les pairs sur la qualité et la crédibilité de la recherche scientifique ?

Voir aussi :

Le plus grand éditeur universitaire du monde affirme que ChatGPT ne peut pas être crédité en tant qu'auteur, il peut servir pour rédiger des recherches, mais sa contribution doit être divulguée

Les résumés d'articles générés par ChatGPT parviennent à duper des scientifiques, ils ne peuvent pas toujours faire la différence entre les résumés générés par l'IA et les résumés originaux

Des doyens d'université suspendus après avoir utilisé ChatGPT pour envoyer des courriels à des étudiants sur une fusillade de masse, le message a suscité un tollé au sein de l'établissement

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de
https://www.developpez.com
Le 04/09/2024 à 21:19
Citation Envoyé par Stéphane le calme Voir le message
Quels compromis seriez-vous prêt à accepter pour permettre l’innovation en IA tout en protégeant les droits des auteurs ?
Aucun, pourquoi un générateur de médiocrité (nivelage de tout le contenu) pourrait voler le travail des producteurs de valeur pour que OpenAI puisse "gagner de l'argent" en empêchant le dit producteur de valeur d'en gagner ? La réponse à votre question est dans la question en fait, il suffit de remplacer "innovation" par ce qu'est réellement un tel moteur conversationnel qui répond tout et n'importe quoi et de se rappeler le sens de "droit" et de "auteur"

Citation Envoyé par Stéphane le calme Voir le message
Pensez-vous que les entreprises technologiques devraient payer une redevance pour utiliser des contenus protégés par le droit d’auteur ? Si oui, comment cette redevance devrait-elle être calculée ?
Sur la base d'une négociation avec chaque auteur. s'ils ont besoin des ces données il doivent la respecter et donc respecter ceux qui la produise.

Citation Envoyé par Stéphane le calme Voir le message
Comment les créateurs de contenu peuvent-ils collaborer avec les entreprises d’IA pour garantir une utilisation éthique de leurs œuvres ?
C'est leur droit, c'est aux entreprises d'IA de faire les efforts nécessaires.

Citation Envoyé par Stéphane le calme Voir le message
L’utilisation de matériaux protégés par le droit d’auteur sans autorisation pourrait-elle nuire à la diversité et à la qualité des contenus disponibles en ligne ?
C'est déjà le cas, il suffit d'interroger ChatGPT ou Mistral ou autre sur n'importe quel sujet que l'on connait bien pour constater le massacre qui est fait de l'information, vaguement reformulées, avec très souvent des hallucinations ubuesques. En enseignement c'est terrible aujourd'hui, on doit passer 4h sur un sujet qui en prenait 1 avant pour faire désapprendre aux étudiants des trucs faux qui les empêchent de comprendre la notion.

Citation Envoyé par Stéphane le calme Voir le message
Quelles mesures législatives pourraient être mises en place pour équilibrer les besoins des développeurs d’IA et les droits des créateurs ?
Mais pourquoi équilibrer ? les entreprises d'IA n'ont rien à imposer. Si tel était le cas ce serait la fin de tout. Les auteurs n'auraient plus de revenus donc ne produiraient plus et il ne resterait que la soupe mal interprétées par ces "IA" sur la base de l'existant, grande victoire pour les entreprises d'IA qui deviendraient riche pendant un certain temps, une catastrophe pour l'humanité qui deviendrait comme les gros bonhommes dans Wall-e.

Citation Envoyé par Stéphane le calme Voir le message
Pensez-vous que l’accès libre aux informations et aux œuvres culturelles est essentiel pour le progrès technologique, ou cela devrait-il être strictement réglementé ?
si le progrés technologique n'apporte qu'une baisse de qualité et une perte de travail dans une société où on est de plus en plus nombreux il est évident que la réglementation doit empêcher la désignation de "progrés" ce qui n'est qu'un simple moteur conversationnel qui répond coute que coute même quand il ne sait pas. La Justice doit par ailleurs vivement condamner les atteintes au droit d'auteur, sinon ça veut dire que les grosses boites sont plus fortes que l’état de droit...gros soucis.

Citation Envoyé par Stéphane le calme Voir le message
Comment les utilisateurs finaux des technologies d’IA peuvent-ils influencer les pratiques des entreprises en matière de respect des droits d’auteur ?
Quand ils se rendront compte que ça ne leur apporte rien à part le "plaisir" de participer au truc fun du moment, quand ils se lasseront des images toutes identiques, quand ils se lasseront des contenus plats au goût de réchauffé, ils se mordront les doigts et se retourneront vers les gens qui produisent du contenu qui les élève ou les fait rêver.
15  1 
Avatar de totozor
Expert confirmé https://www.developpez.com
Le 05/09/2024 à 9:55
Citation Envoyé par Stéphane le calme Voir le message
Controverse autour du droit d'auteur : OpenAI assure ne pas pouvoir gagner de l'argent sans utiliser gratuitement du matériel protégé
Que se passe-t-il quand un entreprise a un business model qui n'est pas viable?
Elle vire son CEO
Elle met la clé sous la porte
Elle est rachetée
Elle peut aussi sortir de la loi mais à ses risques et péril
etc

C'est quand même incroyable que des entreprises hégémoniques se permettent ce genre de discours et qu'en plus elles fasse du quasi-esclavage en parallèle de ça.
Vous êtes dans la une bulle financière, technique et technologique incroyable et vous ne pouvez pas respecter la loi? Il y a une chose qui cloche dans votre gestion!
11  0 
Avatar de petitours
Membre émérite https://www.developpez.com
Le 31/01/2024 à 8:42
Une fois que l'on a compris que ChatGPT n'est qu'un agent conversationnel on peut le trouver super.
Dans le détail ça ne vaut pas plus qu'une discussion de lundi matin à la machine à café basée sur le fait qu'il faut absolument dire un truc et où le plus bavard, ici chatGPT, va absolument avoir un anecdote et répondre un truc quel que soit le sujet.
J'ai testé, longuement, et reçu des réponses régulièrement débiles.
Aujourd'hui je ne l'utilise que sur des sujets que je connais très bien pour voir ce qu'il me répond, notamment dans le cadre d'enseignements que je donne pour voir ce que mes étudiants vont avoir comme informations en passant par lui. Ce qu'il raconte est au mieux très vague, au pire profondément faux, souvent parce que révélant des mauvaises pratiques.
Cette médiocrité de l'information est à mon sens le plus négatif, sans doute basée sur le volume de données qu'il va chercher copieusement "enrichies" par des forums, blogs ou autres écrits par des non spécialistes.
Le fait qu'il fouine partout et utilise des données personnelles ou viole les droits des auteurs est un autre problème majeur mais personnellement je le le mettrait en 2, après celui de donner des informations fausses ou médiocres qui tirent vers le bas celui qui pose la question.
8  0 
Avatar de Jules34
Membre émérite https://www.developpez.com
Le 05/09/2024 à 9:15
"Mais Monsieur comment voulez que je vende des voitures si je les voles pas au préalable !"
8  0 
Avatar de OuftiBoy
Membre éprouvé https://www.developpez.com
Le 05/09/2024 à 15:52
Moi si je dis, il faut bien que cambriole 25 maisons par ans, sinon je ne sais pas partir en vacances, je suis certains que ça finira mal pour moi. Mais lui, le Altman, la nouvelle coqueluche du moment, il peut se permettre de dire qu'il ne peut gagner des millions qu'en volant le travail des autres, et ça passe crème.
7  0 
Avatar de edrobal
Membre averti https://www.developpez.com
Le 26/11/2024 à 11:49
Mais ces gens ne peuvent pas créer de l'intelligence, seulement accumuler des données ce qui n'est pas de l'intelligence. Cela rappelle le débat entre Montaigne et Rabelais : une tête bien pleine ou une tête bien faite. Je prêche dans le vide mais je répète que l'IA cela n'existe pas, c'est juste un habillage de marketing pour des algorithmes de traitement de masses de données.
7  0 
Avatar de L33tige
Membre expérimenté https://www.developpez.com
Le 13/02/2024 à 13:01
Citation Envoyé par Ryu2000 Voir le message
Ça ne sert à rien que trop d'étudiants apprennent à se servir de l'IA, puisqu'avec l'IA il faudra moins d'humains pour réaliser autant de travail.
Au bout d'un moment ceux qui bossent dans l'IA ne trouveront plus de boulot.

Si ça se trouve le bon plan c'est de partir totalement à l'opposé.
L'avenir c'est peut-être l'artisanat sans machine, entièrement fait à la main.
On ne sait pas, il y aura peut-être des riches près à mettre beaucoup d'argent dans des produits humains.

C'est clair que beaucoup de gens vont perdre leur boulot à cause de l'IA.
Et ils vont galérer à se reconvertir.

Ce n'est pas dans la conception des IA ou dans la maintenance des robots qu'il y aura beaucoup de boulot.
Parce qu'il y a besoin de peu d'humains pour faire beaucoup.
Je me pose quand même la question, toute cette augmentation de productivité, qui va pouvoir en acheter les fruits, si on se retrouve avec des gens sans travail, qui va acheter ce que produit l'IA ?
6  0 
Avatar de smobydick
Membre averti https://www.developpez.com
Le 16/02/2024 à 7:57
Il y a tellement d'experts qui disent tout et son contraire qu'il y en aura bien un qui finira par avoir raison.
6  0 
Avatar de calvaire
Expert éminent https://www.developpez.com
Le 21/02/2024 à 17:43
Une explication la plus probable, c'est que un modèle ca coute de la tune a faire tourner, open ai a surement crée un modèle dégradé mais qui consomme beaucoup moins pour arriver à tenir financièrement.

si demain google search utilisait un système comme openai, google serait surement en faillite, les couts sont multiplié par 10 je crois par rapport au algos de recherche classique au dernnier articles que j'avais lu (ca date de plus d'1ans cela dit, les couts ont surrement baissé)
mais même un facteur x2 c'est trop cher, ca signifierais que google devrait mettre 2 fois plus de pub ou augmenter le prix du référencement par 2.
6  0 
Avatar de Seb33300
Membre émérite https://www.developpez.com
Le 10/06/2024 à 11:35
L’erreur de ChatGPT qui a coûté 10 000 dollars
ChatGPT c'est un outils, le responsable ça reste le développeur...

Sinon, la prochaine fois que je déploie un bug je dirais que c'est la faute de mon clavier...
6  0