IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les éditeurs scientifiques face à l'impasse des faux documents générés par l'IA
Les outils de génération de textes et d'images constituent un nouvel obstacle aux efforts déployés

Le , par Bruno

5PARTAGES

5  0 
Les outils de génération de textes et d'images constituent un nouvel obstacle aux efforts déployés pour lutter contre le nombre croissant de faux articles qui se frayent un chemin dans la littérature académique. Les progrès de l'intelligence artificielle (IA) compliquent les efforts déployés par les éditeurs pour s'attaquer au problème croissant des organisations non officielles et potentiellement illégales qui produisent de faux documents, de faux articles scientifiques sur commande. Les outils d'IA générative, y compris les chatbots tels que ChatGPT et les logiciels de génération d'images, offrent de nouveaux moyens de produire du contenu, qui pourrait s'avérer particulièrement difficile à reconnaitre. Ces questions ont été abordées par les experts en intégrité de la recherche lors d'un sommet qui s'est tenu le 24 mai et qui était consacré au problème de ses organisations non officielles et potentiellement illégales qui produisent de faux documents (paper mill).

Rappelons que dans le secteur de la recherche, un « paper mill » est une organisation non officielle et potentiellement illégale, orientée vers le profit, qui produit et vend de faux manuscrits qui semblent ressembler à des travaux de recherches authentiques. Dans certains cas, les « paper mill » sont des opérations sophistiquées qui vendent des positions d'auteur sur des recherches légitimes, mais dans de nombreux cas, les articles contiennent des données erronées et peuvent être fortement plagiés ou non professionnels. Selon un rapport de Nature, des milliers d'articles dans des revues universitaires ont été retracés jusqu'à des organisations en Chine, d'Iran et de Russie, et certaines revues réorganisent leurs processus d'évaluation.


De façon croissante, les entreprises produisent des articles scientifiques falsifiés sur commande, en échange d’argent. Les progrès de l’intelligence artificielle (IA) rendent plus difficile la détection de ces articles, car ils peuvent utiliser des outils capables de générer des images et du texte réaliste, qui imitent les données et le style des vrais articles.

Certains des plus grands éditeurs de revues universitaires du monde ont interdit ou restreint l'utilisation par leurs auteurs du chatbot avancé ChatGPT. Comme le robot utilise des informations provenant d'Internet pour produire des réponses très lisibles à des questions, les éditeurs craignent que des travaux inexacts ou plagiés n'entrent dans les pages de la littérature universitaire.

Plusieurs chercheurs ont déjà inscrit le chatbot en tant que coauteur dans des études universitaires, et certains éditeurs ont décidé d'interdire cette pratique. Mais le rédacteur en chef de Science, l'une des principales revues scientifiques au monde, est allé plus loin en interdisant toute utilisation du texte du programme dans les articles soumis.

Springer Nature, qui publie des milliers de revues scientifiques, a annoncé en début d’année que ChatGPT - ou tout système similaire de génération de texte - ne peut pas être crédité en tant qu'auteur dans les articles publiés dans ses revues. L'éditeur ne voit aucun problème au fait que l'IA soit utilisée pour aider à rédiger des recherches, mais elle exige que son utilisation soit correctement divulguée. Cette annonce intervient à un moment où le débat sur la question de savoir si l'on peut attribuer la paternité d'une œuvre à une IA s'intensifie, mais aussi après les déboires du média CNET avec son IA interne de génération de texte.

Pour de nombreux experts du secteur de la technologie, ChatGPT pourrait changer à jamais l'édition. Ainsi, certains types de journalisme, comme les simples articles de sport et d'affaires, seraient particulièrement sensibles à l'automatisation. ChatGPT pourrait être la technologie numérique la plus importante à avoir un impact sur les éditeurs depuis les années 1980. Le chatbot créé par le laboratoire d'intelligence artificielle (IA) OpenAI peut répondre à des questions complexes et s'appuyer sur des recherches secondaires pour rédiger des textes « originaux ». Si l'information se trouve sur Internet, ChatGPT peut produire du contenu avec.

« La capacité des organisations non officielles et potentiellement illégales qui produisent de faux documents à générer des données brutes de plus en plus plausibles va tout simplement exploser avec l'IA », déclare Jennifer Byrne, biologiste moléculaire et chercheuse en intégrité des publications à la New South Wales Health Pathology et à l'Université de Sydney en Australie.

« J'ai vu de fausses images de microscopie générées par l'IA », déclare Jana Christopher, analyste de l'intégrité des données d'image chez l'éditeur FEBS Press à Heidelberg, en Allemagne. Mais il reste difficile de prouver hors de tout soupçon que les images sont générées par l'IA, ajoute-t-elle.
Les outils d'IA générateurs de langage tels que ChatGPT posent un problème similaire. « Dès que l'on dispose d'un outil capable de démontrer que quelque chose a été généré par ChatGPT, il y aura un autre outil pour le brouiller », déclare Christopher.

Anna Abalkina, chercheuse en sciences sociales à l'Université libre de Berlin et analyste indépendante de l'intégrité de la recherche, soupçonne que ces outils d'IA pourraient tarder à apparaître dans la littérature universitaire en raison de la longueur du processus d'évaluation par les pairs. Peut-être que dans les prochains mois, « nous verrons le premier flux d'articles », dit-elle.

Byrne, Christopher et Abalkina ont participé la semaine dernière au sommet UNITED2ACT, organisé par le Committee on Publication Ethics (COPE), une organisation à but non lucratif spécialisée dans l'éthique de l'édition universitaire basée à Eastleigh, au Royaume-Uni, et par l'Association internationale des éditeurs scientifiques, techniques et médicaux (STM), basée à Oxford. Le sommet a réuni des chercheurs internationaux, y compris des analystes indépendants de l'intégrité de la recherche, ainsi que des représentants d'organismes de financement et d'éditeurs.

« C'était la première fois qu'un groupe de personnes se réunissait et créait ensemble une série d'actions que nous allons mettre en œuvre pour lutter contre ce problème », déclare Deborah Kahn, administratrice du COPE et consultante en matière d'intégrité de la recherche, basée à Londres. Le groupe a l'intention de publier bientôt son plan d'action commun.

Lorsqu'il s'agit de détecter des ouvrages en papier, « il y a absolument un défi supplémentaire qui est posé par les images synthétiques, le texte synthétique, etc. », déclare Joris van Rossum, directeur de programme pour STM Solutions, une filiale de STM. « Il y a une prise de conscience générale du fait que le dépistage risque de devenir plus difficile », ajoute-t-il.

L’IA et la recherche scientifique: opportunités et défis

Selon Kahn, même s'il ne fait aucun doute que l'IA sera utilisée de manière positive pour aider les chercheurs à rédiger des articles, il sera toujours nécessaire de faire la distinction entre les articles légitimes rédigés à l'aide de l'IA et ceux qui ont été complètement fabriqués. « Nous devons vraiment nous pencher sur la manière dont nous identifions ces documents et dont nous nous assurons que les personnes ont réellement effectué la recherche. Il y a plusieurs façons d'y parvenir », explique-t-elle.

L'une des stratégies discutées lors du sommet consistait à exiger des auteurs qu'ils fournissent les données brutes de leurs expériences, éventuellement accompagnées de filigranes numériques qui permettraient aux éditeurs de confirmer l'authenticité de ces données. Actuellement, les exigences en matière de soumission de données brutes varient considérablement d'un éditeur à l'autre, explique Christopher. Il pourrait donc être utile d'établir un ensemble uniforme d'exigences pour la soumission de données brutes entre les éditeurs, en tenant compte des différences entre les domaines de recherche.

Sabina Alam, directrice de l'éthique et de l'intégrité de l'édition chez Taylor & Francis, une maison d'édition basée à Abingdon, au Royaume-Uni, partage cet avis, mais estime que la mise en œuvre de telles normes prendra du temps. « Je ne peux pas imaginer que cela se fasse du jour au lendemain, car la réalité est que de nombreuses institutions n'ont pas les ressources nécessaires pour offrir une infrastructure de gestion des données », dit-elle. « Nous ne voulons pas pénaliser la recherche réelle. »

Deux doyens de l'université Vanderbilt de Nashville, dans le Tennessee, aux États-Unis, auraient été suspendus après avoir utilisé ChatGPT pour rédiger un courriel de 297 mots envoyé à des étudiants au sujet de la fusillade meurtrière qui a eu lieu la semaine dernière sur le campus de l'université d'État du Michigan. Au bas du message, on pouvait lire qu'il a été écrit par une IA : « Paraphrase from OpenAI's ChatGPT AI language model, personal communication, February 15, 2023 ». Une enquête a été ouverte par les autorités de l'université et les deux doyens ayant signé le courriel, Nicole Joseph et Hasina Mohyuddin, ont temporairement démissionné.

Les outils de détection des paper-mill, un enjeu majeur pour les éditeurs

Les participants au sommet ont également discuté d'autres stratégies pour s'attaquer plus largement au problème des paper-mill, notamment l'organisation d'une journée ou d'une semaine de sensibilisation pour les chercheurs, ainsi que l'identification de moyens permettant aux éditeurs de partager des informations pertinentes sur les paper-mill présumées - par exemple lorsqu'ils reçoivent simultanément des soumissions - sans enfreindre les règles relatives à la protection des données.

STM continue de développer son propre logiciel de détection des papeteries, tout en rassemblant des ressources sur des outils similaires disponibles ailleurs par l'intermédiaire de son centre d'intégrité. L'augmentation apparente des usines à papier accroît la demande de techniques de ce type, à la fois pour détecter les faux articles au moment de leur soumission et pour identifier ceux qui ont déjà été publiés.

Taylor & Francis fait partie des éditeurs qui utilisent ces outils, et Alam affirme qu'un nombre croissant de cas d'éthique - des cas de mauvaise conduite potentielle qui sont signalés pour une enquête plus approfondie - sont transmis à son équipe. Environ la moitié de ces cas sont dus à des paper-mill, selon Alam. Son équipe a vu le nombre de cas d'éthique multiplié par plus de dix entre 2019 et 2022 - et depuis le début de l'année, il y a eu presque autant de cas que pendant toute l'année 2022. « Il semble que le système ait été commercialisé et mis à l'échelle », explique-t-elle.

Source : Springer Nature

Et vous ?

Cette publication de Springer Nature est -elle pertinente ?

Quel est votre avis sur le fait que les paper-mill utilisent l’IA pour générer des images et du texte ?

Quels peuvent être les solutions à adopter par les éditeurs pour détecter les paper-mill ?

Quelles peuvent être les conséquences juridiques et éthiques de la diffusion et de la rétractation des paper-mill ?

Voir aussi :

Le plus grand éditeur universitaire du monde affirme que ChatGPT ne peut pas être crédité en tant qu'auteur, il peut servir pour rédiger des recherches, mais sa contribution doit être divulguée

Un professeur surprend un étudiant en train de tricher avec le chatbot d'IA ChatGPT : « je suis terrorisé », il estime que ces outils pourraient aggraver la tricherie dans l'enseignement supérieur

ChatGPT produirait de faux documents universitaires, alors que des professions se sentent menacées par le célèbre outil d'OpenAI

Les pasteurs utiliseraient ChatGPT pour écrire des sermons, alors que certains affirment que l'outil d'IA ne reproduit pas la passion d'une véritable prédication

Des doyens d'université suspendus après avoir utilisé ChatGPT pour envoyer des courriels à des étudiants sur une fusillade de masse, le message a suscité un tollé au sein de l'établissement

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de schlebe
Membre actif https://www.developpez.com
Le 08/06/2023 à 19:26
La moindre des choses à exiger des articles publiés par ChatGPT et qu'il les signe afin de permettre aux lecteurs de connaître la véritable source des articles.

Il faudrait également sanctionner les sociétés qui publient des articles générés par ChatGPT avec du contenus inventés ou mensongers.

Une amende de 2% du chiffre d'affaire par articles mensongers publiés et une amende de 2% du chiffre d'affaire par jour et par articles mensongers constatés et toujours publiés plus d'une semaine après le constat.

Dans moins d'un mois, on ne parlera plus de ChatGPT de la même façon et il faudra engager du personnel pour vérifier tout ce qu'il aura écrit.
12  2 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 09/06/2023 à 14:59
Citation Envoyé par coolspot Voir le message
Macron si on peut dire c'est un Poutine avec 20 ans de moins. Il se prépare deja à vouloir bidouiller la constitution ou faire comme la presse commence à le dire une "Poutine/Medvedev" pour etre président à vie
Heu ! Tu as des infos la dessus ? Non seulement sur la préparation, mais aussi la faisabilité...
8  0 
Avatar de totozor
Membre expert https://www.developpez.com
Le 09/06/2023 à 15:48
Citation Envoyé par Ryu2000 Voir le message
C'est pas marrant d'être sans emploi.
C'est pas marrant d'être sans emploi dans un système capitaliste.
Que se passerait il si les gens n'avaient plus besoin de se salarier pour vivre?
La plupart travailleraient.
Par exemple que font les retraités qui ont la santé?
Il s'investissent dans les associations, ils gardent leurs petits enfants, ils investissent dans leur quartier, ils s'entreaident etc.
(Et ceux qui revaient d'être rentiers partent en voyage)

Pourquoi ceci n'est pas souhaitable?
Comment nos dirigeants s'assureraient d'avoir de la main d'oeuvre (au sens large)?
Bernard Arnault perdrait "de la valeur" (je ne dit pas qu'il n'en aurait plus) et Gérard l'éboueur, Géraldine l'aide soignante, Marcel le passionné d'astronomie en gagneraient

Oui le monde que je décrit est peut être idéaliste mais il y a des faisceau de pistes qui suggèrent que c'est viable
Et ce n'est qu'un monde à envisager parmi d'autres
Celui dans lequel on vit ne semble pas viable pour la majorité.
9  1 
Avatar de e-ric
Membre expert https://www.developpez.com
Le 16/06/2023 à 9:42
Salut à tous

Ok pour l'estimation, mais le vrai de problème est de savoir qui va capter tout cet argent. Perso, je pense que cela ne va pas ruisseler et que bien au contraire, cela va mettre beaucoup de gens (comme nous) sur la paille.

tchüss
8  0 
Avatar de petitours
Membre chevronné https://www.developpez.com
Le 31/01/2024 à 8:42
Une fois que l'on a compris que ChatGPT n'est qu'un agent conversationnel on peut le trouver super.
Dans le détail ça ne vaut pas plus qu'une discussion de lundi matin à la machine à café basée sur le fait qu'il faut absolument dire un truc et où le plus bavard, ici chatGPT, va absolument avoir un anecdote et répondre un truc quel que soit le sujet.
J'ai testé, longuement, et reçu des réponses régulièrement débiles.
Aujourd'hui je ne l'utilise que sur des sujets que je connais très bien pour voir ce qu'il me répond, notamment dans le cadre d'enseignements que je donne pour voir ce que mes étudiants vont avoir comme informations en passant par lui. Ce qu'il raconte est au mieux très vague, au pire profondément faux, souvent parce que révélant des mauvaises pratiques.
Cette médiocrité de l'information est à mon sens le plus négatif, sans doute basée sur le volume de données qu'il va chercher copieusement "enrichies" par des forums, blogs ou autres écrits par des non spécialistes.
Le fait qu'il fouine partout et utilise des données personnelles ou viole les droits des auteurs est un autre problème majeur mais personnellement je le le mettrait en 2, après celui de donner des informations fausses ou médiocres qui tirent vers le bas celui qui pose la question.
8  0 
Avatar de chrtophe
Responsable Systèmes https://www.developpez.com
Le 09/06/2023 à 13:53
Pas d'emploi => Pas de revenu
Pas de revenu => Pas d'impôt
Pas d'impôt => Pas de service public

Je modifierais par :

Pas d'emploi => Pas de revenu
Pas de revenu => Pas de quoi acheter les produits des entreprises => pas de revenus pour les entreprises

pas de revenus ni d'entreprises, ni de particuliers=> pas d"impôts => pas de services publics

en gros effondrement de notre modèle.

Postulons que le revenu universel pourrait être la solution : comment le financer ? Le seul financement viable que je vois c'est par les entreprises, et éventuellement par les personnes qui continueront à travailler en plus du revenu universel. Mais si ce qu'ils gagnent est taxé à 80% pour financer le système, quel est l’intérêt de travailler ? Les entreprises manqueront alors de personnel, et devront donc payer leur salariés chers, et payer des taxes encore plus lourdes, charges qui seront répercutées sur le prix des produits, rendant du coup le revenu universel insuffisant pour pouvoir les acheter.
Parade au problème : le blocage des prix. Les entreprises iront alors vendre ceux-ci ailleurs provoquant des pénuries, c'est ce qui se passe actuellement avec les médicaments.

Avoir un vrai revenu universel implique une non d'obligation de travailler, donc travailler doit réellement apporter quelque chose : argent , épanouissement, occupation, lien social, activités, en dehors de l'aspect financier, pouvant être réalisé dans le cadre associatif par exemple, pouvant apporter à la société et étant plus pertinent qu'un travail pour plein de gens. Comment viabiliser le truc ? Il faudrait déjà calculer le besoin de financement de ce revenu universel et ensuite voir comment le financer. Perso je passe mon tour, de toute façon je ne serais pas écouté.

Si de toute façon les gens n'ont plus de travail, une économie parallèle se généralisera je pense.
7  0 
Avatar de xavier-Pierre
Membre éclairé https://www.developpez.com
Le 21/07/2023 à 8:10
Selon une nouvelle étude menée par des chercheurs de Stanford, les étudiants en médecine de première et de deuxième année peuvent obtenir de meilleurs résultats que les étudiants en médecine
encore un article généré par l'IA
7  0 
Avatar de calvaire
Expert confirmé https://www.developpez.com
Le 07/06/2023 à 9:40
Citation Envoyé par totozor Voir le message
Il y a quelques années il était évident pour certains que le travail à domicile était la solution à terme, les grands groupes informatiques en reviennent au fur et à mesure.
non, le full remote n'a jamais été l'avenir.
c'est le travail hybride qui était l'avenir et clairement ca prends, je trouve aucune boite en it qui impose du 100% en présentiel (et heureusement sinon ils trouverait personne), c'est 2-3j de télétravail/semaines.
capgemini (la plus grosse esn) c'est 4 jours de télétravail/semaines par exemple.



Citation Envoyé par totozor Voir le message
Remplacer les profs, les médecins par les IA serait créer la société décadente que beaucoup regrettent déjà. Je n'ai aucune considérations pour les profs pourtant certains m'ont quasiment sauvé la vie et je suis incapable d'apprendre avec un IA (avec leur état de maturité actuelle), et quand je vais voir mon médecin je ne vais pas juste récupérer une prescription, je vais aussi trouver l'avis d'un professionnel, pouvoir lui expliquer en quoi pratiquer un sport de contact alors que j'ai des problèmes de dos est une préoccupation et qu'il me fasse un retour sur les choses à favoriser/éviter. Ces consultations sont d'ailleurs assez caucasses parce qu'on envisage des vraies situaitons de jeu.
tu raisonnes en mode "l'état me le finance gratos ou hj'ai les moyens de me le payer"

dans les pays anglo-saxons, les populations s'appauvrisses avec l'inflation, ils a des grande coupe budgétaire à faire. éduquer ces enfants par chatgpt et se faire soigner par chatgpt c'est leurs seul solution pour survivre hélas.

dans les pays disons plus "socialiste" comme la France, les gens sont pauvres aussi mais peuvent encore avoir accès a ces services gratos. Mais la dette explose et quand faudra la rembourser, l'état va devoir bien tailler dans les dépenses, donc les flics ce seront des drones de combats autonomes, les profs remplacer par des bots et les docteurs (y'a déjà une pénurie) remplacer par chatgpt.
Faut bien payer la dette.

les pays comme la Roumanie, la France leurs volent leurs médecins, eux n'ont donc plus le choix c'est chatgpt ou crève.

La 5G ou les voitures électriques sont des fiascos industriels car les gens n'ont pas les moyens de se payer ces technos. Je me demande qui va acheter les batteries qu'ils vont produire dans le nord. La moyenne d'âge pour l'achat une voiture neuve en france c'est...57ans
donc la relance par l'industrie c'est juste une grosse blague.

et en 2027 ce sera la taxe carbone ne qui va venir (450€/ans)

donc les gens n'ont plus les moyens d'aller voir un médecin, de se payer un avocat ou d'aller a l'école, aujourd'hui beaucoup de francais peuvent juste acheter des pates le soir (le midi ils sautent le repas) pour se nourrir et acheter une tablette wiko pour lancer chatgpt pour s'instruire et se soigner.

C'est extrême ce que je dis mais lentement et surement on y va. Actuellement l'état est tellement dans la merde niveau finance qu'il en est a réfléchir a devenir copropriétaire de tous les bien immobilier de France pour déduire la dette. Donc de t'expropriée à terme.
Les entreprises doivent absolument alimenter la croissance pour les actionnaires, a n'importe quel prix, donc licenciements massifs obligatoire, même si la qualité est mauvaise.
8  2 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 08/06/2023 à 15:41
Citation Envoyé par Ryu2000 Voir le message
Consulter la documentation ou demander à ChatGPT c'est un peu la même chose au final.
Faux. ChatGPT, comme toutes les IA génératives est capable de te raconter un tissu de mensonges. Tu as même un article aujourd'hui sur l'exploitation de ces IA pour inciter les devs à intégrer des packages malveillants dans leurs projets...

Citation Envoyé par Ryu2000 Voir le message
Ils ne sont pas tous si doué que ça.
C'est fréquent qu'un patient soit mal diagnostiqué.
Au moins une IA aurait plus de données.
Les données, il faut les classer correctement. L'argument des données, c'est celui utilisé par Tesla pour dire que leurs voitures autonomes sont au top, et plus sûres qu'une voiture conventionnelle. Et pourtant, il suffit de chercher sur ce forum (avec le leak Tesla récent) pour voir que ce n'est pas vrai et qu'ils cachent les problèmes sous le tapis...

Citation Envoyé par Ryu2000 Voir le message
Bon là d'un côté c'est inquiétant.
Parce que si les gros vendeurs d'opiacé arrivent à corrompre les IA comme ils ont corrompus les médecins, peut-être que les IA vont se mettre à prescrire des médicaments beaucoup trop dangereux, comme avec l'oxycodone et le fentanyl.
Pas besoin. Une IA générative = une grosse société derrière. Ils feront simplement des partenariats financiers et leur IA dira ce qu'il faudra. Pour le prochain scandale du Mediator, ce sera plus simple de corrompre quelqu'un de chez OpenAI (ou autre), que tout un tas de médecins.
8  2 
Avatar de PomFritz
Membre confirmé https://www.developpez.com
Le 08/06/2023 à 20:21
Je n'ai aucune idée des références de ce monsieur. Mais, avec toutes les prédictions sur les voitures autonomes, les cryptos, le métavers, les objets connectés, etc... , on voit qu'on est toujours ratrappé par la complexité de la réalité.
6  0