IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les éditeurs scientifiques face à l'impasse des faux documents générés par l'IA
Les outils de génération de textes et d'images constituent un nouvel obstacle aux efforts déployés

Le , par Bruno

42PARTAGES

5  0 
Les outils de génération de textes et d'images constituent un nouvel obstacle aux efforts déployés pour lutter contre le nombre croissant de faux articles qui se frayent un chemin dans la littérature académique. Les progrès de l'intelligence artificielle (IA) compliquent les efforts déployés par les éditeurs pour s'attaquer au problème croissant des organisations non officielles et potentiellement illégales qui produisent de faux documents, de faux articles scientifiques sur commande. Les outils d'IA générative, y compris les chatbots tels que ChatGPT et les logiciels de génération d'images, offrent de nouveaux moyens de produire du contenu, qui pourrait s'avérer particulièrement difficile à reconnaitre. Ces questions ont été abordées par les experts en intégrité de la recherche lors d'un sommet qui s'est tenu le 24 mai et qui était consacré au problème de ses organisations non officielles et potentiellement illégales qui produisent de faux documents (paper mill).

Rappelons que dans le secteur de la recherche, un « paper mill » est une organisation non officielle et potentiellement illégale, orientée vers le profit, qui produit et vend de faux manuscrits qui semblent ressembler à des travaux de recherches authentiques. Dans certains cas, les « paper mill » sont des opérations sophistiquées qui vendent des positions d'auteur sur des recherches légitimes, mais dans de nombreux cas, les articles contiennent des données erronées et peuvent être fortement plagiés ou non professionnels. Selon un rapport de Nature, des milliers d'articles dans des revues universitaires ont été retracés jusqu'à des organisations en Chine, d'Iran et de Russie, et certaines revues réorganisent leurs processus d'évaluation.


De façon croissante, les entreprises produisent des articles scientifiques falsifiés sur commande, en échange d’argent. Les progrès de l’intelligence artificielle (IA) rendent plus difficile la détection de ces articles, car ils peuvent utiliser des outils capables de générer des images et du texte réaliste, qui imitent les données et le style des vrais articles.

Certains des plus grands éditeurs de revues universitaires du monde ont interdit ou restreint l'utilisation par leurs auteurs du chatbot avancé ChatGPT. Comme le robot utilise des informations provenant d'Internet pour produire des réponses très lisibles à des questions, les éditeurs craignent que des travaux inexacts ou plagiés n'entrent dans les pages de la littérature universitaire.

Plusieurs chercheurs ont déjà inscrit le chatbot en tant que coauteur dans des études universitaires, et certains éditeurs ont décidé d'interdire cette pratique. Mais le rédacteur en chef de Science, l'une des principales revues scientifiques au monde, est allé plus loin en interdisant toute utilisation du texte du programme dans les articles soumis.

Springer Nature, qui publie des milliers de revues scientifiques, a annoncé en début d’année que ChatGPT - ou tout système similaire de génération de texte - ne peut pas être crédité en tant qu'auteur dans les articles publiés dans ses revues. L'éditeur ne voit aucun problème au fait que l'IA soit utilisée pour aider à rédiger des recherches, mais elle exige que son utilisation soit correctement divulguée. Cette annonce intervient à un moment où le débat sur la question de savoir si l'on peut attribuer la paternité d'une œuvre à une IA s'intensifie, mais aussi après les déboires du média CNET avec son IA interne de génération de texte.

Pour de nombreux experts du secteur de la technologie, ChatGPT pourrait changer à jamais l'édition. Ainsi, certains types de journalisme, comme les simples articles de sport et d'affaires, seraient particulièrement sensibles à l'automatisation. ChatGPT pourrait être la technologie numérique la plus importante à avoir un impact sur les éditeurs depuis les années 1980. Le chatbot créé par le laboratoire d'intelligence artificielle (IA) OpenAI peut répondre à des questions complexes et s'appuyer sur des recherches secondaires pour rédiger des textes « originaux ». Si l'information se trouve sur Internet, ChatGPT peut produire du contenu avec.

« La capacité des organisations non officielles et potentiellement illégales qui produisent de faux documents à générer des données brutes de plus en plus plausibles va tout simplement exploser avec l'IA », déclare Jennifer Byrne, biologiste moléculaire et chercheuse en intégrité des publications à la New South Wales Health Pathology et à l'Université de Sydney en Australie.

« J'ai vu de fausses images de microscopie générées par l'IA », déclare Jana Christopher, analyste de l'intégrité des données d'image chez l'éditeur FEBS Press à Heidelberg, en Allemagne. Mais il reste difficile de prouver hors de tout soupçon que les images sont générées par l'IA, ajoute-t-elle.
Les outils d'IA générateurs de langage tels que ChatGPT posent un problème similaire. « Dès que l'on dispose d'un outil capable de démontrer que quelque chose a été généré par ChatGPT, il y aura un autre outil pour le brouiller », déclare Christopher.

Anna Abalkina, chercheuse en sciences sociales à l'Université libre de Berlin et analyste indépendante de l'intégrité de la recherche, soupçonne que ces outils d'IA pourraient tarder à apparaître dans la littérature universitaire en raison de la longueur du processus d'évaluation par les pairs. Peut-être que dans les prochains mois, « nous verrons le premier flux d'articles », dit-elle.

Byrne, Christopher et Abalkina ont participé la semaine dernière au sommet UNITED2ACT, organisé par le Committee on Publication Ethics (COPE), une organisation à but non lucratif spécialisée dans l'éthique de l'édition universitaire basée à Eastleigh, au Royaume-Uni, et par l'Association internationale des éditeurs scientifiques, techniques et médicaux (STM), basée à Oxford. Le sommet a réuni des chercheurs internationaux, y compris des analystes indépendants de l'intégrité de la recherche, ainsi que des représentants d'organismes de financement et d'éditeurs.

« C'était la première fois qu'un groupe de personnes se réunissait et créait ensemble une série d'actions que nous allons mettre en œuvre pour lutter contre ce problème », déclare Deborah Kahn, administratrice du COPE et consultante en matière d'intégrité de la recherche, basée à Londres. Le groupe a l'intention de publier bientôt son plan d'action commun.

Lorsqu'il s'agit de détecter des ouvrages en papier, « il y a absolument un défi supplémentaire qui est posé par les images synthétiques, le texte synthétique, etc. », déclare Joris van Rossum, directeur de programme pour STM Solutions, une filiale de STM. « Il y a une prise de conscience générale du fait que le dépistage risque de devenir plus difficile », ajoute-t-il.

L’IA et la recherche scientifique: opportunités et défis

Selon Kahn, même s'il ne fait aucun doute que l'IA sera utilisée de manière positive pour aider les chercheurs à rédiger des articles, il sera toujours nécessaire de faire la distinction entre les articles légitimes rédigés à l'aide de l'IA et ceux qui ont été complètement fabriqués. « Nous devons vraiment nous pencher sur la manière dont nous identifions ces documents et dont nous nous assurons que les personnes ont réellement effectué la recherche. Il y a plusieurs façons d'y parvenir », explique-t-elle.

L'une des stratégies discutées lors du sommet consistait à exiger des auteurs qu'ils fournissent les données brutes de leurs expériences, éventuellement accompagnées de filigranes numériques qui permettraient aux éditeurs de confirmer l'authenticité de ces données. Actuellement, les exigences en matière de soumission de données brutes varient considérablement d'un éditeur à l'autre, explique Christopher. Il pourrait donc être utile d'établir un ensemble uniforme d'exigences pour la soumission de données brutes entre les éditeurs, en tenant compte des différences entre les domaines de recherche.

Sabina Alam, directrice de l'éthique et de l'intégrité de l'édition chez Taylor & Francis, une maison d'édition basée à Abingdon, au Royaume-Uni, partage cet avis, mais estime que la mise en œuvre de telles normes prendra du temps. « Je ne peux pas imaginer que cela se fasse du jour au lendemain, car la réalité est que de nombreuses institutions n'ont pas les ressources nécessaires pour offrir une infrastructure de gestion des données », dit-elle. « Nous ne voulons pas pénaliser la recherche réelle. »

Deux doyens de l'université Vanderbilt de Nashville, dans le Tennessee, aux États-Unis, auraient été suspendus après avoir utilisé ChatGPT pour rédiger un courriel de 297 mots envoyé à des étudiants au sujet de la fusillade meurtrière qui a eu lieu la semaine dernière sur le campus de l'université d'État du Michigan. Au bas du message, on pouvait lire qu'il a été écrit par une IA : « Paraphrase from OpenAI's ChatGPT AI language model, personal communication, February 15, 2023 ». Une enquête a été ouverte par les autorités de l'université et les deux doyens ayant signé le courriel, Nicole Joseph et Hasina Mohyuddin, ont temporairement démissionné.

Les outils de détection des paper-mill, un enjeu majeur pour les éditeurs

Les participants au sommet ont également discuté d'autres stratégies pour s'attaquer plus largement au problème des paper-mill, notamment l'organisation d'une journée ou d'une semaine de sensibilisation pour les chercheurs, ainsi que l'identification de moyens permettant aux éditeurs de partager des informations pertinentes sur les paper-mill présumées - par exemple lorsqu'ils reçoivent simultanément des soumissions - sans enfreindre les règles relatives à la protection des données.

STM continue de développer son propre logiciel de détection des papeteries, tout en rassemblant des ressources sur des outils similaires disponibles ailleurs par l'intermédiaire de son centre d'intégrité. L'augmentation apparente des usines à papier accroît la demande de techniques de ce type, à la fois pour détecter les faux articles au moment de leur soumission et pour identifier ceux qui ont déjà été publiés.

Taylor & Francis fait partie des éditeurs qui utilisent ces outils, et Alam affirme qu'un nombre croissant de cas d'éthique - des cas de mauvaise conduite potentielle qui sont signalés pour une enquête plus approfondie - sont transmis à son équipe. Environ la moitié de ces cas sont dus à des paper-mill, selon Alam. Son équipe a vu le nombre de cas d'éthique multiplié par plus de dix entre 2019 et 2022 - et depuis le début de l'année, il y a eu presque autant de cas que pendant toute l'année 2022. « Il semble que le système ait été commercialisé et mis à l'échelle », explique-t-elle.

Source : Springer Nature

Et vous ?

Cette publication de Springer Nature est -elle pertinente ?

Quel est votre avis sur le fait que les paper-mill utilisent l’IA pour générer des images et du texte ?

Quels peuvent être les solutions à adopter par les éditeurs pour détecter les paper-mill ?

Quelles peuvent être les conséquences juridiques et éthiques de la diffusion et de la rétractation des paper-mill ?

Voir aussi :

Le plus grand éditeur universitaire du monde affirme que ChatGPT ne peut pas être crédité en tant qu'auteur, il peut servir pour rédiger des recherches, mais sa contribution doit être divulguée

Un professeur surprend un étudiant en train de tricher avec le chatbot d'IA ChatGPT : « je suis terrorisé », il estime que ces outils pourraient aggraver la tricherie dans l'enseignement supérieur

ChatGPT produirait de faux documents universitaires, alors que des professions se sentent menacées par le célèbre outil d'OpenAI

Les pasteurs utiliseraient ChatGPT pour écrire des sermons, alors que certains affirment que l'outil d'IA ne reproduit pas la passion d'une véritable prédication

Des doyens d'université suspendus après avoir utilisé ChatGPT pour envoyer des courriels à des étudiants sur une fusillade de masse, le message a suscité un tollé au sein de l'établissement

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de
https://www.developpez.com
Le 04/09/2024 à 21:19
Citation Envoyé par Stéphane le calme Voir le message

Quels compromis seriez-vous prêt à accepter pour permettre l’innovation en IA tout en protégeant les droits des auteurs ?
Aucun, pourquoi un générateur de médiocrité (nivelage de tout le contenu) pourrait voler le travail des producteurs de valeur pour que OpenAI puisse "gagner de l'argent" en empêchant le dit producteur de valeur d'en gagner ? La réponse à votre question est dans la question en fait, il suffit de remplacer "innovation" par ce qu'est réellement un tel moteur conversationnel qui répond tout et n'importe quoi et de se rappeler le sens de "droit" et de "auteur"

Citation Envoyé par Stéphane le calme Voir le message

Pensez-vous que les entreprises technologiques devraient payer une redevance pour utiliser des contenus protégés par le droit d’auteur ? Si oui, comment cette redevance devrait-elle être calculée ?
Sur la base d'une négociation avec chaque auteur. s'ils ont besoin des ces données il doivent la respecter et donc respecter ceux qui la produise.

Citation Envoyé par Stéphane le calme Voir le message

Comment les créateurs de contenu peuvent-ils collaborer avec les entreprises d’IA pour garantir une utilisation éthique de leurs œuvres ?
C'est leur droit, c'est aux entreprises d'IA de faire les efforts nécessaires.

Citation Envoyé par Stéphane le calme Voir le message

L’utilisation de matériaux protégés par le droit d’auteur sans autorisation pourrait-elle nuire à la diversité et à la qualité des contenus disponibles en ligne ?
C'est déjà le cas, il suffit d'interroger ChatGPT ou Mistral ou autre sur n'importe quel sujet que l'on connait bien pour constater le massacre qui est fait de l'information, vaguement reformulées, avec très souvent des hallucinations ubuesques. En enseignement c'est terrible aujourd'hui, on doit passer 4h sur un sujet qui en prenait 1 avant pour faire désapprendre aux étudiants des trucs faux qui les empêchent de comprendre la notion.

Citation Envoyé par Stéphane le calme Voir le message

Quelles mesures législatives pourraient être mises en place pour équilibrer les besoins des développeurs d’IA et les droits des créateurs ?
Mais pourquoi équilibrer ? les entreprises d'IA n'ont rien à imposer. Si tel était le cas ce serait la fin de tout. Les auteurs n'auraient plus de revenus donc ne produiraient plus et il ne resterait que la soupe mal interprétées par ces "IA" sur la base de l'existant, grande victoire pour les entreprises d'IA qui deviendraient riche pendant un certain temps, une catastrophe pour l'humanité qui deviendrait comme les gros bonhommes dans Wall-e.

Citation Envoyé par Stéphane le calme Voir le message

Pensez-vous que l’accès libre aux informations et aux œuvres culturelles est essentiel pour le progrès technologique, ou cela devrait-il être strictement réglementé ?
si le progrés technologique n'apporte qu'une baisse de qualité et une perte de travail dans une société où on est de plus en plus nombreux il est évident que la réglementation doit empêcher la désignation de "progrés" ce qui n'est qu'un simple moteur conversationnel qui répond coute que coute même quand il ne sait pas. La Justice doit par ailleurs vivement condamner les atteintes au droit d'auteur, sinon ça veut dire que les grosses boites sont plus fortes que l’état de droit...gros soucis.

Citation Envoyé par Stéphane le calme Voir le message

Comment les utilisateurs finaux des technologies d’IA peuvent-ils influencer les pratiques des entreprises en matière de respect des droits d’auteur ?
Quand ils se rendront compte que ça ne leur apporte rien à part le "plaisir" de participer au truc fun du moment, quand ils se lasseront des images toutes identiques, quand ils se lasseront des contenus plats au goût de réchauffé, ils se mordront les doigts et se retourneront vers les gens qui produisent du contenu qui les élève ou les fait rêver.
15  1 
Avatar de totozor
Expert confirmé https://www.developpez.com
Le 05/09/2024 à 9:55
Citation Envoyé par Stéphane le calme Voir le message
Controverse autour du droit d'auteur : OpenAI assure ne pas pouvoir gagner de l'argent sans utiliser gratuitement du matériel protégé
Que se passe-t-il quand un entreprise a un business model qui n'est pas viable?
Elle vire son CEO
Elle met la clé sous la porte
Elle est rachetée
Elle peut aussi sortir de la loi mais à ses risques et péril
etc

C'est quand même incroyable que des entreprises hégémoniques se permettent ce genre de discours et qu'en plus elles fasse du quasi-esclavage en parallèle de ça.
Vous êtes dans la une bulle financière, technique et technologique incroyable et vous ne pouvez pas respecter la loi? Il y a une chose qui cloche dans votre gestion!
11  0 
Avatar de schlebe
Membre actif https://www.developpez.com
Le 08/06/2023 à 19:26
La moindre des choses à exiger des articles publiés par ChatGPT et qu'il les signe afin de permettre aux lecteurs de connaître la véritable source des articles.

Il faudrait également sanctionner les sociétés qui publient des articles générés par ChatGPT avec du contenus inventés ou mensongers.

Une amende de 2% du chiffre d'affaire par articles mensongers publiés et une amende de 2% du chiffre d'affaire par jour et par articles mensongers constatés et toujours publiés plus d'une semaine après le constat.

Dans moins d'un mois, on ne parlera plus de ChatGPT de la même façon et il faudra engager du personnel pour vérifier tout ce qu'il aura écrit.
12  2 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 09/06/2023 à 14:59
Citation Envoyé par coolspot Voir le message
Macron si on peut dire c'est un Poutine avec 20 ans de moins. Il se prépare deja à vouloir bidouiller la constitution ou faire comme la presse commence à le dire une "Poutine/Medvedev" pour etre président à vie
Heu ! Tu as des infos la dessus ? Non seulement sur la préparation, mais aussi la faisabilité...
8  0 
Avatar de totozor
Expert confirmé https://www.developpez.com
Le 09/06/2023 à 15:48
Citation Envoyé par Ryu2000 Voir le message
C'est pas marrant d'être sans emploi.
C'est pas marrant d'être sans emploi dans un système capitaliste.
Que se passerait il si les gens n'avaient plus besoin de se salarier pour vivre?
La plupart travailleraient.
Par exemple que font les retraités qui ont la santé?
Il s'investissent dans les associations, ils gardent leurs petits enfants, ils investissent dans leur quartier, ils s'entreaident etc.
(Et ceux qui revaient d'être rentiers partent en voyage)

Pourquoi ceci n'est pas souhaitable?
Comment nos dirigeants s'assureraient d'avoir de la main d'oeuvre (au sens large)?
Bernard Arnault perdrait "de la valeur" (je ne dit pas qu'il n'en aurait plus) et Gérard l'éboueur, Géraldine l'aide soignante, Marcel le passionné d'astronomie en gagneraient

Oui le monde que je décrit est peut être idéaliste mais il y a des faisceau de pistes qui suggèrent que c'est viable
Et ce n'est qu'un monde à envisager parmi d'autres
Celui dans lequel on vit ne semble pas viable pour la majorité.
9  1 
Avatar de e-ric
Membre expert https://www.developpez.com
Le 16/06/2023 à 9:42
Salut à tous

Ok pour l'estimation, mais le vrai de problème est de savoir qui va capter tout cet argent. Perso, je pense que cela ne va pas ruisseler et que bien au contraire, cela va mettre beaucoup de gens (comme nous) sur la paille.

tchüss
8  0 
Avatar de petitours
Membre chevronné https://www.developpez.com
Le 31/01/2024 à 8:42
Une fois que l'on a compris que ChatGPT n'est qu'un agent conversationnel on peut le trouver super.
Dans le détail ça ne vaut pas plus qu'une discussion de lundi matin à la machine à café basée sur le fait qu'il faut absolument dire un truc et où le plus bavard, ici chatGPT, va absolument avoir un anecdote et répondre un truc quel que soit le sujet.
J'ai testé, longuement, et reçu des réponses régulièrement débiles.
Aujourd'hui je ne l'utilise que sur des sujets que je connais très bien pour voir ce qu'il me répond, notamment dans le cadre d'enseignements que je donne pour voir ce que mes étudiants vont avoir comme informations en passant par lui. Ce qu'il raconte est au mieux très vague, au pire profondément faux, souvent parce que révélant des mauvaises pratiques.
Cette médiocrité de l'information est à mon sens le plus négatif, sans doute basée sur le volume de données qu'il va chercher copieusement "enrichies" par des forums, blogs ou autres écrits par des non spécialistes.
Le fait qu'il fouine partout et utilise des données personnelles ou viole les droits des auteurs est un autre problème majeur mais personnellement je le le mettrait en 2, après celui de donner des informations fausses ou médiocres qui tirent vers le bas celui qui pose la question.
8  0 
Avatar de Jules34
Membre émérite https://www.developpez.com
Le 05/09/2024 à 9:15
"Mais Monsieur comment voulez que je vende des voitures si je les voles pas au préalable !"
8  0 
Avatar de chrtophe
Responsable Systèmes https://www.developpez.com
Le 09/06/2023 à 13:53
Pas d'emploi => Pas de revenu
Pas de revenu => Pas d'impôt
Pas d'impôt => Pas de service public

Je modifierais par :

Pas d'emploi => Pas de revenu
Pas de revenu => Pas de quoi acheter les produits des entreprises => pas de revenus pour les entreprises

pas de revenus ni d'entreprises, ni de particuliers=> pas d"impôts => pas de services publics

en gros effondrement de notre modèle.

Postulons que le revenu universel pourrait être la solution : comment le financer ? Le seul financement viable que je vois c'est par les entreprises, et éventuellement par les personnes qui continueront à travailler en plus du revenu universel. Mais si ce qu'ils gagnent est taxé à 80% pour financer le système, quel est l’intérêt de travailler ? Les entreprises manqueront alors de personnel, et devront donc payer leur salariés chers, et payer des taxes encore plus lourdes, charges qui seront répercutées sur le prix des produits, rendant du coup le revenu universel insuffisant pour pouvoir les acheter.
Parade au problème : le blocage des prix. Les entreprises iront alors vendre ceux-ci ailleurs provoquant des pénuries, c'est ce qui se passe actuellement avec les médicaments.

Avoir un vrai revenu universel implique une non d'obligation de travailler, donc travailler doit réellement apporter quelque chose : argent , épanouissement, occupation, lien social, activités, en dehors de l'aspect financier, pouvant être réalisé dans le cadre associatif par exemple, pouvant apporter à la société et étant plus pertinent qu'un travail pour plein de gens. Comment viabiliser le truc ? Il faudrait déjà calculer le besoin de financement de ce revenu universel et ensuite voir comment le financer. Perso je passe mon tour, de toute façon je ne serais pas écouté.

Si de toute façon les gens n'ont plus de travail, une économie parallèle se généralisera je pense.
7  0 
Avatar de xavier-Pierre
Membre éclairé https://www.developpez.com
Le 21/07/2023 à 8:10
Selon une nouvelle étude menée par des chercheurs de Stanford, les étudiants en médecine de première et de deuxième année peuvent obtenir de meilleurs résultats que les étudiants en médecine

encore un article généré par l'IA
7  0