IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Des évaluations par les pairs entièrement redigées par l'IA inondent une conférence dédiée à ladite technologie
L'utilisation de l'IA dans la rédaction des contenus scientifiques divise les chercheurs

Le , par Patrick Ruiz

44PARTAGES

10  0 
La plus grande conférence mondiale sur l'apprentissage automatique et l'IA a été inondée d'exemples d'universitaires utilisant du contenu généré par l'IA pour leurs évaluations par les pairs, tandis que de nombreux articles soumis étaient également partiellement, voire entièrement, générés par l'IA, selon un récent rapport. L’utilisation de l’IA dans la rédaction des contenus scientifiques divise les chercheurs. L'International Conference on Machine Learning (ICML) a déjà pris position sur le sujet et a banni l’utilisation de ChatGPT et de tous les outils similaires pour la rédaction d’articles universitaires.

Dans le milieu universitaire, les travaux publiés dans des revues réputées ou présentés lors de grandes conférences sont généralement soumis à un « examen par les pairs », ce qui signifie que des chercheurs du même domaine évaluent la qualité et la rigueur de l'article. Mais à l'approche de la L'International Conference on Learning Representations (ICLR) de 2026, qui devrait accueillir environ 11 000 chercheurs en IA au Brésil, 21 % des évaluations par les pairs de l'ICLR auraient été entièrement générées par l'IA, et plus de la moitié présentaient des signes d'utilisation de l'intelligence artificielle.

Cette analyse est de Panagram, une startup américaine qui fournit des outils permettant de détecter les textes générés par l'IA. Panagram a examiné l'ensemble des 19 490 études et 75 800 évaluations par les pairs soumises à l'ICLR 2026. Ces chiffres proviennent uniquement de Panagram et n'ont pas encore été vérifiés de manière indépendante.

Graham Neubig, chercheur en intelligence artificielle à l'université Carnegie Mellon, a commencé à avoir des soupçons après avoir reçu ce qui semblait être une évaluation par les pairs générée par une IA, ce qui l'a incité à faire appel à la start-up pour mener l'enquête en la contactant sur les réseaux sociaux.



ChatGPT, ou un outil similaire, ne doit pas être utilisé pour rédiger des articles universitaires, selon l’ICML

C’est la position de l'International Conference on Machine Learning (ICML) sur le sujet : « Les articles qui incluent du texte généré à partir d'un modèle de langage à grande échelle (LLM) tel que ChatGPT sont interdits à moins que le texte produit ne soit présenté dans le cadre de l'analyse expérimentale de l'article. »

Selon l'ICML, la montée en puissance de modèles de langage d'intelligence artificielel accessibles au public comme ChatGPT représente un développement « excitant » qui s'accompagne néanmoins de « conséquences imprévues [et] de questions sans réponse ». L'ICML estime que celles-ci incluent des questions sur qui possède la sortie de ces systèmes (ils sont formés sur des données publiques, qui sont généralement collectées sans consentement et régurgitent parfois ces informations textuellement) et si le texte et les images générés par l'IA doivent être « considérés comme nouveaux ou simples dérivés de travaux existants ».

Cette dernière question est liée à un débat délicat sur la paternité, c'est-à-dire qui est considéré comme l'auteur d'un texte généré par l'IA ? La machine, son développeur ou son utilisateur ? Ceci est particulièrement important étant donné que l'ICML n'interdit que les textes « entièrement produits » par l'IA. Les organisateurs de la conférence disent qu'ils n'interdisent pas l'utilisation d'outils comme ChatGPT « pour éditer ou peaufiner le texte écrit par l'auteur » et notent que de nombreux auteurs ont déjà utilisé des « outils d'édition semi-automatisés » comme le logiciel de correction grammaticale Grammarly à cette fin.

« Il est certain que ces questions, et bien d'autres, trouveront une réponse au fil du temps, car ces modèles génératifs à grande échelle sont plus largement adoptés. Cependant, nous n'avons encore de réponses claires à aucune de ces questions », écrivent les organisateurs de la conférence.

En conséquence, l'ICML déclare que son interdiction des textes générés par l'IA sera réévaluée l'année prochaine.



La disponibilité d'outils d'IA comme ChatGPT est source de confusion pour de nombreuses organisations, dont certaines ont répondu par leurs propres interdictions. Par exemple, le ministère de l'Éducation de la ville de New York a eu à bloquer l'accès à l'outil pour toute personne sur son réseau.

En fait, à chaque fois qu'une organisation a bloqué l'utilisation de cet outil, il existait différentes craintes concernant les effets néfastes du texte généré par l'IA. L'une des plus courantes est que la sortie de ces systèmes n'est tout simplement pas fiable. Ces outils d'IA sont de vastes systèmes de saisie semi-automatique, formés pour prédire quel mot suit le suivant dans une phrase donnée. En tant que tels, ils n'ont pas de base de données codée en dur de « faits » sur lesquels s'appuyer (juste la capacité d'écrire des déclarations plausibles). Cela signifie qu'ils ont tendance à présenter de fausses informations comme des vérités, car le fait qu'une phrase donnée semble plausible ne garantit pas sa factualité.

Dans le cas de l'interdiction par ICML des textes générés par l'IA, un autre défi potentiel consiste à faire la distinction entre l'écriture qui n'a été que « polie » ou « éditée » par l'IA et celle qui a été « entièrement produite" par ces outils ». À quel moment un certain nombre de petites corrections guidées par l'IA constituent-elles une réécriture plus importante ? Que se passe-t-il si un utilisateur demande à un outil d'IA de résumer son article dans un résumé accrocheur ? Est-ce que cela compte comme du texte fraîchement généré (parce que le texte est nouveau) ou un simple polissage (parce que c'est un résumé des mots que l'auteur a écrits) ?

Avant que l'ICML ne clarifie les attributions de sa politique, de nombreux chercheurs craignaient qu'une éventuelle interdiction des textes générés par l'IA ne soit également préjudiciable à ceux qui ne parlent ni n'écrivent l'anglais comme langue maternelle. Le professeur Yoav Goldberg de l'Université Bar-Ilan en Israël a déclaré qu'une interdiction générale de l'utilisation des outils d'écriture de l'IA serait un acte de contrôle contre ces communautés.

« Il existe un biais inconscient clair lors de l'évaluation des articles dans l'examen par les pairs pour préférer les plus fluides, et cela joue en...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Matthieu Vergne
Expert éminent https://www.developpez.com
Le 03/12/2025 à 17:18
Pour avoir fait de la recherche, un article est grosso modo composé de plusieurs sections :
  • Abstract
  • Introduction
  • État de l'art
  • Méthode (en gros la théorie, les questions qu'on se pose et les moyens qu'on pense pertinent pour y répondre)
  • Application (un cas particulier où on appliqure la méthode pour générer des observations à analyser)
  • Résultats (les observations et analyses)
  • Limites de validité
  • Conclusion


L'état de l'art est une section apparemment pertinente pour y appliquer l'IA, car il s'agit de ressortir des éléments pertinents de publications existantes, ce qu'on peut aisément imaginer donner à l'entrainement de l'IA. Le soucis est le risque d'illusion de la techno, donc si en théorie ce serait intéressant, en pratique la techno ne s'y adapte probablement pas bien. À voir avec de futures technos.

La méthode est la partie originale de l'auteur, c'est là qu'il y a le moins de pertinence d'utiliser l'IA pour écrire le texte. Par contre émettre des idées par chat à l'IA pour se faire challenger me semble être une bonne pratique, pour augmenter les questions que l'auteur se pose. À charge de l'auteur de faire le tri.

L'application dépend du contexte au moment de la recherche, mais une fois le contexte d'application posé dans l'article, il se peut que l'IA puisse aider à compléter la section grâce à ce qui a été écrit dans la partie méthode qui précède.

Les résultats, ça fait sens de poser les résultats brutes (mesures, schémas, etc.) et d'utiliser l'IA pour aider à en extraire les informations. À charge de l'auteur de s'assurer qu'il en tire toutes (et uniquement) les conclusions pertinentes.

Les limites de validité, ce sont des classiques, donc l'usage de l'IA me semble pertinent : une fois qu'on a rédigé tout ce qui précède, l'IA peut générer un brouillon de limites de validité, évidemment à vérifier et compléter par l'auteur, mais poser un point de départ via l'IA me semble pertinent.

Vient ensuite introduction et conclusion, qui sont des résumés de l'article, l'un plutôt orienté sur les premières sections, l'autre plutôt sur les dernières. L'IA est clairement pertinente pour ça.

Enfin l'abstract, qui est un résumé, souvent avec une structure type (e.g. 1 phrase par section), est aussi un cas d'usage pertinent de l'IA.

Et là je parle de génération étendue, genre tu demande au LLM de générer le contenu en masse. Mais dans toutes les sections il est pertinent d'utiliser l'IA en mode auto-complétion, comme on le fait dans le code, pour générer de petits bouts en accord avec ce qu'on a dit avant ou ce qu'on dit après. Ne serait-ce que pour permettre aux non anglophones de générer du texte anglais lisible, car c'est franchement pénible de revoir un article à moitié compréhensible, et plus généralement pour permettre aux chercheurs qui manquent de pratique littéraire de générer du texte mieux formulé. En gros aider à générer l'article au fil de l'eau directement dans le fichier LaTeX.

Pour résumer, mon avis est que l'usage de l'IA est tout à fait pertinent pour la rédaction d'article scientifique, au même titre que le code, mais comme toujours il s'agit de rester pragmatique dans son usage pour ne pas subir les limites de l'outil. Comme toujours, il faut être rigoureux, et ceux qui ne le sont pas sont les premiers à tomber dans l'abus et la dépendance à l'outil.

La rédaction scientifique reste assez codifiée et répétitive, hors les réseaux de neurones sont bon pour reproduire des chose qui se répète, donc fondamentalement ça se tient.
0  0 
Avatar de marsupial
Expert éminent https://www.developpez.com
Le 03/12/2025 à 18:00
En résumé, toujours superviser le travail de l'IA par un humain compétent et fiable. En effet, des articles scientifiques rédigés par l'IA sont de plus en plus publiés sans relecture adéquate. Je n'ai plus les exemples en tête mais il est arrivé des aberrations manifestes dans des revues scientifiques. Et comme l'IA est douée pour s'exprimer, les moins calés se retrouvent blousés.
0  0