La plus grande conférence mondiale sur l'apprentissage automatique et l'IA a été inondée d'exemples d'universitaires utilisant du contenu généré par l'IA pour leurs évaluations par les pairs, tandis que de nombreux articles soumis étaient également partiellement, voire entièrement, générés par l'IA, selon un récent rapport. L’utilisation de l’IA dans la rédaction des contenus scientifiques divise les chercheurs. L'International Conference on Machine Learning (ICML) a déjà pris position sur le sujet et a banni l’utilisation de ChatGPT et de tous les outils similaires pour la rédaction d’articles universitaires. Dans le milieu universitaire, les travaux publiés dans des revues réputées ou présentés lors de grandes conférences sont généralement soumis à un « examen par les pairs », ce qui signifie que des chercheurs du même domaine évaluent la qualité et la rigueur de l'article. Mais à l'approche de la L'International Conference on Learning Representations (ICLR) de 2026, qui devrait accueillir environ 11 000 chercheurs en IA au Brésil, 21 % des évaluations par les pairs de l'ICLR auraient été entièrement générées par l'IA, et plus de la moitié présentaient des signes d'utilisation de l'intelligence artificielle.
Cette analyse est de Panagram, une startup américaine qui fournit des outils permettant de détecter les textes générés par l'IA. Panagram a examiné l'ensemble des 19 490 études et 75 800 évaluations par les pairs soumises à l'ICLR 2026. Ces chiffres proviennent uniquement de Panagram et n'ont pas encore été vérifiés de manière indépendante.
Graham Neubig, chercheur en intelligence artificielle à l'université Carnegie Mellon, a commencé à avoir des soupçons après avoir reçu ce qui semblait être une évaluation par les pairs générée par une IA, ce qui l'a incité à faire appel à la start-up pour mener l'enquête en la contactant sur les réseaux sociaux.
ICLR authors, want to check if your reviews are likely AI generated?
— Graham Neubig (@gneubig) November 15, 2025
ICLR reviewers, want to check if your paper is likely AI generated?
Here are AI detection results for every ICLR paper and review from @pangramlabs!
It seems that ~21% of reviews may be AI? pic.twitter.com/GztpO9Vv7x
ChatGPT, ou un outil similaire, ne doit pas être utilisé pour rédiger des articles universitaires, selon l’ICML
C’est la position de l'International Conference on Machine Learning (ICML) sur le sujet : « Les articles qui incluent du texte généré à partir d'un modèle de langage à grande échelle (LLM) tel que ChatGPT sont interdits à moins que le texte produit ne soit présenté dans le cadre de l'analyse expérimentale de l'article. »
Selon l'ICML, la montée en puissance de modèles de langage d'intelligence artificielel accessibles au public comme ChatGPT représente un développement « excitant » qui s'accompagne néanmoins de « conséquences imprévues [et] de questions sans réponse ». L'ICML estime que celles-ci incluent des questions sur qui possède la sortie de ces systèmes (ils sont formés sur des données publiques, qui sont généralement collectées sans consentement et régurgitent parfois ces informations textuellement) et si le texte et les images générés par l'IA doivent être « considérés comme nouveaux ou simples dérivés de travaux existants ».
Cette dernière question est liée à un débat délicat sur la paternité, c'est-à-dire qui est considéré comme l'auteur d'un texte généré par l'IA ? La machine, son développeur ou son utilisateur ? Ceci est particulièrement important étant donné que l'ICML n'interdit que les textes « entièrement produits » par l'IA. Les organisateurs de la conférence disent qu'ils n'interdisent pas l'utilisation d'outils comme ChatGPT « pour éditer ou peaufiner le texte écrit par l'auteur » et notent que de nombreux auteurs ont déjà utilisé des « outils d'édition semi-automatisés » comme le logiciel de correction grammaticale Grammarly à cette fin.
« Il est certain que ces questions, et bien d'autres, trouveront une réponse au fil du temps, car ces modèles génératifs à grande échelle sont plus largement adoptés. Cependant, nous n'avons encore de réponses claires à aucune de ces questions », écrivent les organisateurs de la conférence.
En conséquence, l'ICML déclare que son interdiction des textes générés par l'IA sera réévaluée l'année prochaine.
La disponibilité d'outils d'IA comme ChatGPT est source de confusion pour de nombreuses organisations, dont certaines ont répondu par leurs propres interdictions. Par exemple, le ministère de l'Éducation de la ville de New York a eu à bloquer l'accès à l'outil pour toute personne sur son réseau.
En fait, à chaque fois qu'une organisation a bloqué l'utilisation de cet outil, il existait différentes craintes concernant les effets néfastes du texte généré par l'IA. L'une des plus courantes est que la sortie de ces systèmes n'est tout simplement pas fiable. Ces outils d'IA sont de vastes systèmes de saisie semi-automatique, formés pour prédire quel mot suit le suivant dans une phrase donnée. En tant que tels, ils n'ont pas de base de données codée en dur de « faits » sur lesquels s'appuyer (juste la capacité d'écrire des déclarations plausibles). Cela signifie qu'ils ont tendance à présenter de fausses informations comme des vérités, car le fait qu'une phrase donnée semble plausible ne garantit pas sa factualité.
Dans le cas de l'interdiction par ICML des textes générés par l'IA, un autre défi potentiel consiste à faire la distinction entre l'écriture qui n'a été que « polie » ou « éditée » par l'IA et celle qui a été « entièrement produite" par ces outils ». À quel moment un certain nombre de petites corrections guidées par l'IA constituent-elles une réécriture plus importante ? Que se passe-t-il si un utilisateur demande à un outil d'IA de résumer son article dans un résumé accrocheur ? Est-ce que cela compte comme du texte fraîchement généré (parce que le texte est nouveau) ou un simple polissage (parce que c'est un résumé des mots que l'auteur a écrits) ?
Avant que l'ICML ne clarifie les attributions de sa politique, de nombreux chercheurs craignaient qu'une éventuelle interdiction des textes générés par l'IA ne soit également préjudiciable à ceux qui ne parlent ni n'écrivent l'anglais comme langue maternelle. Le professeur Yoav Goldberg de l'Université Bar-Ilan en Israël a déclaré qu'une interdiction générale de l'utilisation des outils d'écriture de l'IA serait un acte de contrôle contre ces communautés.
« Il existe un biais inconscient clair lors de l'évaluation des articles dans l'examen par les pairs pour préférer les plus fluides, et cela joue en...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.