Aux États-Unis, de plus en plus d’étudiants affirment être accusés à tort d’avoir triché à l’aide de l’intelligence artificielle. En cause : des détecteurs d’IA jugés peu fiables, et l’émergence parallèle d’outils de « humanisation » destinés à contourner ces mêmes systèmes. Une enquête révèle une réalité troublante : dans cette bataille technologique, ce sont parfois les étudiants honnêtes qui se retrouvent pris au piège.Selon des analyses récentes, notamment relayées par plusieurs médias grands publics et spécialisés, l'intégration de l'IA dans les cursus universitaires amène le système éducatif à un « point de crise ». La facilité déconcertante avec laquelle des outils comme ChatGPT peuvent produire des dissertations, résoudre des problèmes complexes ou encore générer du code informatique bouscule les méthodes d'évaluation traditionnelles et soulève des inquiétudes majeures quant à l'intégrité académique.
La principale préoccupation, largement documentée, est l'augmentation potentielle de la tricherie. Des enseignants rapportent déjà une recrudescence de travaux rendus qui portent manifestement la marque de l'IA, obligeant les institutions à repenser leurs stratégies de contrôle et d'évaluation. Certains établissements voient même un retour en grâce des examens sur table et des interrogations orales, des méthodes jugées plus à même de vérifier l'acquisition réelle des connaissances par l'étudiant.
La réponse des enseignants ? Des détecteurs d'IA
L'adoption rapide de l'IA par les jeunes a suscité une vague d'inquiétude quant à la possibilité que les étudiants trichent pendant leurs études, ce qui a conduit de nombreux professeurs à soumettre les travaux écrits à des détecteurs d'IA en ligne qui vérifient si les étudiants ont utilisé de grands modèles linguistiques pour rédiger leurs travaux à leur place. Certaines universités affirment avoir surpris des centaines d'étudiants en train de tricher de cette manière.
Cependant, depuis leur apparition il y a quelques années, les détecteurs d'IA ont été critiqués à plusieurs reprises pour leur manque de fiabilité et leur tendance à signaler les locuteurs non natifs de l'anglais comme suspects de plagiat.
D'ailleurs, ZeroGPT, un détecteur de contenu généré par IA présenté comme étant « le plus avancé et fiable », indique qu'un passage biblique qui lui a été soumis (notamment Philippiens chapitre 4 verset 4 à 9) a 98,1% de chance d'être généré par IA.
L’émergence des « humanizers » comme réponse défensive
De plus en plus d'étudiants affirment également que leurs travaux ont été signalés à tort comme ayant été rédigés par une IA. Plusieurs d'entre eux ont intenté des poursuites judiciaires contre des universités pour le préjudice moral et les sanctions qu'ils affirment avoir subis en conséquence.
Plusieurs cas d’étudiants sanctionnés, parfois sévèrement, sur la base de ces seuls indicateurs sont rapportés. Certains expliquent avoir rédigé leurs devoirs sans aucune assistance automatisée, avant de se voir reprocher un style jugé « trop fluide » ou « trop structuré ». Le soupçon ne repose donc plus sur des faits observables, mais sur une interprétation algorithmique du langage.
Face aux accusations de tricherie liée à l'IA, certains étudiants se tournent vers un nouveau groupe d'outils d'IA générative appelés « humanisateurs ». Ces outils analysent les dissertations et suggèrent des modifications à apporter au texte afin qu'il ne soit pas identifié comme ayant été créé par une IA. Certains sont gratuits, tandis que d'autres coûtent environ 20 dollars par mois.
Certains utilisateurs des outils humanisateurs s'en servent pour éviter d'être pris en flagrant délit de tricherie, tandis que d'autres affirment ne pas utiliser du tout l'IA dans leur travail, mais veulent s'assurer qu'ils ne seront pas accusés à tort d'utiliser l'IA par des programmes de détection de l'IA.
En réponse à cela, et à mesure que les chatbots continuent de progresser, des entreprises telles que Turnitin et GPTZero ont mis à niveau leurs logiciels de détection de l'IA, dans le but de repérer les textes qui ont été traités par un humaniseur. Elles ont également lancé des applications que les étudiants peuvent utiliser pour suivre l'activité de leur navigateur ou l'historique de leurs écrits afin de pouvoir prouver qu'ils ont rédigé eux-mêmes le contenu, bien que certains humaniseurs puissent taper le texte que l'utilisateur souhaite copier-coller au cas où les frappes de l'étudiant seraient suivies.
« Les étudiants essaient désormais de prouver qu'ils sont humains, même s'ils n'ont peut-être jamais touché à l'IA », explique Erin Ramirez, professeure agrégée en éducation à l'université d'État de Californie, à Monterey Bay. « Alors, où en sommes-nous ? Nous sommes pris dans une spirale sans fin. »
Quand bien écrire devient suspect
L’un des aspects les plus inquiétants soulevés concerne les profils d’étudiants les plus touchés. Les étudiants non natifs de l’anglais, ceux qui utilisent des outils de correction grammaticale, ou au contraire ceux qui ont un style académique très maîtrisé, semblent davantage exposés aux faux signalements.
Dans certains témoignages, des étudiants expliquent avoir volontairement simplifié leur écriture, raccourci leurs phrases ou supprimé des transitions logiques pour éviter d’être détectés. Autrement dit, le système incite implicitement à produire des travaux de moindre qualité. L’algorithme devient le véritable lecteur à satisfaire, bien avant l’enseignant.
« Si nous écrivons correctement, nous sommes accusés d'utiliser l'IA, ce qui est absolument ridicule », a déclaré Aldan Creo, un étudiant diplômé espagnol qui étudie la détection de l'IA à l'université de Californie à San Diego. « À long terme, je pense que cela va poser un gros problème. »
Les éditeurs de détecteurs...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

