IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Pour éviter d'être accusés à tort d'avoir triché à l'aide de l'IA, les étudiants se tournent vers des outils d'IA qui «humanisent» leurs copies ou bâclent désormais leur travail pour ne pas déclencher d'alerte

Le , par Stéphane le calme

5PARTAGES

5  0 
Aux États-Unis, de plus en plus d’étudiants affirment être accusés à tort d’avoir triché à l’aide de l’intelligence artificielle. En cause : des détecteurs d’IA jugés peu fiables, et l’émergence parallèle d’outils de « humanisation » destinés à contourner ces mêmes systèmes. Une enquête révèle une réalité troublante : dans cette bataille technologique, ce sont parfois les étudiants honnêtes qui se retrouvent pris au piège.

Selon des analyses récentes, notamment relayées par plusieurs médias grands publics et spécialisés, l'intégration de l'IA dans les cursus universitaires amène le système éducatif à un « point de crise ». La facilité déconcertante avec laquelle des outils comme ChatGPT peuvent produire des dissertations, résoudre des problèmes complexes ou encore générer du code informatique bouscule les méthodes d'évaluation traditionnelles et soulève des inquiétudes majeures quant à l'intégrité académique.

La principale préoccupation, largement documentée, est l'augmentation potentielle de la tricherie. Des enseignants rapportent déjà une recrudescence de travaux rendus qui portent manifestement la marque de l'IA, obligeant les institutions à repenser leurs stratégies de contrôle et d'évaluation. Certains établissements voient même un retour en grâce des examens sur table et des interrogations orales, des méthodes jugées plus à même de vérifier l'acquisition réelle des connaissances par l'étudiant.

La réponse des enseignants ? Des détecteurs d'IA

L'adoption rapide de l'IA par les jeunes a suscité une vague d'inquiétude quant à la possibilité que les étudiants trichent pendant leurs études, ce qui a conduit de nombreux professeurs à soumettre les travaux écrits à des détecteurs d'IA en ligne qui vérifient si les étudiants ont utilisé de grands modèles linguistiques pour rédiger leurs travaux à leur place. Certaines universités affirment avoir surpris des centaines d'étudiants en train de tricher de cette manière.

Cependant, depuis leur apparition il y a quelques années, les détecteurs d'IA ont été critiqués à plusieurs reprises pour leur manque de fiabilité et leur tendance à signaler les locuteurs non natifs de l'anglais comme suspects de plagiat.

D'ailleurs, ZeroGPT, un détecteur de contenu généré par IA présenté comme étant « le plus avancé et fiable », indique qu'un passage biblique qui lui a été soumis (notamment Philippiens chapitre 4 verset 4 à 9) a 98,1% de chance d'être généré par IA.


L’émergence des « humanizers » comme réponse défensive

De plus en plus d'étudiants affirment également que leurs travaux ont été signalés à tort comme ayant été rédigés par une IA. Plusieurs d'entre eux ont intenté des poursuites judiciaires contre des universités pour le préjudice moral et les sanctions qu'ils affirment avoir subis en conséquence.

Plusieurs cas d’étudiants sanctionnés, parfois sévèrement, sur la base de ces seuls indicateurs sont rapportés. Certains expliquent avoir rédigé leurs devoirs sans aucune assistance automatisée, avant de se voir reprocher un style jugé « trop fluide » ou « trop structuré ». Le soupçon ne repose donc plus sur des faits observables, mais sur une interprétation algorithmique du langage.

Face aux accusations de tricherie liée à l'IA, certains étudiants se tournent vers un nouveau groupe d'outils d'IA générative appelés « humanisateurs ». Ces outils analysent les dissertations et suggèrent des modifications à apporter au texte afin qu'il ne soit pas identifié comme ayant été créé par une IA. Certains sont gratuits, tandis que d'autres coûtent environ 20 dollars par mois.

Certains utilisateurs des outils humanisateurs s'en servent pour éviter d'être pris en flagrant délit de tricherie, tandis que d'autres affirment ne pas utiliser du tout l'IA dans leur travail, mais veulent s'assurer qu'ils ne seront pas accusés à tort d'utiliser l'IA par des programmes de détection de l'IA.

En réponse à cela, et à mesure que les chatbots continuent de progresser, des entreprises telles que Turnitin et GPTZero ont mis à niveau leurs logiciels de détection de l'IA, dans le but de repérer les textes qui ont été traités par un humaniseur. Elles ont également lancé des applications que les étudiants peuvent utiliser pour suivre l'activité de leur navigateur ou l'historique de leurs écrits afin de pouvoir prouver qu'ils ont rédigé eux-mêmes le contenu, bien que certains humaniseurs puissent taper le texte que l'utilisateur souhaite copier-coller au cas où les frappes de l'étudiant seraient suivies.

« Les étudiants essaient désormais de prouver qu'ils sont humains, même s'ils n'ont peut-être jamais touché à l'IA », explique Erin Ramirez, professeure agrégée en éducation à l'université d'État de Californie, à Monterey Bay. « Alors, où en sommes-nous ? Nous sommes pris dans une spirale sans fin. »

Quand bien écrire devient suspect

L’un des aspects les plus inquiétants soulevés concerne les profils d’étudiants les plus touchés. Les étudiants non natifs de l’anglais, ceux qui utilisent des outils de correction grammaticale, ou au contraire ceux qui ont un style académique très maîtrisé, semblent davantage exposés aux faux signalements.

Dans certains témoignages, des étudiants expliquent avoir volontairement simplifié leur écriture, raccourci leurs phrases ou supprimé des transitions logiques pour éviter d’être détectés. Autrement dit, le système incite implicitement à produire des travaux de moindre qualité. L’algorithme devient le véritable lecteur à satisfaire, bien avant l’enseignant.

« Si nous écrivons correctement, nous sommes accusés d'utiliser l'IA, ce qui est absolument ridicule », a déclaré Aldan Creo, un étudiant diplômé espagnol qui étudie la détection de l'IA à l'université de Californie à San Diego. « À long terme, je pense que cela va poser un gros problème. »

Les éditeurs de détecteurs d’IA eux-mêmes reconnaissent souvent que leurs outils ne doivent pas être utilisés comme preuve définitive. Pourtant, sur le terrain, ces avertissements sont parfois ignorés ou minimisés.

Pour les étudiants accusés à tort, les recours sont complexes, chronophages et émotionnellement coûteux. Certains racontent des procédures disciplinaires longues, sans véritable possibilité de démontrer leur innocence, puisqu’il est quasiment impossible de prouver qu’un texte n’a pas été généré par une IA. L’asymétrie est frappante : une accusation algorithmique suffit, mais la défense repose sur la parole de l’étudiant.

En novembre, un assistant enseignant dans un cours de science des données a accusé Creo d'utiliser l'IA pour rédiger un rapport. Creo a expliqué à l'assistant enseignant qu'il avait l'habitude d'expliquer étape par étape son raisonnement pour résoudre un problème, ce que ChatGPT est connu pour faire, selon une copie des messages qu'il a échangés avec l'assistant enseignant.

Finalement, sa note a été corrigée, mais pour éviter une nouvelle bataille, Creo a déclaré qu'il « simplifiait » parfois son travail en laissant des mots mal orthographiés ou en utilisant des structures de phrases espagnoles qui ne sont pas correctes en anglais. Désormais, Creo passe tout son matériel au crible d'un détecteur d'IA à titre préventif.

« Je dois faire tout ce que je peux pour montrer que je rédige réellement mes devoirs moi-même », a-t-il déclaré.


Haishan Yang, 33 ans, étudiait dans le cadre d'un programme de doctorat en économie de la santé à l'université du Minnesota-Twin Cities lorsqu'il a été accusé d'avoir utilisé l'intelligence artificielle lors d'un examen.

Une crise de confiance entre étudiants et institutions : « j'écris uniquement pour ne pas déclencher ces détecteurs d'IA »

Au-delà de la technologie, une rupture de confiance plus profonde semble se dessiner. Les étudiants interrogés par les médias expriment le sentiment d’être présumés coupables par défaut. Les enseignants, de leur côté, se disent démunis face à des outils d’IA de plus en plus performants et à la pression institutionnelle pour maintenir l’intégrité académique.

Cette tension transforme la relation pédagogique. Le devoir n’est plus seulement un exercice d’apprentissage, mais un objet potentiellement litigieux, susceptible de déclencher une enquête. Dans ce contexte, l’IA ne sert plus uniquement à apprendre ou à tricher, mais à naviguer dans un système perçu comme hostile.

Dans le pire des cas, le stress causé par ces accusations a poussé certains étudiants à abandonner leurs études.

Brittany Carr a obtenu des notes insuffisantes pour trois devoirs qu'elle avait réalisés en tant qu'étudiante à distance à la Liberty University, une école évangélique privée de Virginie qui compte parmi les établissements en ligne les plus fréquentés des États-Unis, car ceux-ci avaient été signalés par un détecteur d'IA. Elle a montré l'historique de ses révisions, y compris la façon dont elle avait rédigé le premier devoir à la main dans un cahier, selon des captures d'écran d'e-mails et de messages qu'elle a échangés avec ses professeurs.

« Comment l'IA aurait-elle pu inventer tout cela ? », a demandé Carr dans un e-mail daté du 5 décembre. « J'ai parlé de mon diagnostic de cancer, de ma dépression et de mon parcours, et vous croyez que c'est l'IA ? »

Ses preuves n'ont pas suffi : l'école de travail social lui a tout de même demandé de suivre un cours sur « l'écriture intègre » et de signer une déclaration dans laquelle elle s'excusait d'avoir utilisé l'IA, comme le montrent les e-mails.

« C'est un sentiment très étrange, car l'école utilise l'IA pour nous dire que nous utilisons l'IA », a-t-elle déclaré.

Cela l'a stressée. Carr craignait qu'une nouvelle accusation de tricherie n'amène le ministère des Anciens combattants à lui retirer son aide financière. Afin d'éviter d'autres accusations injustifiées, elle a déclaré avoir soumis tous ses documents au détecteur d'IA de Grammarly et modifié toutes les sections mises en évidence jusqu'à ce que le détecteur conclue que l'ensemble du texte avait été rédigé par un humain.

« Mais j'ai l'impression que mes écrits ne donnent aucune information pertinente — j'écris uniquement pour ne pas déclencher ces détecteurs d'IA », a-t-elle déclaré.

L’évaluation à l’ère de l’IA

Peut-on réellement continuer à évaluer les étudiants comme avant, tout en essayant de filtrer l’IA à l’aide d’outils imparfaits ? Pour de nombreux experts, la...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !