L'essor de l'IA générative est en train de bouleverser le monde universitaire. Les outils de détection de contenu généré par l'IA s'avèrent un véritable problème : leur imprécision et le taux élevé de faux positifs nuisent aux étudiants. De nombreux étudiants rapportent que leurs professeurs les avaient accusés à tort d'avoir utilisé l'IA pour rédiger leurs devoirs de dissertation. Ils dénoncent le manque de fiabilité criant des outils de détection de la tricherie et l'impact négatif que cela peut avoir sur la réussite scolaire. Les systèmes d'IA deviennent un cauchemar pour les enseignants et certains appellent à l'interdiction de ces outils en milieu scolaire.L'IA : une sorte de fée marraine pour les dissertations de dernière minute
Selon une étude du Higher Education Policy Institute (HEPI), plus de la moitié des étudiants utilisent aujourd'hui l'IA générative dans le cadre de leurs devoirs et environ 5 % admettent l'utiliser pour tricher. Le Times Higher Education a rapporté récemment qu'en dépit d'une tenue de registres inégale, les cas semblaient monter en flèche dans les universités du groupe Russell, certaines d'entre elles ayant signalé une multiplication par quinze des cas de tricherie.
Mais la confusion sur la manière dont ces outils doivent être utilisés, si tant est qu'ils doivent l'être, a semé la suspicion dans des institutions conçues pour être fondées sur la confiance. Certains pensent que l'IA va révolutionner la façon dont les gens apprennent, comme un tuteur personnel 24/7. Pour d'autres, en revanche, l'IA est une menace existentielle pour l'ensemble du système d'apprentissage qui risque de démolir le processus de recherche académique.
Afin de remettre le génie dans la bouteille, les universités cherchent désespérément des outils pouvant les aider à détecter la tricherie, allant même jusqu'à recourir à l'IA pour tenter d'enrayer les comportements répréhensibles. Les tuteurs se retournent contre les étudiants, les étudiants entre eux et les apprenants qui travaillent dur sont pris sous le feu des critiques. Nombreux sont ceux qui se sentent pessimistes quant à l'avenir de l'enseignement supérieur.
De nombreuses études ont révélé que les détecteurs de texte généré par l'IA ne sont pas aussi précis que certains le prétendent. Une autre étude réalisée par des chercheurs de l'université du Maryland indique que les outils de détection les plus performants ne peuvent pas détecter de manière fiable les sorties des modèles d'IA de génération de texte dans des scénarios pratiques. Ils affirment que cela pourrait être dangereux pour Internet à l'avenir.
Les systèmes de détection accusent à tort les apprenants de tricherie
De plus en plus de rapports soulignent le ras-le-bol des étudiants accusés à tort d'avoir utilisé l'IA pour rédiger leurs devoirs de dissertation ou d'essai. Un jeune homme de 19 ans accusé à tort d'avoir utilisé l'IA a déclaré que « le fait d'être accusé d'avoir utilisé l'IA à cause de "phrases indicatives", telles que "en plus de" et "par opposition à", était très humiliant ». Il a déclaré avoir été « profondément bouleversé » par cette accusation et les impacts potentiels.
« J'ai eu l'impression de recevoir une gifle après avoir travaillé dur pendant toute la durée du module, à cause d'un essai mal écrit. J'avais beaucoup étudié et j'étais généralement un bon élève, une mauvaise dissertation signifiait-elle soudain que j'avais utilisé l'IA ? », a-t-il déclaré. Un autre étudiant a raconté qu'il avait été convoqué à une audition pour « mauvaise conduite », malgré un faible score sur l'outil de détection créé par le service antiplagiat Turnitin.
Pendant de nombreuses années, le principal outil de l'arsenal anti-triche des universités a été un logiciel, tel que Turnitin, qui analyse les soumissions à la recherche de signes de plagiat. En 2023, Turnitin a lancé un nouvel outil de détection de texte généré par l'IA qui évalue la proportion du texte susceptible d'avoir été rédigée par l'IA. Cet outil a semblé être une solution miracle dans le cadre de la lutte contre l'augmentation du nombre de travaux rédigés par l'IA.
Depuis lors, Turnitin a traité plus de 130 millions de devoirs et affirme en avoir repéré 3,5 millions comme étant rédigés à 80 % par l'IA. Toutefois, son outil n'est pas fiable à 100 % ; des cas de faux positifs ont été largement signalés et certaines universités ont même décidé de se retirer du système.
Selon Turnitin, le taux d'erreur est inférieur à 1 %, mais compte tenu de la taille de la population étudiante, il n'est pas étonnant que de nombreuses personnes se soient retrouvées dans la ligne de mire. Il existe des preuves qui suggèrent que les outils de détection de l'IA désavantagent certains groupes démographiques.
Les détecteurs de contenu généré par l'IA comportent de nombreux biais
Une étude menée à Stanford a révélé qu'un certain nombre de détecteurs avaient un parti pris pour les non-anglophones, signalant leur travail 61 % du temps, contre 5 % pour les...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.
