L'IA : une sorte de fée marraine pour les dissertations de dernière minute
Selon une étude du Higher Education Policy Institute (HEPI), plus de la moitié des étudiants utilisent aujourd'hui l'IA générative dans le cadre de leurs devoirs et environ 5 % admettent l'utiliser pour tricher. Le Times Higher Education a rapporté récemment qu'en dépit d'une tenue de registres inégale, les cas semblaient monter en flèche dans les universités du groupe Russell, certaines d'entre elles ayant signalé une multiplication par quinze des cas de tricherie.
Mais la confusion sur la manière dont ces outils doivent être utilisés, si tant est qu'ils doivent l'être, a semé la suspicion dans des institutions conçues pour être fondées sur la confiance. Certains pensent que l'IA va révolutionner la façon dont les gens apprennent, comme un tuteur personnel 24/7. Pour d'autres, en revanche, l'IA est une menace existentielle pour l'ensemble du système d'apprentissage qui risque de démolir le processus de recherche académique.
Afin de remettre le génie dans la bouteille, les universités cherchent désespérément des outils pouvant les aider à détecter la tricherie, allant même jusqu'à recourir à l'IA pour tenter d'enrayer les comportements répréhensibles. Les tuteurs se retournent contre les étudiants, les étudiants entre eux et les apprenants qui travaillent dur sont pris sous le feu des critiques. Nombreux sont ceux qui se sentent pessimistes quant à l'avenir de l'enseignement supérieur.
De nombreuses études ont révélé que les détecteurs de texte généré par l'IA ne sont pas aussi précis que certains le prétendent. Une autre étude réalisée par des chercheurs de l'université du Maryland indique que les outils de détection les plus performants ne peuvent pas détecter de manière fiable les sorties des modèles d'IA de génération de texte dans des scénarios pratiques. Ils affirment que cela pourrait être dangereux pour Internet à l'avenir.
Les systèmes de détection accusent à tort les apprenants de tricherie
De plus en plus de rapports soulignent le ras-le-bol des étudiants accusés à tort d'avoir utilisé l'IA pour rédiger leurs devoirs de dissertation ou d'essai. Un jeune homme de 19 ans accusé à tort d'avoir utilisé l'IA a déclaré que « le fait d'être accusé d'avoir utilisé l'IA à cause de "phrases indicatives", telles que "en plus de" et "par opposition à", était très humiliant ». Il a déclaré avoir été « profondément bouleversé » par cette accusation et les impacts potentiels.
« J'ai eu l'impression de recevoir une gifle après avoir travaillé dur pendant toute la durée du module, à cause d'un essai mal écrit. J'avais beaucoup étudié et j'étais généralement un bon élève, une mauvaise dissertation signifiait-elle soudain que j'avais utilisé l'IA ? », a-t-il déclaré. Un autre étudiant a raconté qu'il avait été convoqué à une audition pour « mauvaise conduite », malgré un faible score sur l'outil de détection créé par le service antiplagiat Turnitin.
Pendant de nombreuses années, le principal outil de l'arsenal anti-triche des universités a été un logiciel, tel que Turnitin, qui analyse les soumissions à la recherche de signes de plagiat. En 2023, Turnitin a lancé un nouvel outil de détection de texte généré par l'IA qui évalue la proportion du texte susceptible d'avoir été rédigée par l'IA. Cet outil a semblé être une solution miracle dans le cadre de la lutte contre l'augmentation du nombre de travaux rédigés par l'IA.
Depuis lors, Turnitin a traité plus de 130 millions de devoirs et affirme en avoir repéré 3,5 millions comme étant rédigés à 80 % par l'IA. Toutefois, son outil n'est pas fiable à 100 % ; des cas de faux positifs ont été largement signalés et certaines universités ont même décidé de se retirer du système.
Selon Turnitin, le taux d'erreur est inférieur à 1 %, mais compte tenu de la taille de la population étudiante, il n'est pas étonnant que de nombreuses personnes se soient retrouvées dans la ligne de mire. Il existe des preuves qui suggèrent que les outils de détection de l'IA désavantagent certains groupes démographiques.
Les détecteurs de contenu généré par l'IA comportent de nombreux biais
Une étude menée à Stanford a révélé qu'un certain nombre de détecteurs avaient un parti pris pour les non-anglophones, signalant leur travail 61 % du temps, contre 5 % pour les anglophones natifs (Turnitin n'a pas été pris en compte). En novembre 2024, Bloomberg Businessweek a rapporté le cas d'une étudiante atteinte d'un trouble du spectre autistique dont le travail avait été faussement signalé par un outil de détection comme ayant été rédigé par l'IA.
L'étudiante en question a décrit cette accusation de tricherie comme un « coup de poing dans le ventre ». Les élèves neurodivergents, ainsi que ceux qui écrivent en utilisant un langage et une syntaxe plus simples, semblent être affectés de manière disproportionnée par ces systèmes. Mike Perkins, chercheur en IA générative à l'université britannique du Vietnam, note que les outils de détection du texte généré par l'IA présentent des « limites importantes ».
« Toutes les recherches montrent à maintes reprises que ces outils ne sont pas fiables. Et ils sont très faciles à tromper. Sa propre enquête a révélé que les détecteurs de texte généré par l'IA pouvaient détecter les textes générés par l'IA avec une précision d'environ 39,5 %. En appliquant des techniques de contournement simples, telles que des manipulations mineures du texte, la précision tombait à 22,1 % seulement. Et la manipulation peut être répétée.
Ceux qui décident de tricher ne se contentent pas de couper et de coller le texte de ChatGPT, ils le modifient ou le transforment en leur propre travail. Il existe également des « humaniseurs » d'IA, tels que CopyGenius et StealthGPT, ce dernier se vantant de pouvoir produire un contenu indétectable et affirmant avoir aidé un demi-million d'étudiants à produire près de 5 millions de devoirs. De nombreux outils de ce type sont apparus ces dernières années.
« Les seuls étudiants qui ne le font pas ont vraiment du mal, ou ne veulent pas ou ne peuvent pas payer pour les outils d'IA les plus avancés, comme GPT-4 ou Gemini 1.5. En fin de compte, ce sont les étudiants qui risquent le plus de voir leur carrière universitaire compromise », explique Mike Perkins.
Le monde universitaire chamboulé par le débat intense sur l'IA générative
De nombreux universitaires semblent croire qu'il est toujours possible de savoir si un travail a été rédigé par une IA, qu'ils peuvent repérer les traits stylistiques associés à ces outils. Mais les preuves s'accumulent pour suggérer qu'ils surestiment peut-être leurs capacités. Des chercheurs de l'université de Reading ont récemment mené un test en aveugle dans lequel des réponses rédigées par ChatGPT ont été soumises via le système d'examen de l'université.
Environ 94 % des réponses de l'IA n'ont pas été détectées et ont reçu des notes plus élevées que celles soumises par les humains. De plus, les étudiants se retournent également les uns contre les autres. Lors des travaux de groupes, les étudiants s'accusent parfois mutuellement d'avoir utilisé l'IA pour réaliser leurs tâches. Dans un cas rapporté par The Guardian, un étudiant accusant son camarade d'avoir utilisé l'IA pour faire son exercice d'anglais a expliqué :
« Cet étudiant avait quelques difficultés en anglais, et ce n'est pas de sa faute, mais le rapport était honnêtement le meilleur que j'aie jamais vu ». Il a raconté avoir soumis le travail à quelques outils de détection qui ont confirmé ses soupçons, et il en a poliment parlé à l'étudiant. Ce dernier a bien entendu nié les faits. Il a ajouté qu'il ne pouvait pas faire grand-chose de plus. Cela dit, il s'est assuré de « collecter des preuves » de leurs différentes conversations.
« Ainsi, si notre travail est signalé, je pourrai dire que j'ai vérifié. Je connais des gens qui ont passé des heures à travailler sur ce sujet et il suffit d'un seul pour tout gâcher », a-t-il conclu. Il a précisé qu'il ne s'oppose pas à l'IA générative, mais la tricherie académique qu'elle a occasionnée l'a découragé. « J'y suis devenu insensible. La moitié des étudiants de ma classe présentent des exposés qui ne sont manifestement pas le fruit de leur travail », dit-il.
« Si je devais réagir à chaque cas d'utilisation de l'IA, je deviendrais fou à ce stade », a-t-il ajouté. En fin de compte, cet apprenant pense que les étudiants ne trompent qu'eux-mêmes, mais il se demande parfois comment cette érosion de l'intégrité affectera sa propre vie universitaire et professionnelle à l'avenir. « Que se passera-t-il si j'obtiens une maîtrise, ou si j'occupe un emploi, et que tout le monde y est arrivé en trichant ? », se demande-t-il.
Comment les responsables de l'enseignement peuvent-ils faire face à cette évolution ?
Certaines universités adaptent leur approche de l'évaluation en élaborant des politiques positives à l'égard de l'IA. À l'université de Cambridge, l'utilisation appropriée de l'IA générative comprend une « vue d'ensemble des nouveaux concepts », un « accompagnement collaboratif » ou une « aide à la gestion du temps ».
L'université met en garde contre une dépendance excessive à l'égard des outils d'IA, qui pourrait limiter la capacité des étudiants à développer leur esprit critique. Certains enseignants avec ont déclaré que ce type d'approche est utile, mais d'autres ont estimé qu'il s'agit d'une capitulation. Ces derniers estiment qu'il faut passer à d'autres formes d'enseignement et d'évaluation, ce qui rendrait plus difficile pour les étudiants d'utiliser l'IA pour faire le gros du travail.
Face à la tricherie, les professeurs d'université optent pour des devoirs résistants à ChatGPT, comme les examens oraux ou sur papier en présentiel. Selon des témoignages de professeurs d’université, les étudiants confient de plus en plus à ChatGPT la rédaction de leurs devoirs à la maison. « Le monde universitaire n’a pas anticipé cela. Nous sommes donc démunis », explique Darren Hudson Hick, professeur adjoint de philosophie à l’université Furman.
La crise de l'IA a révélé à quel point le processus d'obtention d'un diplôme est devenu transactionnel. L'enseignement supérieur est de plus en plus commercialisé ; les universités sont à court d'argent et recherchent des clients au détriment de la qualité de l'enseignement. Les étudiants, quant à eux, subissent eux-mêmes des pressions financières et sont douloureusement conscients que les carrières sûres pour les diplômés sont de plus en plus rares.
Tout comme l'essor des usines à dissertation a coïncidé avec l'expansion rapide de l'enseignement supérieur dans les années 2000, ChatGPT a frappé à un moment où un diplôme semble plus dévalorisé que jamais. Les responsables de l'enseignement cherchent comment adapter le secteur à l'ère de l'IA générative.
Et vous ?
Quel est votre avis sur le sujet ?
Que pensez-vous des bouleversements induits par l'IA générative dans le secteur de l'enseignement ?
Les outils de détection de texte généré par l'IA finissent par nuire aux étudiants innocents. Qu'en pensez-vous ?
Les outils de détection de texte généré par l'IA sont-il la solution contre la tricherie ? Peuvent-ils s'améliorer ?
Comment le secteur de l'enseignement peut-il s'adapter à l'ère de l'IA générative ? Quels sont les défis potentiels ?
Voir aussi
Face à la tricherie par l'IA, les professeurs d'université optent pour des devoirs résistants à ChatGPT et reviennent aux examens papier
Le service antiplagiat Turnitin affirme avoir mis au point un outil pour détecter les rédactions écrites par ChatGPT, mais les critiques sont sceptiques quant à l'efficacité du système
Les détecteurs de texte généré par l'IA ne sont pas aussi précis que certains le prétendent, selon une évaluation de la robustesse des détecteurs sur le benchmark partagé RAID