L'intelligence artificielle générative a traversé les portes des salles de classe comme aucune technologie avant elle : silencieusement, massivement, et sans que personne n'ait eu le temps de décider si c'était une bonne idée. Trois ans après le déferlement de ChatGPT dans les amphithéâtres et les lycées, des enseignants, bibliothécaires, tuteurs, correcteurs et professionnels de l'informatique scolaire dressent un bilan accablant. Ce n'est plus la question de la triche qui est au cœur du débat, c'est celle de la raison d'être de l'éducation elle-même.La fraude scolaire assistée par IA n'est pas un phénomène marginal. Une enquête menée dès janvier 2023 révélait que près de 90 % des étudiants universitaires avaient déjà utilisé ChatGPT pour leurs devoirs et depuis, les outils n'ont fait que gagner en sophistication. Si les premières versions de ChatGPT laissaient des traces identifiables (syntaxe trop fluide, vocabulaire inhabituellement soutenu, construction impersonnelle), les nouvelles moutures, intégrées dans des assistants d'écriture discrets, brouillent désormais les pistes au point que les directeurs d'établissements eux-mêmes sonnent l'alarme sur l'indétectabilité du phénomène.
Les témoignages recueillis par la newsletter Blood in the Machine dans le cadre de son enquête « AI Killed My Job : Education workers » éclairent la réalité quotidienne de cette crise, vue depuis l'intérieur. Lauren Krouse, tutrice dans un community college américain, décrit la trajectoire type d'une étudiante ayant recours à l'IA : d'abord une anecdote inventée par ChatGPT dans un essai personnel, puis un plan incompréhensible que l'étudiante était incapable d'expliquer et que son professeur avait tout de même noté A. Quelques semaines plus tard, une rédaction entière générée automatiquement, avec des citations de sources non vérifiables et des références à des citations inexistantes. « Mon nouveau travail, c'est d'apprendre aux étudiants à mieux tricher », résume-t-elle avec amertume, avant d'annoncer sa démission.
Un professeur de l'université Cal State, dont le système a officiellement annoncé vouloir devenir « la plus grande université pilotée par l'IA au monde », décrit une situation kafkaïenne : lorsqu'un étudiant rend un examen qu'il est manifestement incapable d'expliquer, le professeur sait qu'il y a eu fraude, mais sans aveu, les sanctions sont quasi impossibles à obtenir. « On nous demande d'accepter un travail qui n'est clairement pas celui de l'étudiant, comme s'il l'était. »
Une déqualification silencieuse des métiers de l'éducation
Au-delà de la fraude, c'est toute une chaîne de métiers qui se retrouve fragilisée. Les bibliothécaires et tuteurs regardent les administrations et les entreprises de l'edtech adopter des outils d'IA pour réduire leurs heures de travail, tandis que les professionnels de l'informatique et des ressources humaines dans le secteur éducatif se trouvent en concurrence directe avec des produits IA sur le marché.
Le cas de Jason Thornberry est emblématique. Employé aux ressources humaines dans une université, chargé de gérer les formalités administratives des professeurs contractuels, il s'est fait licencier avec une explication laconique de son responsable : « Oh, WorkDay s'occupera de ça ! » (WorkDay étant une plateforme d'automatisation RH). Ironie de la situation : Thornberry était lui-même professeur contractuel, pour un cours d'écriture rémunéré 700 dollars avant impôts par trimestre.
L'histoire de Caleb Polansky, technicien informatique à l'université Texas A&M AgriLife, illustre une autre forme de pression : son nouveau responsable, arrivé en novembre 2024, s'est mis à exiger l'adoption de Copilot, ChatGPT et Grok dans le travail quotidien. Après avoir refusé poliment mais fermement, Polansky a reçu un ultimatum : se former à Copilot ou être licencié. Il a choisi de démissionner. Le même responsable, notons-le, avait réagi avec indulgence lorsqu'un collègue avait utilisé l'IA générative pour produire des textes à caractère sexuel explicite pendant les heures de bureau.
À l'université d'Auckland, un candidat à un poste de coordinateur éthique et réglementaire, Benjamin Richardson, s'est vu refuser le poste au motif qu'il n'était « pas suffisamment à l'aise avec l'intégration de Copilot dans le processus d'éthique ». Autrement dit, l'aptitude à déléguer des décisions éthiques à un modèle de langage est désormais un critère d'embauche.
Le paradoxe des institutions qui déploient ce qu'elles condamnent
Les statistiques dressent un tableau paradoxal : selon le Global AI Faculty Survey 2025 du Digital Education Council, 61 % des enseignants ont eu recours à l'IA dans leur pratique pédagogique, et 86 % anticipent de le faire à l'avenir. Dans le même temps, une enquête publiée en janvier 2026 par l'American Association of Colleges and Universities indique que 90 % des enseignants estiment que l'IA générative va diminuer les capacités de pensée critique des étudiants, et 95 % qu'elle va conduire à une dépendance croissante. Les professeurs sont donc, dans leur grande majorité, convaincus que l'IA est nuisible à l'apprentissage... tout en l'adoptant massivement pour préparer leurs cours et noter les travaux.
Cette contradiction se joue aussi au niveau institutionnel. Des universités signent des...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

