Face à l'adoption massive de l'intelligence artificielle par leurs étudiants, des dizaines de professeurs décrivent une lutte qui dépasse la simple question de la triche académique. C'est l'existence même de l'université comme lieu de formation de l'intelligence humaine qui est en jeu.Néanmoins, à l'Université de Staffordshire, des apprentis futurs ingénieurs en cybersécurité ont découvert que leurs cours étaient entièrement générés par intelligence artificielle, pendant que leur établissement menaçait de les exclure pour le même motif. Ce scandale emblématique révèle une fracture profonde au cœur de l'enseignement supérieur mondial : l'IA y est simultanément interdite aux étudiants, adoptée en catimini par les enseignants, et imposée par des administrations qui n'ont élaboré aucune politique cohérente.
Lea Pao enseigne la littérature à Stanford. Pour reconnecter ses étudiants à ce qu'elle appelle « l'expérience corporelle de l'apprentissage », elle leur fait mémoriser des poèmes, assister à des récitations, observer des œuvres dans de vrais musées. Un jour, elle demande à ses étudiants de passer dix minutes devant un tableau et d'en décrire l'expérience. L'exercice est volontairement personnel, intime et peut être difficilement délégué. Pourtant, l'un d'eux rend une copie techniquement sophistiquée mais creuse : « trop parfaite, sans rien dire », dira-t-elle. Il s'avère que le musée était fermé le lundi, l'étudiant s'était retourné vers l'IA.
« Il n'existe rien d'imperméable à l'IA », reconnaît Pao. « Plutôt que de jouer les gendarmes, j'espère que l'expérience globale de ce cours leur montrera qu'il existe une autre voie. » Ce témoignage, recueilli par The Guardian dans le cadre d'une vaste enquête auprès d'une douzaine de professeurs, illustre la situation dans laquelle se trouvent aujourd'hui les enseignants du supérieur : livrés à eux-mêmes, sans doctrine institutionnelle, pour faire face à une transformation qui s'est produite en quelques mois à peine.
« L'IA est le fléau de mon existence »
Les propos collectés par le Guardian sont d'une franchise inhabituelle dans le monde académique. « Ça nous rend fous », dit l'un. « L'IA générative est le fléau de mon existence », écrit un autre par email. Une troisième formule avec une brutalité imagée : « Je voudrais pousser ChatGPT, Claude, et Microsoft Copilot, du haut d'une falaise. »
Dora Zhang, professeure de littérature à Berkeley, a radicalement changé de cadre pour aborder le sujet en cours. « Je ne parle plus d'IA sous l'angle de la triche ou de l'intégrité académique. J'en parle en termes franchement existentiels. Qu'est-ce que ça nous fait, en tant qu'espèce ? » Ce glissement, du disciplinaire vers l'anthropologique, est révélateur. Pour ces professeurs, la vraie question n'est plus de savoir si leurs étudiants utilisent l'IA pour bâcler leurs devoirs. C'est de comprendre ce qu'il reste de l'acte d'apprendre quand une machine peut le simuler à la demande.
Staffordshire : le cours fantôme subventionné £27 000
James et Owen avaient tout misé sur cette reconversion. Inscrits dans un programme d'apprentissage financé par le gouvernement britannique (jusqu'à £27 000 de fonds publics par apprenant), ils espéraient décrocher une qualification en cybersécurité ou en génie logiciel. Ce qu'ils ont reçu à la place, c'est une succession de diapositives PowerPoint narrées par une voix synthétique, des explications génériques à la surface des sujets, des fichiers aux noms suspects et des alternances incongrues entre anglais américain et britannique dans les supports de cours. Dans une vidéo de formation en ligne, la voix artificielle bascule soudainement vers un accent espagnol pendant une trentaine de secondes avant de reprendre son intonation britannique initiale... comme si le masque tombait.
Les 41 étudiants du module de codage ont confronté leur chargé de cours, puis les responsables universitaires, à plusieurs reprises. La réponse de l'établissement ? Maintenir les contenus en l'état. Deux outils de détection de contenu généré par IA ont confirmé les soupçons des étudiants à l'examen des supports. James résume l'absurdité de la situation avec une formule qui a depuis circulé bien au-delà du campus : « Si nous rendions des travaux générés par l'IA, nous serions renvoyés de l'université. Mais c'est une IA qui nous enseigne. »
L'affaire, révélée par The Guardian, n'est pas un cas isolé anecdotique. Elle est symptomatique d'un double standard qui s'installe discrètement dans l'enseignement supérieur à mesure que les outils d'IA générative se banalisent.
61 % des enseignants utilisent l'IA et 95 % pensent qu'elle nuit aux étudiants
Les statistiques dressent un tableau paradoxal. Selon le Global AI Faculty Survey 2025 du Digital Education Council, 61 % des enseignants ont eu recours à l'IA dans leur pratique pédagogique, et 86 % anticipent de le faire à l'avenir. Dans le même temps, une enquête publiée en janvier 2026 par l'American Association of Colleges and Universities et l'Université d'Elon indique que 90 % des enseignants estiment que l'IA générative va diminuer les capacités de pensée critique des étudiants, et 95 % qu'elle va conduire à une dépendance croissante à ces outils.
Les professeurs sont donc, dans leur grande majorité, convaincus que l'IA est nuisible à l'apprentissage... tout en l'adoptant pour préparer leurs cours, noter les travaux, voire générer leurs supports pédagogiques. Des statistiques issues du secteur montrent que 81 % des enseignants qui utilisent l'IA déclarent qu'elle leur fait gagner du temps sur les tâches administratives, 80 % sur la préparation des cours, et 79 % sur la correction des copies.
La tentation est compréhensible dans un contexte de surcharge chronique. Mais la ligne entre l'assistance légitime et la délégation complète est franchie sans garde-fou. Un assistant d'enseignement a ainsi admis avoir soumis à ChatGPT une grille d'évaluation et un exemple de copie pour automatiser entièrement la notation. Un professeur de la Hult International Business School a confié que cette pratique se généralisait, produisant des commentaires identiques indépendamment de la qualité réelle des travaux rendus.
L'étudiant pris en étau : entre tricheur présumé et cobaye
Du côté des...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.


Peut-on raisonnablement demander à des étudiants de ne pas utiliser l'IA quand leurs futurs employeurs les y encourageront dès le premier jour de travail ?