
Contexte
Ella Stapleton, diplômée de la Northeastern University cette année, a commencé à se méfier des notes de cours de son professeur de gestion lorsqu'elle a repéré des signes révélateurs de la génération d'IA, notamment une citation « ChatGPT » égarée dans la bibliographie, des fautes de frappe récurrentes qui reflétaient les résultats de la machine et des images représentant des personnages avec des membres supplémentaires.
Une révélation qui fait débat
Avec l’explosion de l’intelligence artificielle générative, les universités, tout comme leurs étudiants, tâtonnent entre fascination et inquiétude. Une récente affaire relayée sur les réseaux sociaux et certains médias américains vient raviver le débat sur la place de l'IA dans l'éducation supérieure.
En février, Ella Stapleton, alors étudiante en dernière année à la Northeastern University, passait en revue les notes de son cours sur le comportement organisationnel lorsqu'elle a remarqué quelque chose d'étrange. S'agissait-il d'une demande de ChatGPT de la part de son professeur ?
Dans le document que son professeur de gestion avait rédigé pour un cours sur les modèles de leadership, se trouvait une instruction à ChatGPT de « développer tous les domaines. Sois plus détaillé et plus spécifique ». Cette instruction était suivie d'une liste de traits de caractère positifs et négatifs, chacun accompagné d'une définition prosaïque et d'un exemple à puces.
Stapleton a envoyé un texto à une amie de la classe : « Tu as vu les notes qu'il a mises sur Canvas ? », a-t-elle écrit, en référence à la plateforme logicielle de l'université pour l'hébergement des supports de cours. « Il les a faites avec ChatGPT ».
« OMG !!! Arrête », a répondu le camarade de classe. « C'est quoi ce bordel ? »
Stapleton a décidé de creuser un peu. Elle a examiné les diaporamas de son professeur et a découvert d'autres signes révélateurs de l'IA : du texte déformé, des photos d'employés de bureau avec des parties du corps superflues et des fautes d'orthographe flagrantes.
Elle n'était pas contente. Compte tenu du coût et de la réputation de l'école, elle s'attendait à un enseignement de haut niveau. Ce cours était obligatoire pour sa mineure en commerce ; son programme interdisait les « activités académiques malhonnêtes », y compris l'utilisation non autorisée de l'intelligence artificielle ou des robots de conversation (chatbots).
« Ils nous disent de ne pas l'utiliser, mais il l'utilise lui-même », a-t-elle déclaré.
Stapleton a déposé une plainte officielle auprès de l'école de commerce de Northeastern, citant l'utilisation non divulguée de l'I.A. ainsi que d'autres problèmes qu'elle avait avec son style d'enseignement, et a demandé le remboursement des frais de scolarité pour cette classe. Ce remboursement représente un quart de la facture totale du semestre, soit plus de 8 000 dollars.
Le professeur s'est montré contrit à propos de cet épisode
Après avoir déposé sa plainte à Northeastern, Stapleton a eu une série de réunions avec des responsables de l'école de commerce. En mai, le lendemain de la cérémonie de remise des diplômes, les responsables lui ont annoncé qu'elle ne serait pas remboursée de ses frais de scolarité.
Rick Arrowood, son professeur, s'est montré contrit à propos de cet épisode. Arrowood, qui est professeur auxiliaire et enseigne depuis près de vingt ans, a déclaré qu'il avait téléchargé les fichiers et les documents de son cours sur ChatGPT, le moteur de recherche d'IA Perplexity et un générateur de présentations d'IA appelé Gamma pour « leur donner un nouveau look ». Au premier coup d'œil, les notes et les présentations qu'ils avaient générées avaient l'air parfaites.
« Avec le recul, je regrette de ne pas y avoir regardé de plus près », a-t-il déclaré.
Il a mis le matériel en ligne pour que les étudiants puissent le consulter, mais il a souligné qu'il ne l'utilisait pas en classe, car il préfère que les cours soient axés sur la discussion. Il n'a réalisé que le matériel était défectueux que lorsque les responsables de l'école l'ont interrogé à ce sujet.
Cette situation embarrassante lui a fait prendre conscience, selon lui, que les professeurs devraient aborder l'IA avec plus de prudence et informer les étudiants du moment et de la manière dont elle est utilisée. Ce n'est que récemment que l'université de Northeastern a adopté une politique officielle en matière d'IA. Cette politique exige l'attribution de l'utilisation des systèmes d'IA et l'examen des résultats pour en vérifier « l'exactitude et l'adéquation ».
« J'aime enseigner », a déclaré le docteur Arrowood. « Si mon expérience peut être utile à d'autres personnes, alors je suis heureux ».
Renata Nyul, vice-présidente chargée de la communication à l'université de Northeastern, a déclaré : « Northeastern adopte l'utilisation de l'intelligence artificielle pour améliorer tous les aspects de son enseignement, de sa recherche et de ses opérations. L'université fournit une abondance de ressources pour soutenir l'utilisation appropriée de l'IA et continue de mettre à jour et d'appliquer les politiques pertinentes à l'échelle de l'entreprise. »
Les universités restreignent souvent l'utilisation de l'IA sur le campus
De nombreuses écoles interdisent purement et simplement l'utilisation de l'IA ou la soumettent à des restrictions. Les étudiants ont été parmi les premiers à adopter ChatGPT après son lancement à la fin de l'année 2022, constatant rapidement qu'ils pouvaient terminer leurs dissertations et leurs devoirs en quelques secondes. L'utilisation généralisée de cette technologie a suscité la méfiance des étudiants et des enseignants, ces derniers s'efforçant d'identifier et de sanctionner l'utilisation de l'IA dans le cadre du travail.
Aujourd'hui, la situation s'est quelque peu inversée. Les étudiants se rendent sur des sites tels que « Rate My Professors » pour se plaindre de l'utilisation ou de la surutilisation de l'IA par leurs professeurs. Ils affirment également que cela porte atteinte aux frais qu'ils paient pour recevoir un enseignement dispensé par des experts humains plutôt que par une technologie qu'ils pourraient utiliser gratuitement.
Selon la politique de Northeastern en matière d'IA, tout enseignant ou étudiant doit « fournir une attribution appropriée lorsqu'il utilise un système d'IA pour générer un contenu qui est inclus dans une publication savante, ou soumis à toute personne, publication ou autre organisation qui exige l'attribution de la paternité du contenu ». La politique stipule également que ceux qui utilisent la technologie doivent : « Vérifier régulièrement l'exactitude et l'adéquation des résultats du système d'IA à l'objectif recherché, et réviser/mettre à jour les résultats le cas échéant. »
Les professeurs adoptent l’IA pour alléger leur charge de travail
De plus en plus d’enseignants explorent les outils d’IA pour automatiser certaines tâches fastidieuses, comme la correction de copies, afin de se recentrer sur l’accompagnement pédagogique. Dans de nombreuses salles de classe, l’ordinateur est devenu l’allié du professeur. Aux États-Unis, un logiciel comme Writable permet ainsi à l’enseignant de soumettre les devoirs écrits de ses élèves à une analyse par ChatGPT, qui génère des commentaires et suggestions personnalisés. Le professeur n’a plus qu’à valider ou ajuster ces retours avant de les transmettre aux élèves.
Au Royaume-Uni, certains enseignants vont plus loin en utilisant l’IA Real Fast Reports pour produire en quelques secondes des appréciations détaillées et sur mesure sur chaque élève : ils entrent quelques notes en vrac, et l’algorithme rédige un commentaire bien structuré pour le bulletin scolaire
Pourquoi un tel engouement ? D’abord parce que les professeurs y gagnent un temps considérable. La correction manuelle de dizaines de copies ou la rédaction de rapports personnalisés sont des tâches chronophages. Grâce à l’IA, un enseignant peut, en théorie, fournir plus de feedback, plus rapidement à ses élèves. Des outils comme ChatGPT peuvent aussi l’aider à préparer des quiz, formuler des explications plus claires, ou varier les exemples dans un cours. « Ces technologies peuvent aider les enseignants », affirme Yann Houry, directeur de l’innovation pédagogique dans un lycée international, en soulignant qu’elles peuvent aider à mieux différencier la progression de chaque élève et repérer plus tôt ceux en difficulté.
De plus, l’IA offre des possibilités de personnalisation de l’enseignement inédites : au Texas, un pédagogue a par exemple utilisé des chatbots pour adapter ses problèmes de mathématiques aux centres d’intérêt de chaque élève, qu’il s’agisse de trajectoires de base-ball ou de pas de danse. Cette individualisation, difficile à réaliser pour un humain avec de grands groupes, devient envisageable avec une IA assistant le professeur.
[B][SIZE=3]L’effet miroir :[/size=3]...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.