IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Une étudiante demande le remboursement de ses frais de scolarité après avoir surpris son professeur en train d'utiliser ChatGPT : « Ils nous demandent de ne pas l'utiliser tandis que lui il le fait »

Le , par Stéphane le calme

156PARTAGES

8  0 
Une étudiante demande le remboursement de ses frais de scolarité après avoir surpris son professeur en train d'utiliser ChatGPT :
« Ils nous demandent de ne pas l'utiliser tandis que lui il le fait »

Une élève en dernière année à l'université de Northeastern a déposé une plainte officielle et demandé le remboursement de ses frais de scolarité après avoir découvert que son professeur utilisait secrètement des outils d'IA pour préparer ses cours : « ils nous demande de ne pas l'utiliser tandis que lui il le fait ». Le professeur a par la suite admis qu'il utilisait plusieurs plateformes d'IA et a reconnu le besoin de transparence. Cet incident met en lumière les préoccupations croissantes des étudiants concernant l'utilisation de l'IA par les professeurs, alors que ces derniers craignaient auparavant que les étudiants n'utilisent cette technologie pour tricher. Le scandale, d’apparence anecdotique, soulève de lourdes questions sur la qualité de l’enseignement et la place croissante de l’IA dans l’éducation supérieure.

Contexte

Ella Stapleton, diplômée de la Northeastern University cette année, a commencé à se méfier des notes de cours de son professeur de gestion lorsqu'elle a repéré des signes révélateurs de la génération d'IA, notamment une citation « ChatGPT » égarée dans la bibliographie, des fautes de frappe récurrentes qui reflétaient les résultats de la machine et des images représentant des personnages avec des membres supplémentaires.

Une révélation qui fait débat

Avec l’explosion de l’intelligence artificielle générative, les universités, tout comme leurs étudiants, tâtonnent entre fascination et inquiétude. Une récente affaire relayée sur les réseaux sociaux et certains médias américains vient raviver le débat sur la place de l'IA dans l'éducation supérieure.

En février, Ella Stapleton, alors étudiante en dernière année à la Northeastern University, passait en revue les notes de son cours sur le comportement organisationnel lorsqu'elle a remarqué quelque chose d'étrange. S'agissait-il d'une demande de ChatGPT de la part de son professeur ?

Dans le document que son professeur de gestion avait rédigé pour un cours sur les modèles de leadership, se trouvait une instruction à ChatGPT de « développer tous les domaines. Sois plus détaillé et plus spécifique ». Cette instruction était suivie d'une liste de traits de caractère positifs et négatifs, chacun accompagné d'une définition prosaïque et d'un exemple à puces.

Stapleton a envoyé un texto à une amie de la classe : « Tu as vu les notes qu'il a mises sur Canvas ? », a-t-elle écrit, en référence à la plateforme logicielle de l'université pour l'hébergement des supports de cours. « Il les a faites avec ChatGPT ».

« OMG !!! Arrête », a répondu le camarade de classe. « C'est quoi ce bordel ? »

Stapleton a décidé de creuser un peu. Elle a examiné les diaporamas de son professeur et a découvert d'autres signes révélateurs de l'IA : du texte déformé, des photos d'employés de bureau avec des parties du corps superflues et des fautes d'orthographe flagrantes.

Elle n'était pas contente. Compte tenu du coût et de la réputation de l'école, elle s'attendait à un enseignement de haut niveau. Ce cours était obligatoire pour sa mineure en commerce ; son programme interdisait les « activités académiques malhonnêtes », y compris l'utilisation non autorisée de l'intelligence artificielle ou des robots de conversation (chatbots).

« Ils nous disent de ne pas l'utiliser, mais il l'utilise lui-même », a-t-elle déclaré.

Stapleton a déposé une plainte officielle auprès de l'école de commerce de Northeastern, citant l'utilisation non divulguée de l'I.A. ainsi que d'autres problèmes qu'elle avait avec son style d'enseignement, et a demandé le remboursement des frais de scolarité pour cette classe. Ce remboursement représente un quart de la facture totale du semestre, soit plus de 8 000 dollars.


Le professeur s'est montré contrit à propos de cet épisode

Après avoir déposé sa plainte à Northeastern, Stapleton a eu une série de réunions avec des responsables de l'école de commerce. En mai, le lendemain de la cérémonie de remise des diplômes, les responsables lui ont annoncé qu'elle ne serait pas remboursée de ses frais de scolarité.

Rick Arrowood, son professeur, s'est montré contrit à propos de cet épisode. Arrowood, qui est professeur auxiliaire et enseigne depuis près de vingt ans, a déclaré qu'il avait téléchargé les fichiers et les documents de son cours sur ChatGPT, le moteur de recherche d'IA Perplexity et un générateur de présentations d'IA appelé Gamma pour « leur donner un nouveau look ». Au premier coup d'œil, les notes et les présentations qu'ils avaient générées avaient l'air parfaites.

« Avec le recul, je regrette de ne pas y avoir regardé de plus près », a-t-il déclaré.

Il a mis le matériel en ligne pour que les étudiants puissent le consulter, mais il a souligné qu'il ne l'utilisait pas en classe, car il préfère que les cours soient axés sur la discussion. Il n'a réalisé que le matériel était défectueux que lorsque les responsables de l'école l'ont interrogé à ce sujet.

Cette situation embarrassante lui a fait prendre conscience, selon lui, que les professeurs devraient aborder l'IA avec plus de prudence et informer les étudiants du moment et de la manière dont elle est utilisée. Ce n'est que récemment que l'université de Northeastern a adopté une politique officielle en matière d'IA. Cette politique exige l'attribution de l'utilisation des systèmes d'IA et l'examen des résultats pour en vérifier « l'exactitude et l'adéquation ».

« J'aime enseigner », a déclaré le docteur Arrowood. « Si mon expérience peut être utile à d'autres personnes, alors je suis heureux ».

Renata Nyul, vice-présidente chargée de la communication à l'université de Northeastern, a déclaré : « Northeastern adopte l'utilisation de l'intelligence artificielle pour améliorer tous les aspects de son enseignement, de sa recherche et de ses opérations. L'université fournit une abondance de ressources pour soutenir l'utilisation appropriée de l'IA et continue de mettre à jour et d'appliquer les politiques pertinentes à l'échelle de l'entreprise. »

Les universités restreignent souvent l'utilisation de l'IA sur le campus

De nombreuses écoles interdisent purement et simplement l'utilisation de l'IA ou la soumettent à des restrictions. Les étudiants ont été parmi les premiers à adopter ChatGPT après son lancement à la fin de l'année 2022, constatant rapidement qu'ils pouvaient terminer leurs dissertations et leurs devoirs en quelques secondes. L'utilisation généralisée de cette technologie a suscité la méfiance des étudiants et des enseignants, ces derniers s'efforçant d'identifier et de sanctionner l'utilisation de l'IA dans le cadre du travail.

Aujourd'hui, la situation s'est quelque peu inversée. Les étudiants se rendent sur des sites tels que « Rate My Professors » pour se plaindre de l'utilisation ou de la surutilisation de l'IA par leurs professeurs. Ils affirment également que cela porte atteinte aux frais qu'ils paient pour recevoir un enseignement dispensé par des experts humains plutôt que par une technologie qu'ils pourraient utiliser gratuitement.

Selon la politique de Northeastern en matière d'IA, tout enseignant ou étudiant doit « fournir une attribution appropriée lorsqu'il utilise un système d'IA pour générer un contenu qui est inclus dans une publication savante, ou soumis à toute personne, publication ou autre organisation qui exige l'attribution de la paternité du contenu ». La politique stipule également que ceux qui utilisent la technologie doivent : « Vérifier régulièrement l'exactitude et l'adéquation des résultats du système d'IA à l'objectif recherché, et réviser/mettre à jour les résultats le cas échéant. »

Les professeurs adoptent l’IA pour alléger leur charge de travail

De plus en plus d’enseignants explorent les outils d’IA pour automatiser certaines tâches fastidieuses, comme la correction de copies, afin de se recentrer sur l’accompagnement pédagogique. Dans de nombreuses salles de classe, l’ordinateur est devenu l’allié du professeur. Aux États-Unis, un logiciel comme Writable permet ainsi à l’enseignant de soumettre les devoirs écrits de ses élèves à une analyse par ChatGPT, qui génère des commentaires et suggestions personnalisés. Le professeur n’a plus qu’à valider ou ajuster ces retours avant de les transmettre aux élèves.

Au Royaume-Uni, certains enseignants vont plus loin en utilisant l’IA Real Fast Reports pour produire en quelques secondes des appréciations détaillées et sur mesure sur chaque élève : ils entrent quelques notes en vrac, et l’algorithme rédige un commentaire bien structuré pour le bulletin scolaire​

Pourquoi un tel engouement ? D’abord parce que les professeurs y gagnent un temps considérable. La correction manuelle de dizaines de copies ou la rédaction de rapports personnalisés sont des tâches chronophages. Grâce à l’IA, un enseignant peut, en théorie, fournir plus de feedback, plus rapidement à ses élèves. Des outils comme ChatGPT peuvent aussi l’aider à préparer des quiz, formuler des explications plus claires, ou varier les exemples dans un cours. « Ces technologies peuvent aider les enseignants », affirme Yann Houry, directeur de l’innovation pédagogique dans un lycée international, en soulignant qu’elles peuvent aider à mieux différencier la progression de chaque élève et repérer plus tôt ceux en difficulté.

De plus, l’IA offre des possibilités de personnalisation de l’enseignement inédites : au Texas, un pédagogue a par exemple utilisé des chatbots pour adapter ses problèmes de mathématiques aux centres d’intérêt de chaque élève, qu’il s’agisse de trajectoires de base-ball ou de pas de danse​. Cette individualisation, difficile à réaliser pour un humain avec de grands groupes, devient envisageable avec une IA assistant le professeur.


L’effet miroir : étudiants vs professeurs, même combat ?

L’ironie de cette affaire n’échappe à personne : dans de nombreux établissements, les étudiants sont activement dissuadés, voire sanctionnés, pour usage abusif de ChatGPT dans leurs devoirs. Pourtant, voilà que certains enseignants s’en servent sans transparence. Ce double standard alimente un sentiment d’injustice : pourquoi interdire aux uns ce que l’on tolère pour les autres ?

En miroir de cet engouement professoral, le discours officiel envers les élèves reste très restrictif. Dans la plupart des établissements, utiliser ChatGPT ou un outil similaire pour faire ses devoirs est assimilé à de la triche. L’IA y est vue comme une calculatrice ultra-sophistiquée qui ferait tout à la place de l’élève, aux dépens de ses apprentissages. « ChatGPT, c’est comme si un autre écrivait ta copie », peut-on entendre dans les salles des profs. La crainte principale : que les devoirs rendus n’évaluent plus le niveau réel des élèves, mais simplement leur habilité à utiliser l’outil. Ainsi, dès qu’un devoir maison paraît anormalement bien rédigé, la suspicion s’installe

« Le problème, c’est que tous les devoirs faits à la maison seront désormais reçus avec un doute. Les bons devoirs seront par défaut soupçonnés », déplore Médéric Gasquet-Cyrus, un maître de conférences d’Aix-Marseille. La confiance entre élèves et professeurs en prend un coup, et certains enseignants ont le sentiment de jouer à un « cache-cache » épuisant pour débusquer l’IA dans les copies.

[TWITTER]<blockquote class="twitter-tweet"><p lang="fr" dir="ltr">Voilà : premier gros soupçon d'un devoir écrit à l'aide de <a href="https://twitter.com/hashtag/ChatGPT?src=hash&ref_src=twsrc%5Etfw">#ChatGPT</a>...<br>Pas de copié-collé apparent, mais un texte rédigé de manière impeccable et assez subtile, sans fautes, de la part d'un étudiant qui avait eu 4/20 et 7/20 à ses premiers devoirs.<br>Je fais quoi moi ?...</p>— Médéric Gasquet-Cyrus (@MedericGC) <a href="https://twitter.com/MedericGC/status/1618185537655046144?ref_src=twsrc%5Etfw">January 25, 2023</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script> [/TWITTER]

Certaines voix dans le corps étudiant appellent à une refonte des règles d’usage de l’IA dans l’enseignement, exigeant une charte claire pour les deux parties. Un dialogue équilibré semble nécessaire pour sortir d’un rapport de force où chacun suspecte l’autre de « tricher ».

L’affaire Ella Stapleton ne fait que mettre en lumière une crise plus large dans l’enseignement supérieur. Depuis plusieurs années, les critiques pleuvent sur le coût exorbitant des études universitaires, notamment aux États-Unis. Dans ce contexte, découvrir que des enseignants automatisent leur travail grâce à des outils gratuits renforce la colère de certains étudiants, qui ont le sentiment de payer pour un service déshumanisé.

D’autres affirment que cette évolution est inévitable et que l’université doit se réinventer. Plutôt que d’exclure l’IA, pourquoi ne pas former les étudiants à l’utiliser avec discernement ? Pourquoi ne pas revaloriser le rôle de mentorat des enseignants, au-delà de la simple transmission d’informations ?

L’usage de ChatGPT par un professeur, découvert par une étudiante qui a réclamé (sans succès) le remboursement de ses frais de scolarité, n’est pas seulement une anecdote virale. C’est un signal d’alarme. Il révèle l’ampleur du bouleversement en cours dans l’enseignement supérieur à l’heure de l’intelligence artificielle. Entre dérives, opportunités, et nécessaire redéfinition des rôles, les universités ont désormais un devoir de clarté : dire ce qu’elles attendent de leurs enseignants comme de leurs étudiants face à l’IA, et réaffirmer la mission humaine de l’éducation.

Sources : politique de Northeastern en matière d'IA, Ella Stapleton

Et vous ?

Un professeur doit-il signaler quand il utilise ChatGPT pour ses cours ou ses corrections ?

Peut-on considérer que l’usage d’une IA dévalorise l’enseignement ?

Faut-il former les étudiants à utiliser ChatGPT plutôt que de les en dissuader ?

Si l’IA devient omniprésente dans les universités, les frais de scolarité doivent-ils être revus à la baisse ? Pourquoi ou pourquoi pas ?
Vous avez lu gratuitement 388 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Gepeto213
Nouveau Candidat au Club https://www.developpez.com
Le 31/05/2025 à 11:37
Beaucoup parlent de devoir suivre l'évolution. Le problème ici n'est pas de devoir se faire aider sur une épreuve de force mais intellectuelle. Comment se construit l'intelligence humaine, le savoir ? Uniquement sur l'effort, les épreuves, les échecs et les succès. Il est courant d'entendre : «*à quoi cela me sert d'apprendre ça puisque j'en n'aurait pas l'utilité plus tard ?*» ― faux. Repousser les limites du raisonnement nous aide à mieux appréhender les défis et les challenges de demain, et c'est ce qui nous conduit parfois à faire preuve d'une véritable innovation face à des problèmes complexes et nouveaux. Laisser quelqu'un d'autre penser à notre place, même une machine, c'est sacrifier ce qui fait de nous des êtres intelligents : notre capacité d'analyse et de réflexion. Faire l'impasse sur cela c'est comme accepter de devenir rachitique dans un exosquelette en croyant que cela fait de nous des athlètes. Est-ce que j'utilise l'IA ? Bien sûr. Mais je prends garde à ce qu'elle ne me prive pas de mon devoir de réflexion et d'approfondissement. Par exemple, si je dois rédiger un texte en anglais, je ne demande pas à l'IA de le faire ; je le rédige moi et après je lui demande de me corriger et d'améliorer ma réponse, de sorte que je m'exerce à la tâche et me confronte ensuite à une correction qui me permette d'apprendre de mes erreurs. Il est possible d'apprendre avec l'IA mais ce n'est qu'à la condition qu'elle nous permette de construire notre connaissance de manière structurée, organisée et pertinente, autrement nous devenons juste des esclaves décérébrés, sans âme ni caractère. La difficulté et le fait de devoir repousser les limites forge notre caractère et intelligence. Déjà que les réseaux sociaux nous abrutissent, alors que dire d'une formation par procuration ? Le pire dans tout cela c'est que ce sont de jeunes en devenir qui souhaitent aller dans ce sens, alors même que ce sont eux les premiers, de par leur inexpérience, qui sont les plus remplaçable par l'IA, et privés par là-même de leur opportunité de gagner en expérience. Qu'un prof utilise l'IA ne me gène pas ― il a déjà toute l'expérience et recul nécessaire pour cela, il n'a rien à prouver ; qu'un étudiant l'utilise pour se faire «*souffler*» les réponse sans effort, c'est se mentir à soi-même : il restera incapable de relever de nouveaux défis et justifie par là-même son remplacement par l'IA dans l'argumentaire d'entreprises en recherche de véritables talents. Quelle décadence du savoir…

Note : et je suis heureux de ne pas avoir eu besoin de l'IA pour rédiger ce post.
5  0 
Avatar de Eric80
Membre éprouvé https://www.developpez.com
Le 19/05/2025 à 12:18
Citation Envoyé par archqt Voir le message
Cela veut donc dire que les enfants ne doivent plus apprendre les tables de multiplication ?
Il faut forcément apprendre les bases, il est évident que la plupart des demandes seront réalisées rapidement par l'IA surtout en sciences.
RenarddeFeu a pourtant raison. Qui a survécu à une école d'ingénieur française (pour prendre ce que je connais, mais il y a 25 ans!) a compris la stratégie des examens: outre la complexité, la gestion du temps est cruciale. Tu avais souvent accès à des supports de cours papier et une calculatrice élémentaire (type collège), mais aucun outil informatique.
Si tu n'avais pas digéré les cours, tu n avais pas le temps d'éplucher tes notes pour réussir l exercice!

Et l analogie avec l apprentissage d une table de multiplication fonctionne aussi bien: si tu n es pas capable de répondre immédiatement en calcul mental et prend le temps de taper sur une calculatrice, tu as perdu!

Est ce que des examens qui se font que avec un crayon et du papier existent encore?
3  0 
Avatar de RenarddeFeu
Membre averti https://www.developpez.com
Le 17/05/2025 à 0:56
Il y a une grosse hypocrisie autour de l'usage des LLM dans le monde universitaire, comme pour Wikipédia à une certaine époque.

Toujours est-il que si un LLM ou une calculatrice suffisent à tuer la difficulté d'un exercice, c'est qu'il n'était pas pertinent à la base.

Le biais du survivant aidant, ceux qui sont passés par là et ont eu leur diplôme ne comprennent pas pourquoi il devrait en être autrement pour les jeunes générations.
3  1 
Avatar de RenarddeFeu
Membre averti https://www.developpez.com
Le 17/05/2025 à 14:20
Citation Envoyé par archqt Voir le message
Cela veut donc dire que les enfants ne doivent plus apprendre les tables de multiplication ?
Il faut forcément apprendre les bases, il est évident que la plupart des demandes seront réalisées rapidement par l'IA surtout en sciences.
Le contexte, ça compte hein ! L'article et mon commentaire font référence aux études supérieures.

Personne ne parle d'arrêter d'apprendre aux enfants de lire, écrire et compter.
2  0 
Avatar de lecorr
Membre à l'essai https://www.developpez.com
Le 31/05/2025 à 11:34
Citation Envoyé par jnspunk Voir le message
Une solution plus intelligente serait de rendre obligatoire l'utilisation des modèles de langage pour les devoirs et examens. Cela permettrait de relever le niveau et de permettre aux étudiants d'apprendre des choses plus utiles, car on les évaluerait sur ce que le modèle de langage sera incapable de faire. Si on empêche l'utilisation de ces modèles de langage à l'école, on empêche alors aux étudiants d'apprendre un outil qui sera vite obligatoire dans la vie professionnelle.

Imaginez qu'à l'invention de la tronçonneuse, on force les apprentis bûcherons à couper un arbre avec une scie ? Ils n'auront rien appris de l'outil qui sera pourtant leur principal outil de travail.
Je suis certain que vous serez tout à fait rassuré quand vous apprendrez que votre opération à coeur ouvert sera réalisée par un chirurgien qui a eu son diplôme grâce à l'IA...
Blague à part, si on veut l'IA dans les classes, alors autant noter l'IA.
Je travaille dans l'informatique, presque tout ce que je fais est nouveau... Quand je demande à l'IA des informations sur mon propre domaine, elle a une forte tendance à me recracher presque texto mon propre site web. www theopuproject com...
C'est ça les limites de l'IA... L'incapacité à inventer quelque chose. Et aussi, de vous exposer à de grosses amendes pour plagiat.
Donc, même si l'IA peut être utile dans des cas limités, elle ne sert à rien pour les inventeurs et créateurs (pour rappel, un créateur crée un 'objet' original, pas une copie volée à quelqu'un d'autre).
2  0 
Avatar de archqt
Membre émérite https://www.developpez.com
Le 17/05/2025 à 10:34
Toujours est-il que si un LLM ou une calculatrice suffisent à tuer la difficulté d'un exercice, c'est qu'il n'é pas pertinent à la base.
Cela veut donc dire que les enfants ne doivent plus apprendre les tables de multiplication ?
Il faut forcément apprendre les bases, il est évident que la plupart des demandes seront réalisées rapidement par l'IA surtout en sciences.
1  1 
Avatar de Matthieu Vergne
Expert éminent https://www.developpez.com
Le 01/06/2025 à 18:39
Citation Envoyé par Stéphane le calme Voir le message
Ce coup de gueule reflète un sentiment partagé par de nombreux jeunes : selon un reportage, plusieurs adolescents jugent « contraire à l’éthique » que leurs enseignants aient recours à ces technologies pour évaluer leur travail, alors qu’eux-mêmes en sont privés pendant la rédaction. Il y a là, aux yeux des élèves, une forme d’injustice et de double discours.
Citation Envoyé par Stéphane le calme Voir le message
L’ironie de cette affaire n’échappe à personne : dans de nombreux établissements, les étudiants sont activement dissuadés, voire sanctionnés, pour usage abusif de ChatGPT dans leurs devoirs. Pourtant, voilà que certains enseignants s’en servent sans transparence. Ce double standard alimente un sentiment d’injustice : pourquoi interdire aux uns ce que l’on tolère pour les autres ?
Citation Envoyé par Stéphane le calme Voir le message
L'école de commerce de l'American University lance un institut de l'IA à cette fin : « Lorsque des jeunes de 18 ans arrivent ici en première année, nous leur demandons : "Combien de vos professeurs de lycée vous ont-ils dit de ne pas utiliser l'IA ?" Et la plupart d'entre eux lèvent la main », a déclaré David Marchick, le doyen de la Kogod School of Business de l'American University. « Nous leur disons : "Voilà, vous utilisez l'IA à partir d'aujourd'hui" ».
Le double discours est bel et bien là. Ce dont les uns se plaignent ici peut tout le temps être reproché à l'autre aussi. Ce n'est pas que pour les étudiants ni que pour les enseignants. Les deux sont systématiquement concernés. Affirmer que l'enseignant ne "tricherait" pas est un mensonge pur et simple. Quel que soit le métier, on a toujours des professionnels qui "trichent" : prennent des raccourcis qu'ils ne devraient pas, se contentent de leurs lacunes au dépend de ceux qui dépendent d'eux, etc. À l'inverse, on a aussi des élèves qui cherchent à bien faire et à s'améliorer, pas que des tricheurs à l'affût de tout ce qui pourrait leur permettre de gagner sans travailler. Croire qu'on a une majorité de "tricheurs" étudiants, mais que ceux-ci seront des "honnêtes" professionnels une fois sur le marché du travail, c'est faire preuve d'une hypocrisie crasse, et c'est ça qui supporte le double discours.

Pour régler le problème, il faut changer de perspective : si le problème paraît insoluble, c'est qu'on ne le regarde pas de la bonne manière.

Les faits sont les suivants :
  • que ce soit l'étudiant ou l'enseignant, les deux sont censés s'améliorer dans le temps
  • l'amélioration des compétences (savoir et savoir-faire) passe par le transfert de connaissance et la pratique
  • pour l'étudiant, le transfert de connaissance peut autant se faire depuis l'enseignant que l'IA (je ne dis pas que l'un vaut l'autre, juste que ce sont deux sources de connaissances pertinentes)
  • pour l'enseignant, le transfert de connaissance peut autant se faire depuis ses pairs/formateurs que l'IA (idem)
  • pour les deux, la pratique ne peut s'exprimer que par l'exercice personnel, et s'abstenir de pratiquer parce que l'IA fournit une réponse est condamnable, pour l'étudiant comme pour l'enseignant
  • l'IA ne fournit pas de réponse "correcte", elle fournit une réponse "cohérente", et c'est à l'utilisateur de déterminer si en plus d'être cohérente, elle est correcte, que l'utilisateur soit étudiant ou enseignant
  • à ce titre, l'IA ne devrait jamais être utilisé sans repasser derrière, que ce soit l'étudiant ou l'enseignant
  • pour ceux qui sont familiers des biais cognitifs, on recommandera surtout de faire soi-même avant de demander à l'IA, pour éviter de se contenter de sa réponse (elle doit apporter un complément, pas la réponse) et justement favoriser la pratique qui, autrement, se perd et empêche l'étudiant ou l'enseignant de s'améliorer


Un étudiant qui fait sa dissertation, puis la fait passer par l'IA pour s'améliorer, c'est un étudiant qui reçoit un enseignement supplémentaire via l'IA, donc tant mieux. Un étudiant qui fait faire sa rédaction par l'IA et repasse derrière pour comprendre et retravailler, c'est pas mal mais pas l'idéal, cela justifie de former l'étudiant pour mieux utiliser l'IA. Un étudiant qui fait faire sa rédaction par l'IA et se contente de relectures mineures, c'est de la triche pure et simple, qui mérite un blâme ou de se faire virer en cas d'abus.

De la même manière (copier-coller-adapter) :
Un enseignant qui fait sa correction, puis la fait passer par l'IA pour s'améliorer, c'est un enseignant qui reçoit une formation supplémentaire via l'IA, donc tant mieux. Un enseignant qui fait faire sa correction par l'IA et repasse derrière pour comprendre et retravailler, c'est pas mal mais pas l'idéal, cela justifie de former l'enseignant pour mieux utiliser l'IA. Un enseignant qui fait faire sa correction par l'IA et se contente de relectures mineures, c'est de la triche pure et simple, qui mérite un blâme ou de se faire virer en cas d'abus.

Il n'y a pas besoin d'avoir de double discours : il s'agit de comprendre que l'IA est un outil, au même titre qu'une calculatrice, qui peut être bien ou mal utilisé. Mais comme la calculatrice, c'est un outil qui est là pour rester, donc l'interdire est utopique (qu'est-ce qui empêche l'étudiant d'utiliser la calculatrice dans un devoir à la maison ? le problème n'a rien de nouveau ni de spécifique à l'IA). Il faut former les gens, qu'ils soient étudiants ou enseignants, et mettre en place des pratiques qui favorisent le bon usage.

Une idée qui me passe par la tête (mais c'est au monde éducatif à plancher dessus) c'est par exemple dans un travail de rédaction, d'ajouter une section où il est explicitement prévu de faire usage de l'IA, de façon à annoncer ouvertement ce que dit l'IA, de le critiquer (positif et négatif), et d'en déduire comment la rédaction manuelle mériterait d'être revue. L'IA n'est plus le rédacteur mais le sujet de la dissertation dans une section dédiée. Ce serait même une partie qu'il serait intéressante de faire en live à l'oral après remise de la rédaction écrite.
0  0 
Avatar de jnspunk
Membre habitué https://www.developpez.com
Le 30/05/2025 à 5:36
Une solution plus intelligente serait de rendre obligatoire l'utilisation des modèles de langage pour les devoirs et examens. Cela permettrait de relever le niveau et de permettre aux étudiants d'apprendre des choses plus utiles, car on les évaluerait sur ce que le modèle de langage sera incapable de faire. Si on empêche l'utilisation de ces modèles de langage à l'école, on empêche alors aux étudiants d'apprendre un outil qui sera vite obligatoire dans la vie professionnelle.

Imaginez qu'à l'invention de la tronçonneuse, on force les apprentis bûcherons à couper un arbre avec une scie ? Ils n'auront rien appris de l'outil qui sera pourtant leur principal outil de travail.
0  3