IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les enseignants se servent de ChatGPT et d'autres IA pour corriger les évaluations et préparer leurs cours mais l'interdisent aux élèves
L'IA s'invite dans les salles de classe... mais pas pour tout le monde

Le , par Stéphane le calme

62PARTAGES

12  0 
Depuis l’émergence de ChatGPT fin 2022, l’intelligence artificielle (IA) s’invite dans les classes, suscitant espoirs et inquiétudes. D’un côté, des professeurs commencent à s’appuyer sur ces outils pour corriger des copies ou préparer leurs cours, gagnant un temps précieux. De l’autre, les élèves se voient souvent défendre d’y recourir, sous peine d’être accusés de triche. Cette asymétrie – les enseignants peuvent utiliser l’IA alors qu’elle est interdite aux apprenants – soulève un vif débat dans le monde éducatif.

L’irruption de ChatGPT, capable de rédiger dissertations, résumés ou code informatique sur simple requête, a d’abord ébranlé le milieu éducatif. Dès janvier 2023, des institutions ont réagi par la fermeté : Sciences Po, prestigieuse université parisienne, a banni l’usage de ChatGPT et outils assimilés, invoquant les risques de « fraude et plagiat ». Dans un courriel adressé à tous, la direction a rappelé que « sans référence explicite, les étudiants ont interdiction d’utiliser ce logiciel pour tout travail écrit ou présentation », hors activités encadrées par un enseignant. Des sanctions jusqu’à l’exclusion ont même été envisagées en cas d’entorse​.

De même, le réseau des écoles publiques de New York avait initialement bloqué ChatGPT sur ses serveurs par crainte de dérives, avant de faire marche arrière quelques mois plus tard. Car entre-temps, enseignants et experts commençaient aussi à percevoir le potentiel pédagogique de ces IA, appelant à « dédiaboliser l’IA, sans pour autant l’idéaliser »

En France, le ministère de l’Éducation a lancé des réflexions sur l’intégration de l’IA dans l’apprentissage. Preuve d’un changement de ton, en décembre 2023 il a même été annoncé que « tous les élèves entrant au lycée seront désormais accompagnés, à la maison, d’un outil d’IA » d’aide en français et en mathématiques dès la rentrée 2024. Autrement dit, plutôt que de l’interdire totalement, les pouvoirs publics envisagent de l’utiliser comme un tuteur intelligent pour aider les élèves en difficulté. Néanmoins, sur le terrain, une profonde ambivalence demeure : l’IA est à la fois perçue comme une menace pour l’intégrité académique et une opportunité pour améliorer l’éducation.


Les professeurs adoptent l’IA pour alléger leur charge de travail

De plus en plus d’enseignants explorent les outils d’IA pour automatiser certaines tâches fastidieuses, comme la correction de copies, afin de se recentrer sur l’accompagnement pédagogique. Dans de nombreuses salles de classe, l’ordinateur est devenu l’allié du professeur. Aux États-Unis, un logiciel comme Writable permet ainsi à l’enseignant de soumettre les devoirs écrits de ses élèves à une analyse par ChatGPT, qui génère des commentaires et suggestions personnalisés. Le professeur n’a plus qu’à valider ou ajuster ces retours avant de les transmettre aux élèves.

Au Royaume-Uni, certains enseignants vont plus loin en utilisant l’IA Real Fast Reports pour produire en quelques secondes des appréciations détaillées et sur mesure sur chaque élève : ils entrent quelques notes en vrac, et l’algorithme rédige un commentaire bien structuré pour le bulletin scolaire​


Pourquoi un tel engouement ? D’abord parce que les professeurs y gagnent un temps considérable. La correction manuelle de dizaines de copies ou la rédaction de rapports personnalisés sont des tâches chronophages. Grâce à l’IA, un enseignant peut, en théorie, fournir plus de feedback, plus rapidement à ses élèves. Des outils comme ChatGPT peuvent aussi l’aider à préparer des quiz, formuler des explications plus claires, ou varier les exemples dans un cours. « Ces technologies peuvent aider les enseignants », affirme Yann Houry, directeur de l’innovation pédagogique dans un lycée international, en soulignant qu’elles peuvent aider à mieux différencier la progression de chaque élève et repérer plus tôt ceux en difficulté.

De plus, l’IA offre des possibilités de personnalisation de l’enseignement inédites : au Texas, un pédagogue a par exemple utilisé des chatbots pour adapter ses problèmes de mathématiques aux centres d’intérêt de chaque élève, qu’il s’agisse de trajectoires de base-ball ou de pas de danse​. Cette individualisation, difficile à réaliser pour un humain avec de grands groupes, devient envisageable avec une IA assistant le professeur.

Toutefois, certains observateurs appellent à la prudence. Une enquête du média Axios note que ces logiciels peuvent inciter à des « raccourcis » pédagogiques préoccupants : « certains enseignants utiliseront probablement les suggestions de ChatGPT comme point de départ, mais d’autres pourraient les transmettre textuellement aux étudiants », sans travail critique. En clair, si l’IA corrige à la place du professeur, qui s’assure de la pertinence des retours ? Un enseignant consciencieux y verra surtout un outil d’assistance, là où un autre moins scrupuleux pourrait être tenté de déléguer entièrement la tâche. Il n’en demeure pas moins que, voulue ou non, l’introduction de l’IA dans le métier enseignant semble inéluctable.


Une aide interdite aux élèves : la peur de la triche et du plagiat

En miroir de cet engouement professoral, le discours officiel envers les élèves reste très restrictif. Dans la plupart des établissements, utiliser ChatGPT ou un outil similaire pour faire ses devoirs est assimilé à de la triche. L’IA y est vue comme une calculatrice ultra-sophistiquée qui ferait tout à la place de l’élève, aux dépens de ses apprentissages. « ChatGPT, c’est comme si un autre écrivait ta copie », peut-on entendre dans les salles des profs. La crainte principale : que les devoirs rendus n’évaluent plus le niveau réel des élèves, mais simplement leur habilité à utiliser l’outil. Ainsi, dès qu’un devoir maison paraît anormalement bien rédigé, la suspicion s’installe

« Le problème, c’est que tous les devoirs faits à la maison seront désormais reçus avec un doute. Les bons devoirs seront par défaut soupçonnés », déplore Médéric Gasquet-Cyrus, un maître de conférences d’Aix-Marseille. La confiance entre élèves et professeurs en prend un coup, et certains enseignants ont le sentiment de jouer à un « cache-cache » épuisant pour débusquer l’IA dans les copies.

[TWITTER]<blockquote class="twitter-tweet"><p lang="fr" dir="ltr">Voilà : premier gros soupçon d'un devoir écrit à l'aide de <a href="https://twitter.com/hashtag/ChatGPT?src=hash&ref_src=twsrc%5Etfw">#ChatGPT</a>...<br>Pas de copié-collé apparent, mais un texte rédigé de manière impeccable et assez subtile, sans fautes, de la part d'un étudiant qui avait eu 4/20 et 7/20 à ses premiers devoirs.<br>Je fais quoi moi ?...</p>— Médéric Gasquet-Cyrus (@MedericGC) <a href="https://twitter.com/MedericGC/status/1618185537655046144?ref_src=twsrc%5Etfw">January 25, 2023</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script> [/TWITTER]

Faute de moyen infaillible pour détecter automatiquement un texte produit par ChatGPT, plusieurs établissements ont préféré interdire purement et simplement ces outils aux élèves. C’est le cas de l’Université de Lorraine en 2023 : confrontée à 120 copies d’étudiants de BUT aux tournures impeccables et « sans la moindre faute d’orthographe », une professeure a refusé de corriger le devoir de groupe, suspectant un usage massif de l’IA. Les étudiants ont dû être convoqués pour s’expliquer, et reconnaître du bout des lèvres leur utilisation de ChatGPT.

De même, des universités anglo-saxonnes ont revu leurs modalités d’examen pour contrecarrer ces tricheries 2.0 : retour des épreuves en classe et manuscrites, exposés oraux improvisés, etc., afin de s’assurer que l’élève sait réfléchir sans l’aide d’un assistant virtuel​. L’objectif est de valoriser le travail personnel et l’effort intellectuel authentique. Quant aux élèves convaincus d’avoir délégué leur copie à une IA, ils s’exposent à des sanctions disciplinaires comparables à du plagiat classique.

Du point de vue des enseignants, cette sévérité se justifie par l’impératif pédagogique : un élève qui fait faire ses exercices par une machine n’acquiert pas les compétences visées. Rédiger un essai, par exemple, ce n’est pas seulement produire un texte correct en français, c’est structurer sa pensée, argumenter, développer un style. En interdisant ChatGPT aux élèves, les professeurs estiment protéger cet apprentissage essentiel. « Si les étudiants n’écrivent pas pour un lecteur humain, pourquoi écrivent-ils ? » résume une enseignante américaine, rappelant que l’acte d’écrire vise avant tout à communiquer une idée à quelqu’un. Pour les éducateurs, autoriser l’IA reviendrait à court-circuiter cet effort et à encourager la paresse intellectuelle.

Un paradoxe qui interroge élèves et professeurs

Cette situation aboutit à un étrange paradoxe : d’un côté l’IA est un atout pour les profs, de l’autre un poison pour les élèves. Une asymétrie que beaucoup commencent à dénoncer. « Je crois que ce n’est pas éthique que les profs utilisent l’IA si leurs élèves n’y ont pas droit », s’indigne par exemple Kimberly, une lycéenne interrogée dans le cadre d’une enquête du New York Times. « Ce ne serait pas juste que les élèves ne puissent pas s’en aider […] alors que leur prof ne[/…]...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Gepeto213
Nouveau Candidat au Club https://www.developpez.com
Le 31/05/2025 à 11:37
Beaucoup parlent de devoir suivre l'évolution. Le problème ici n'est pas de devoir se faire aider sur une épreuve de force mais intellectuelle. Comment se construit l'intelligence humaine, le savoir ? Uniquement sur l'effort, les épreuves, les échecs et les succès. Il est courant d'entendre : «*à quoi cela me sert d'apprendre ça puisque j'en n'aurait pas l'utilité plus tard ?*» ― faux. Repousser les limites du raisonnement nous aide à mieux appréhender les défis et les challenges de demain, et c'est ce qui nous conduit parfois à faire preuve d'une véritable innovation face à des problèmes complexes et nouveaux. Laisser quelqu'un d'autre penser à notre place, même une machine, c'est sacrifier ce qui fait de nous des êtres intelligents : notre capacité d'analyse et de réflexion. Faire l'impasse sur cela c'est comme accepter de devenir rachitique dans un exosquelette en croyant que cela fait de nous des athlètes. Est-ce que j'utilise l'IA ? Bien sûr. Mais je prends garde à ce qu'elle ne me prive pas de mon devoir de réflexion et d'approfondissement. Par exemple, si je dois rédiger un texte en anglais, je ne demande pas à l'IA de le faire ; je le rédige moi et après je lui demande de me corriger et d'améliorer ma réponse, de sorte que je m'exerce à la tâche et me confronte ensuite à une correction qui me permette d'apprendre de mes erreurs. Il est possible d'apprendre avec l'IA mais ce n'est qu'à la condition qu'elle nous permette de construire notre connaissance de manière structurée, organisée et pertinente, autrement nous devenons juste des esclaves décérébrés, sans âme ni caractère. La difficulté et le fait de devoir repousser les limites forge notre caractère et intelligence. Déjà que les réseaux sociaux nous abrutissent, alors que dire d'une formation par procuration ? Le pire dans tout cela c'est que ce sont de jeunes en devenir qui souhaitent aller dans ce sens, alors même que ce sont eux les premiers, de par leur inexpérience, qui sont les plus remplaçable par l'IA, et privés par là-même de leur opportunité de gagner en expérience. Qu'un prof utilise l'IA ne me gène pas ― il a déjà toute l'expérience et recul nécessaire pour cela, il n'a rien à prouver ; qu'un étudiant l'utilise pour se faire «*souffler*» les réponse sans effort, c'est se mentir à soi-même : il restera incapable de relever de nouveaux défis et justifie par là-même son remplacement par l'IA dans l'argumentaire d'entreprises en recherche de véritables talents. Quelle décadence du savoir…

Note : et je suis heureux de ne pas avoir eu besoin de l'IA pour rédiger ce post.
5  0 
Avatar de Eric80
Membre éprouvé https://www.developpez.com
Le 19/05/2025 à 12:18
Citation Envoyé par archqt Voir le message
Cela veut donc dire que les enfants ne doivent plus apprendre les tables de multiplication ?
Il faut forcément apprendre les bases, il est évident que la plupart des demandes seront réalisées rapidement par l'IA surtout en sciences.
RenarddeFeu a pourtant raison. Qui a survécu à une école d'ingénieur française (pour prendre ce que je connais, mais il y a 25 ans!) a compris la stratégie des examens: outre la complexité, la gestion du temps est cruciale. Tu avais souvent accès à des supports de cours papier et une calculatrice élémentaire (type collège), mais aucun outil informatique.
Si tu n'avais pas digéré les cours, tu n avais pas le temps d'éplucher tes notes pour réussir l exercice!

Et l analogie avec l apprentissage d une table de multiplication fonctionne aussi bien: si tu n es pas capable de répondre immédiatement en calcul mental et prend le temps de taper sur une calculatrice, tu as perdu!

Est ce que des examens qui se font que avec un crayon et du papier existent encore?
3  0 
Avatar de RenarddeFeu
Membre averti https://www.developpez.com
Le 17/05/2025 à 0:56
Il y a une grosse hypocrisie autour de l'usage des LLM dans le monde universitaire, comme pour Wikipédia à une certaine époque.

Toujours est-il que si un LLM ou une calculatrice suffisent à tuer la difficulté d'un exercice, c'est qu'il n'était pas pertinent à la base.

Le biais du survivant aidant, ceux qui sont passés par là et ont eu leur diplôme ne comprennent pas pourquoi il devrait en être autrement pour les jeunes générations.
3  1 
Avatar de RenarddeFeu
Membre averti https://www.developpez.com
Le 17/05/2025 à 14:20
Citation Envoyé par archqt Voir le message
Cela veut donc dire que les enfants ne doivent plus apprendre les tables de multiplication ?
Il faut forcément apprendre les bases, il est évident que la plupart des demandes seront réalisées rapidement par l'IA surtout en sciences.
Le contexte, ça compte hein ! L'article et mon commentaire font référence aux études supérieures.

Personne ne parle d'arrêter d'apprendre aux enfants de lire, écrire et compter.
2  0 
Avatar de lecorr
Membre à l'essai https://www.developpez.com
Le 31/05/2025 à 11:34
Citation Envoyé par jnspunk Voir le message
Une solution plus intelligente serait de rendre obligatoire l'utilisation des modèles de langage pour les devoirs et examens. Cela permettrait de relever le niveau et de permettre aux étudiants d'apprendre des choses plus utiles, car on les évaluerait sur ce que le modèle de langage sera incapable de faire. Si on empêche l'utilisation de ces modèles de langage à l'école, on empêche alors aux étudiants d'apprendre un outil qui sera vite obligatoire dans la vie professionnelle.

Imaginez qu'à l'invention de la tronçonneuse, on force les apprentis bûcherons à couper un arbre avec une scie ? Ils n'auront rien appris de l'outil qui sera pourtant leur principal outil de travail.
Je suis certain que vous serez tout à fait rassuré quand vous apprendrez que votre opération à coeur ouvert sera réalisée par un chirurgien qui a eu son diplôme grâce à l'IA...
Blague à part, si on veut l'IA dans les classes, alors autant noter l'IA.
Je travaille dans l'informatique, presque tout ce que je fais est nouveau... Quand je demande à l'IA des informations sur mon propre domaine, elle a une forte tendance à me recracher presque texto mon propre site web. www theopuproject com...
C'est ça les limites de l'IA... L'incapacité à inventer quelque chose. Et aussi, de vous exposer à de grosses amendes pour plagiat.
Donc, même si l'IA peut être utile dans des cas limités, elle ne sert à rien pour les inventeurs et créateurs (pour rappel, un créateur crée un 'objet' original, pas une copie volée à quelqu'un d'autre).
2  0 
Avatar de RenarddeFeu
Membre averti https://www.developpez.com
Le 25/04/2025 à 13:40
Si les établissements accordaient plus d'importance aux oraux et aux travaux pratiques, tous ces problèmes n'auraient pas lieu d'être.
1  0 
Avatar de floyer
Membre éclairé https://www.developpez.com
Le 27/04/2025 à 20:34
Les questions est 1/ que souhaite t on évaluer ? 2/ est-ce que l’IA est fiable pour l’évaluer ?

Si la question est «*est-ce que l’élève sait poser une règle de trois*», c’est assez certain qu’une IA saura l’aider de façon à biaiser l’examen. Et j’ose espérer que l’IA ne faussera pas le jugement de l’enseignant. De la même manière, on n’autorise pas les calculatrice à l’école primaire, mais ensuite, vu que l’on évalue d’autres compétences.

Les choses sont différentes pour un travail de thèse de doctorat, où par principe le travail est inédit. Dans un tel contexte, il me semble que l’IA a une place (au même titre qu’hier Maple ou Mathematica), mais avec un usage raisonné (analyse critique des résultats, etc.). Cela implique l’usage d’une IA qui cite ses sources, et que la cohérence avec les sources soient analysées. Aujourd’hui même, j’ai pris en défaut Grok sur l’interprétation de texte juridique sur les déclarations d’impôts…pourtant il avait beaucoup d'aplomb en listant les sources qui n’appuyaient pas ses propos en les lisant soigneusement.
0  0 
Avatar de archqt
Membre émérite https://www.developpez.com
Le 17/05/2025 à 10:34
Toujours est-il que si un LLM ou une calculatrice suffisent à tuer la difficulté d'un exercice, c'est qu'il n'é pas pertinent à la base.
Cela veut donc dire que les enfants ne doivent plus apprendre les tables de multiplication ?
Il faut forcément apprendre les bases, il est évident que la plupart des demandes seront réalisées rapidement par l'IA surtout en sciences.
1  1 
Avatar de Matthieu Vergne
Expert éminent https://www.developpez.com
Le 01/06/2025 à 18:39
Citation Envoyé par Stéphane le calme Voir le message
Ce coup de gueule reflète un sentiment partagé par de nombreux jeunes : selon un reportage, plusieurs adolescents jugent « contraire à l’éthique » que leurs enseignants aient recours à ces technologies pour évaluer leur travail, alors qu’eux-mêmes en sont privés pendant la rédaction. Il y a là, aux yeux des élèves, une forme d’injustice et de double discours.
Citation Envoyé par Stéphane le calme Voir le message
L’ironie de cette affaire n’échappe à personne : dans de nombreux établissements, les étudiants sont activement dissuadés, voire sanctionnés, pour usage abusif de ChatGPT dans leurs devoirs. Pourtant, voilà que certains enseignants s’en servent sans transparence. Ce double standard alimente un sentiment d’injustice : pourquoi interdire aux uns ce que l’on tolère pour les autres ?
Citation Envoyé par Stéphane le calme Voir le message
L'école de commerce de l'American University lance un institut de l'IA à cette fin : « Lorsque des jeunes de 18 ans arrivent ici en première année, nous leur demandons : "Combien de vos professeurs de lycée vous ont-ils dit de ne pas utiliser l'IA ?" Et la plupart d'entre eux lèvent la main », a déclaré David Marchick, le doyen de la Kogod School of Business de l'American University. « Nous leur disons : "Voilà, vous utilisez l'IA à partir d'aujourd'hui" ».
Le double discours est bel et bien là. Ce dont les uns se plaignent ici peut tout le temps être reproché à l'autre aussi. Ce n'est pas que pour les étudiants ni que pour les enseignants. Les deux sont systématiquement concernés. Affirmer que l'enseignant ne "tricherait" pas est un mensonge pur et simple. Quel que soit le métier, on a toujours des professionnels qui "trichent" : prennent des raccourcis qu'ils ne devraient pas, se contentent de leurs lacunes au dépend de ceux qui dépendent d'eux, etc. À l'inverse, on a aussi des élèves qui cherchent à bien faire et à s'améliorer, pas que des tricheurs à l'affût de tout ce qui pourrait leur permettre de gagner sans travailler. Croire qu'on a une majorité de "tricheurs" étudiants, mais que ceux-ci seront des "honnêtes" professionnels une fois sur le marché du travail, c'est faire preuve d'une hypocrisie crasse, et c'est ça qui supporte le double discours.

Pour régler le problème, il faut changer de perspective : si le problème paraît insoluble, c'est qu'on ne le regarde pas de la bonne manière.

Les faits sont les suivants :
  • que ce soit l'étudiant ou l'enseignant, les deux sont censés s'améliorer dans le temps
  • l'amélioration des compétences (savoir et savoir-faire) passe par le transfert de connaissance et la pratique
  • pour l'étudiant, le transfert de connaissance peut autant se faire depuis l'enseignant que l'IA (je ne dis pas que l'un vaut l'autre, juste que ce sont deux sources de connaissances pertinentes)
  • pour l'enseignant, le transfert de connaissance peut autant se faire depuis ses pairs/formateurs que l'IA (idem)
  • pour les deux, la pratique ne peut s'exprimer que par l'exercice personnel, et s'abstenir de pratiquer parce que l'IA fournit une réponse est condamnable, pour l'étudiant comme pour l'enseignant
  • l'IA ne fournit pas de réponse "correcte", elle fournit une réponse "cohérente", et c'est à l'utilisateur de déterminer si en plus d'être cohérente, elle est correcte, que l'utilisateur soit étudiant ou enseignant
  • à ce titre, l'IA ne devrait jamais être utilisé sans repasser derrière, que ce soit l'étudiant ou l'enseignant
  • pour ceux qui sont familiers des biais cognitifs, on recommandera surtout de faire soi-même avant de demander à l'IA, pour éviter de se contenter de sa réponse (elle doit apporter un complément, pas la réponse) et justement favoriser la pratique qui, autrement, se perd et empêche l'étudiant ou l'enseignant de s'améliorer


Un étudiant qui fait sa dissertation, puis la fait passer par l'IA pour s'améliorer, c'est un étudiant qui reçoit un enseignement supplémentaire via l'IA, donc tant mieux. Un étudiant qui fait faire sa rédaction par l'IA et repasse derrière pour comprendre et retravailler, c'est pas mal mais pas l'idéal, cela justifie de former l'étudiant pour mieux utiliser l'IA. Un étudiant qui fait faire sa rédaction par l'IA et se contente de relectures mineures, c'est de la triche pure et simple, qui mérite un blâme ou de se faire virer en cas d'abus.

De la même manière (copier-coller-adapter) :
Un enseignant qui fait sa correction, puis la fait passer par l'IA pour s'améliorer, c'est un enseignant qui reçoit une formation supplémentaire via l'IA, donc tant mieux. Un enseignant qui fait faire sa correction par l'IA et repasse derrière pour comprendre et retravailler, c'est pas mal mais pas l'idéal, cela justifie de former l'enseignant pour mieux utiliser l'IA. Un enseignant qui fait faire sa correction par l'IA et se contente de relectures mineures, c'est de la triche pure et simple, qui mérite un blâme ou de se faire virer en cas d'abus.

Il n'y a pas besoin d'avoir de double discours : il s'agit de comprendre que l'IA est un outil, au même titre qu'une calculatrice, qui peut être bien ou mal utilisé. Mais comme la calculatrice, c'est un outil qui est là pour rester, donc l'interdire est utopique (qu'est-ce qui empêche l'étudiant d'utiliser la calculatrice dans un devoir à la maison ? le problème n'a rien de nouveau ni de spécifique à l'IA). Il faut former les gens, qu'ils soient étudiants ou enseignants, et mettre en place des pratiques qui favorisent le bon usage.

Une idée qui me passe par la tête (mais c'est au monde éducatif à plancher dessus) c'est par exemple dans un travail de rédaction, d'ajouter une section où il est explicitement prévu de faire usage de l'IA, de façon à annoncer ouvertement ce que dit l'IA, de le critiquer (positif et négatif), et d'en déduire comment la rédaction manuelle mériterait d'être revue. L'IA n'est plus le rédacteur mais le sujet de la dissertation dans une section dédiée. Ce serait même une partie qu'il serait intéressante de faire en live à l'oral après remise de la rédaction écrite.
0  0 
Avatar de jnspunk
Membre habitué https://www.developpez.com
Le 30/05/2025 à 5:36
Une solution plus intelligente serait de rendre obligatoire l'utilisation des modèles de langage pour les devoirs et examens. Cela permettrait de relever le niveau et de permettre aux étudiants d'apprendre des choses plus utiles, car on les évaluerait sur ce que le modèle de langage sera incapable de faire. Si on empêche l'utilisation de ces modèles de langage à l'école, on empêche alors aux étudiants d'apprendre un outil qui sera vite obligatoire dans la vie professionnelle.

Imaginez qu'à l'invention de la tronçonneuse, on force les apprentis bûcherons à couper un arbre avec une scie ? Ils n'auront rien appris de l'outil qui sera pourtant leur principal outil de travail.
0  3