IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

La tricherie par l'IA est tellement incontrôlable que certains établissements reviennent aux épreuves manuscrites
Des enseignants s'inquiètent d'une possible érosion des compétences fondamentales

Le , par Stéphane le calme

229PARTAGES

24  0 
La tricherie par l'IA est tellement incontrôlable que certains établissements reviennent aux épreuves manuscrites.
Au-delà de la fraude, des enseignants s'inquiètent d'une possible érosion des compétences fondamentales

À l’ère de l’intelligence artificielle générative, les écoles américaines redécouvrent un outil presque oublié : le "blue book", ce modeste cahier d'examen bleu utilisé pour les épreuves manuscrites. Ce come-back n'est pas une fantaisie nostalgique. Il illustre la crise profonde que traverse le système éducatif, contraint de se replier sur des méthodes traditionnelles pour tenter de garantir l'intégrité académique face à une crise croissante : l’explosion de la triche facilitée par l’IA dans le système éducatif.

Contexte

L'avènement d'intelligences artificielles génératives telles que ChatGPT a déclenché une onde de choc dans le monde de l'enseignement secondaire et supérieur. Entre craintes de tricherie massive et promesses d'une révolution pédagogique, la question de la finalité même de l'université se pose avec une acuité nouvelle. Les institutions sont-elles au bord d'une crise existentielle, ou assistons-nous à l'émergence d'un nouveau paradigme éducatif ? Face à des machines capables de produire des dissertations en quelques secondes, de résoudre des équations complexes et de simuler des raisonnements critiques, la légitimité des cursus universitaires traditionnels est mise à rude épreuve.

La hantise de la triche et l'érosion des compétences

À mesure que l’intelligence artificielle générative, incarnée par des outils comme ChatGPT, s’impose dans notre quotidien, une question cruciale secoue le monde académique : l’université, telle que nous la connaissons, a-t-elle encore une raison d’être ?

Selon des analyses récentes, notamment relayées par plusieurs médias grands publics et spécialisés, l'intégration de l'IA dans les cursus universitaires amène le système éducatif à un « point de crise ». La facilité déconcertante avec laquelle des outils comme ChatGPT peuvent produire des dissertations, résoudre des problèmes complexes ou encore générer du code informatique bouscule les méthodes d'évaluation traditionnelles et soulève des inquiétudes majeures quant à l'intégrité académique.

La principale préoccupation, largement documentée, est l'augmentation potentielle de la tricherie. Des enseignants rapportent déjà une recrudescence de travaux rendus qui portent manifestement la marque de l'IA, obligeant les institutions à repenser leurs stratégies de contrôle et d'évaluation. Certains établissements voient même un retour en grâce des examens sur table et des interrogations orales, des méthodes jugées plus à même de vérifier l'acquisition réelle des connaissances par l'étudiant.

L’IA est désormais massivement utilisée pour rédiger des essais, répondre à des examens à distance, voire produire des codes informatiques complexes. Le tout, souvent sans que les professeurs ne puissent facilement détecter la supercherie. Certains établissements universitaires rapportent une explosion des cas de triche — ou plutôt, une redéfinition même de ce que signifie « tricher ».

« Je dois être à la fois un enseignant et un détecteur d'IA », déclare Stephen Cicirelli, professeur d'anglais à l'université St. Peter's de Jersey City, dans le New Jersey. « Pour tout devoir que vous ramenez à la maison et avec lequel vous avez le temps de jouer, il y aura des doutes ».

Cicirelli a publié sur X un message dans lequel il a raconté comment l'une de ses étudiantes s'est faite prendre en train de soumettre un travail rédigé par une IA - et s'est excusée en envoyant un courriel qui semblait également avoir été rédigé par ChatGPT : « Je viens de recaler une étudiante qui avait soumis un travail de recherche rédigé par une IA, et elle m'a envoyé un courriel manifestement rédigé par une IA pour s'excuser et me demander s'il y avait quelque chose à faire pour améliorer sa note. Nous sommes de l'autre côté du miroir, mesdames et messieurs ».

[TWITTER]<blockquote class="twitter-tweet"><p lang="en" dir="ltr">I just failed a student for submitting an AI-written research paper, and she sent me an obviously AI-written email apologizing, asking if there is anything she can do to improve her grade. We are through the looking-glass, folks.</p>— Stephen Cicirelli (@SteveCicirelli) <a href="https://twitter.com/SteveCicirelli/status/1922998024613093849?ref_src=twsrc%5Etfw">May 15, 2025</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script> [/TWITTER]

« Vous venez me voir après pour vous excuser, faire preuve d'humanité et demander la grâce », dit-il. « Vous ne le faites même pas vous-même ? »

La prolifération des travaux scolaires assistés par l'IA inquiète les responsables universitaires.
  • 66 % d'entre eux pensent que l'IA générative réduira la durée d'attention des étudiants, selon une enquête menée auprès de présidents d'université, de chanceliers, de doyens et d'autres personnes par l'American Association of Colleges & Universities (AAC&U) et le centre Imagining the Digital Future de l'université d'Elon.
  • 59 % affirment que la tricherie a augmenté sur les campus.
  • 56 % affirment que leur établissement n'est pas prêt à préparer les étudiants à l'ère de l'IA.

« Il s'agit d'une perturbation indéniable et inévitable », déclare Lee Rainie, directeur du centre d'Elon. « On ne peut pas détourner les yeux.


Les enseignants ne parviennent pas à se mettre d'accord sur ce qui est acceptable dans ce nouveau monde

Par exemple, 51 % des responsables de l'enseignement supérieur estiment qu'il est acceptable qu'un étudiant rédige un document à partir d'un plan détaillé généré par l'IA, tandis que les autres disent que ce n'est pas le cas ou qu'ils ne savent pas, selon l'enquête de l'AAC&U et d'Elon. Les politiques varient d'une classe à l'autre au sein d'une même école.

En outre, l'essor de l'IA provoque des casses tête imprévus :

Les enseignants font passer les devoirs par des détecteurs, qui souvent ne font pas bien les choses, soit en omettant des travaux générés par l'IA, soit en signalant par erreur des travaux originaux comme ayant été rédigés par l'IA. Les étudiants qui n'ont pas utilisé l'IA ont dû faire appel à leur école ou présenter des preuves de leur processus pour éviter d'obtenir des zéros, rapporte le New York Times.

Les enseignants se font également prendre en flagrant délit de ChatGPT. Une élève en dernière année à l'université de Northeastern a déposé une plainte officielle et demandé le remboursement de ses frais de scolarité après avoir découvert que son professeur utilisait secrètement des outils d'IA pour préparer ses cours : « ils nous demande de ne pas l'utiliser tandis que lui il le fait ». Le professeur a par la suite admis qu'il utilisait plusieurs plateformes d'IA et a reconnu le besoin de transparence. Cet incident met en lumière les préoccupations croissantes des étudiants concernant l'utilisation de l'IA par les professeurs, alors que ces derniers craignaient auparavant que les étudiants n'utilisent cette technologie pour tricher. Le scandale, d’apparence anecdotique, soulève de lourdes questions sur la qualité de l’enseignement et la place croissante de l’IA dans l’éducation supérieure.


La réponse de certains établissement secondaire et supérieur aux États-Unis ? Le retour du stylo et du papier

Avec un accès facile à des applications telles que ChatGPT, qui peut répondre à n'importe quelle question et rédiger des dissertations complètes à votre place, les lycéens et les étudiants ont commencé à tricher, se contentant de laisser un algorithme réfléchir et passer les examens à leur place. Il n'est donc pas surprenant que certains éducateurs aient adopté l'analogie pour tenter d'endiguer la vague d'anti-intellectualisme qui déferle sur le pays.

Le Wall Street Journal a récemment fait des recherches et découvert que les ventes de cahiers bleus ont augmenté au cours de l'année écoulée. Citant des données provenant d'un certain nombre de grandes universités publiques, le journal note que les achats en gros de ces livrets ont augmenté à pas de géant depuis le lancement de ChatGPT à la fin de l'année 2022 :

« Les ventes de cahiers bleus pour cette année scolaire ont augmenté de plus de 30 % à l'Université A&M du Texas et de près de 50 % à l'Université de Floride. La croissance improbable a été encore plus impressionnante à l'Université de Californie, Berkeley. Au cours des deux dernières années universitaires, les ventes de cahiers bleus au Cal Student Store ont augmenté de 80 %. La demande de cahiers bleus est soudainement en plein essor parce qu'ils contribuent à résoudre un problème qui n'existait pas jusqu'à présent sur les campus ».

Pourtant, si le retour des cahiers bleus est considéré par certain comme un pas dans la bonne direction, ils ne sont certainement pas la panacée pour la grande variété de maux causés par l'utilisation de l'IA par les étudiants. Philip D. Bunn, professeur assistant au Covenant College en Géorgie, a récemment écrit sur son blog que la dissertation traditionnelle ne peut être remplacée par la dissertation en classe. Bunn écrit que « le processus de rédaction d'un article en dehors de la classe ne peut pas être simplement reproduit lors d'un examen dans un livre bleu, et quelque chose de sérieux est perdu si nous abandonnons complètement la dissertation traditionnelle, que ces dissertations soient plus analytiques, argumentatives ou basées sur la recherche ».


De nombreux éducateurs pensent que l'IA a le potentiel d'aider les étudiants

Même s'ils ont du mal à maîtriser l'utilisation de l'IA, de nombreux éducateurs pensent qu'elle a le potentiel d'aider les étudiants et que les écoles devraient leur apprendre à l'utiliser.

L'école de commerce de l'American University lance un institut de l'IA à cette fin : « Lorsque des jeunes de 18 ans arrivent ici en première année, nous leur demandons : "Combien de vos professeurs de lycée vous ont-ils dit de ne pas utiliser l'IA ?" Et la plupart d'entre eux lèvent la main », a déclaré David Marchick, le doyen de la Kogod School of Business de l'American University. « Nous leur disons : "Voilà, vous utilisez l'IA à partir d'aujourd'hui" ».

ChatGPT peut être un éditeur en temps réel et affiner l'écriture des étudiants ou accélérer la recherche afin qu'ils puissent se concentrer sur l'organisation des grandes idées plutôt que sur la collecte d'informations, écrit Jeanne Beatrix Law, professeur d'anglais à l'université d'État de Kennesaw, dans The Conversation.

« Ne bloquez pas l'IA[...]. Mettons plutôt en place certains des protocoles de sécurité et de bien-être que nous avons mis une décennie à élaborer pour les médias sociaux et le web 1.0 », déclare Tammy Wincup, PDG de Securly, une société de logiciels qui crée des outils de sécurité pour les écoles de la maternelle à la terminale.

Conclusion

Au-delà de la fraude, la crainte porte sur une possible érosion des compétences fondamentales. Si les étudiants se reposent excessivement sur l'IA pour réaliser leurs travaux, risquent-ils de ne plus développer leur esprit critique, leur capacité d'analyse et de synthèse, ou encore leur maîtrise de l'écriture et de l'argumentation ? La question est cruciale, car la mission de l'université n'est pas seulement de transmettre des savoirs, mais aussi de former des esprits capables de penser par eux-mêmes.

Sources : rapport d'Elon University, Philip D. Bunn

Et vous ?

Le retour aux "blue books" est-il une solution réellement viable à long terme contre la triche par IA, ou n'est-ce qu'un pansement sur une hémorragie ? Quelles sont les limites intrinsèques de cette approche ?

En privilégiant les examens manuscrits sous surveillance, ne risque-t-on pas de dévaloriser d'autres formes d'apprentissage et de compétences (recherche documentaire, pensée collaborative, utilisation critique des technologies) qui sont cruciales au XXIe siècle ?

Si l'objectif n'est plus seulement d'évaluer la capacité à mémoriser et à reproduire de l'information (tâches que l'IA accomplit bien), quelle devrait être la mission principale de l'éducation à l'ère de l'intelligence artificielle ? Sur quelles compétences humaines irremplaçables doit-on se concentrer ?

Le phénomène de la triche massive par IA et le retour aux "blue books" ne sont-ils pas le symptôme d'un décalage plus profond entre les méthodes pédagogiques actuelles et les attentes/besoins des "natifs numériques" ?

Si le "blue book" n'est qu'une solution temporaire, quelles innovations pédagogiques et évaluatives les établissements devraient-ils explorer activement dès maintenant pour préparer l'avenir ?

Quelles compétences spécifiques les universités devraient-elles prioriser pour préparer les étudiants à un avenir où l'IA est omniprésente, et comment ces compétences peuvent-elles être évaluées de manière fiable ?

Quels types de formation et d'accompagnement sont nécessaires pour que les enseignants puissent non seulement détecter l'usage abusif de l'IA, mais surtout l'intégrer de manière constructive et innovante dans leurs pratiques pédagogiques ?

Au-delà du retour aux examens sur table, quelles nouvelles formes d'évaluation (portfolios, projets collaboratifs, soutenances orales axées sur le processus de réflexion, etc.) pourraient être plus résilientes face à l'IA et mieux mesurer la compréhension réelle ?

Si nous sommes à un "point de crise", quelles opportunités uniques cela crée-t-il pour repenser radicalement les modèles éducatifs et peut-être même inventer l'université du futur ?
Vous avez lu gratuitement 53 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Gepeto213
Nouveau Candidat au Club https://www.developpez.com
Le 31/05/2025 à 11:37
Beaucoup parlent de devoir suivre l'évolution. Le problème ici n'est pas de devoir se faire aider sur une épreuve de force mais intellectuelle. Comment se construit l'intelligence humaine, le savoir ? Uniquement sur l'effort, les épreuves, les échecs et les succès. Il est courant d'entendre : «*à quoi cela me sert d'apprendre ça puisque j'en n'aurait pas l'utilité plus tard ?*» ― faux. Repousser les limites du raisonnement nous aide à mieux appréhender les défis et les challenges de demain, et c'est ce qui nous conduit parfois à faire preuve d'une véritable innovation face à des problèmes complexes et nouveaux. Laisser quelqu'un d'autre penser à notre place, même une machine, c'est sacrifier ce qui fait de nous des êtres intelligents : notre capacité d'analyse et de réflexion. Faire l'impasse sur cela c'est comme accepter de devenir rachitique dans un exosquelette en croyant que cela fait de nous des athlètes. Est-ce que j'utilise l'IA ? Bien sûr. Mais je prends garde à ce qu'elle ne me prive pas de mon devoir de réflexion et d'approfondissement. Par exemple, si je dois rédiger un texte en anglais, je ne demande pas à l'IA de le faire ; je le rédige moi et après je lui demande de me corriger et d'améliorer ma réponse, de sorte que je m'exerce à la tâche et me confronte ensuite à une correction qui me permette d'apprendre de mes erreurs. Il est possible d'apprendre avec l'IA mais ce n'est qu'à la condition qu'elle nous permette de construire notre connaissance de manière structurée, organisée et pertinente, autrement nous devenons juste des esclaves décérébrés, sans âme ni caractère. La difficulté et le fait de devoir repousser les limites forge notre caractère et intelligence. Déjà que les réseaux sociaux nous abrutissent, alors que dire d'une formation par procuration ? Le pire dans tout cela c'est que ce sont de jeunes en devenir qui souhaitent aller dans ce sens, alors même que ce sont eux les premiers, de par leur inexpérience, qui sont les plus remplaçable par l'IA, et privés par là-même de leur opportunité de gagner en expérience. Qu'un prof utilise l'IA ne me gène pas ― il a déjà toute l'expérience et recul nécessaire pour cela, il n'a rien à prouver ; qu'un étudiant l'utilise pour se faire «*souffler*» les réponse sans effort, c'est se mentir à soi-même : il restera incapable de relever de nouveaux défis et justifie par là-même son remplacement par l'IA dans l'argumentaire d'entreprises en recherche de véritables talents. Quelle décadence du savoir…

Note : et je suis heureux de ne pas avoir eu besoin de l'IA pour rédiger ce post.
5  0 
Avatar de lecorr
Membre à l'essai https://www.developpez.com
Le 31/05/2025 à 11:34
Citation Envoyé par jnspunk Voir le message
Une solution plus intelligente serait de rendre obligatoire l'utilisation des modèles de langage pour les devoirs et examens. Cela permettrait de relever le niveau et de permettre aux étudiants d'apprendre des choses plus utiles, car on les évaluerait sur ce que le modèle de langage sera incapable de faire. Si on empêche l'utilisation de ces modèles de langage à l'école, on empêche alors aux étudiants d'apprendre un outil qui sera vite obligatoire dans la vie professionnelle.

Imaginez qu'à l'invention de la tronçonneuse, on force les apprentis bûcherons à couper un arbre avec une scie ? Ils n'auront rien appris de l'outil qui sera pourtant leur principal outil de travail.
Je suis certain que vous serez tout à fait rassuré quand vous apprendrez que votre opération à coeur ouvert sera réalisée par un chirurgien qui a eu son diplôme grâce à l'IA...
Blague à part, si on veut l'IA dans les classes, alors autant noter l'IA.
Je travaille dans l'informatique, presque tout ce que je fais est nouveau... Quand je demande à l'IA des informations sur mon propre domaine, elle a une forte tendance à me recracher presque texto mon propre site web. www theopuproject com...
C'est ça les limites de l'IA... L'incapacité à inventer quelque chose. Et aussi, de vous exposer à de grosses amendes pour plagiat.
Donc, même si l'IA peut être utile dans des cas limités, elle ne sert à rien pour les inventeurs et créateurs (pour rappel, un créateur crée un 'objet' original, pas une copie volée à quelqu'un d'autre).
2  0 
Avatar de Matthieu Vergne
Expert éminent https://www.developpez.com
Le 01/06/2025 à 18:39
Citation Envoyé par Stéphane le calme Voir le message
Ce coup de gueule reflète un sentiment partagé par de nombreux jeunes : selon un reportage, plusieurs adolescents jugent « contraire à l’éthique » que leurs enseignants aient recours à ces technologies pour évaluer leur travail, alors qu’eux-mêmes en sont privés pendant la rédaction. Il y a là, aux yeux des élèves, une forme d’injustice et de double discours.
Citation Envoyé par Stéphane le calme Voir le message
L’ironie de cette affaire n’échappe à personne : dans de nombreux établissements, les étudiants sont activement dissuadés, voire sanctionnés, pour usage abusif de ChatGPT dans leurs devoirs. Pourtant, voilà que certains enseignants s’en servent sans transparence. Ce double standard alimente un sentiment d’injustice : pourquoi interdire aux uns ce que l’on tolère pour les autres ?
Citation Envoyé par Stéphane le calme Voir le message
L'école de commerce de l'American University lance un institut de l'IA à cette fin : « Lorsque des jeunes de 18 ans arrivent ici en première année, nous leur demandons : "Combien de vos professeurs de lycée vous ont-ils dit de ne pas utiliser l'IA ?" Et la plupart d'entre eux lèvent la main », a déclaré David Marchick, le doyen de la Kogod School of Business de l'American University. « Nous leur disons : "Voilà, vous utilisez l'IA à partir d'aujourd'hui" ».
Le double discours est bel et bien là. Ce dont les uns se plaignent ici peut tout le temps être reproché à l'autre aussi. Ce n'est pas que pour les étudiants ni que pour les enseignants. Les deux sont systématiquement concernés. Affirmer que l'enseignant ne "tricherait" pas est un mensonge pur et simple. Quel que soit le métier, on a toujours des professionnels qui "trichent" : prennent des raccourcis qu'ils ne devraient pas, se contentent de leurs lacunes au dépend de ceux qui dépendent d'eux, etc. À l'inverse, on a aussi des élèves qui cherchent à bien faire et à s'améliorer, pas que des tricheurs à l'affût de tout ce qui pourrait leur permettre de gagner sans travailler. Croire qu'on a une majorité de "tricheurs" étudiants, mais que ceux-ci seront des "honnêtes" professionnels une fois sur le marché du travail, c'est faire preuve d'une hypocrisie crasse, et c'est ça qui supporte le double discours.

Pour régler le problème, il faut changer de perspective : si le problème paraît insoluble, c'est qu'on ne le regarde pas de la bonne manière.

Les faits sont les suivants :
  • que ce soit l'étudiant ou l'enseignant, les deux sont censés s'améliorer dans le temps
  • l'amélioration des compétences (savoir et savoir-faire) passe par le transfert de connaissance et la pratique
  • pour l'étudiant, le transfert de connaissance peut autant se faire depuis l'enseignant que l'IA (je ne dis pas que l'un vaut l'autre, juste que ce sont deux sources de connaissances pertinentes)
  • pour l'enseignant, le transfert de connaissance peut autant se faire depuis ses pairs/formateurs que l'IA (idem)
  • pour les deux, la pratique ne peut s'exprimer que par l'exercice personnel, et s'abstenir de pratiquer parce que l'IA fournit une réponse est condamnable, pour l'étudiant comme pour l'enseignant
  • l'IA ne fournit pas de réponse "correcte", elle fournit une réponse "cohérente", et c'est à l'utilisateur de déterminer si en plus d'être cohérente, elle est correcte, que l'utilisateur soit étudiant ou enseignant
  • à ce titre, l'IA ne devrait jamais être utilisé sans repasser derrière, que ce soit l'étudiant ou l'enseignant
  • pour ceux qui sont familiers des biais cognitifs, on recommandera surtout de faire soi-même avant de demander à l'IA, pour éviter de se contenter de sa réponse (elle doit apporter un complément, pas la réponse) et justement favoriser la pratique qui, autrement, se perd et empêche l'étudiant ou l'enseignant de s'améliorer


Un étudiant qui fait sa dissertation, puis la fait passer par l'IA pour s'améliorer, c'est un étudiant qui reçoit un enseignement supplémentaire via l'IA, donc tant mieux. Un étudiant qui fait faire sa rédaction par l'IA et repasse derrière pour comprendre et retravailler, c'est pas mal mais pas l'idéal, cela justifie de former l'étudiant pour mieux utiliser l'IA. Un étudiant qui fait faire sa rédaction par l'IA et se contente de relectures mineures, c'est de la triche pure et simple, qui mérite un blâme ou de se faire virer en cas d'abus.

De la même manière (copier-coller-adapter) :
Un enseignant qui fait sa correction, puis la fait passer par l'IA pour s'améliorer, c'est un enseignant qui reçoit une formation supplémentaire via l'IA, donc tant mieux. Un enseignant qui fait faire sa correction par l'IA et repasse derrière pour comprendre et retravailler, c'est pas mal mais pas l'idéal, cela justifie de former l'enseignant pour mieux utiliser l'IA. Un enseignant qui fait faire sa correction par l'IA et se contente de relectures mineures, c'est de la triche pure et simple, qui mérite un blâme ou de se faire virer en cas d'abus.

Il n'y a pas besoin d'avoir de double discours : il s'agit de comprendre que l'IA est un outil, au même titre qu'une calculatrice, qui peut être bien ou mal utilisé. Mais comme la calculatrice, c'est un outil qui est là pour rester, donc l'interdire est utopique (qu'est-ce qui empêche l'étudiant d'utiliser la calculatrice dans un devoir à la maison ? le problème n'a rien de nouveau ni de spécifique à l'IA). Il faut former les gens, qu'ils soient étudiants ou enseignants, et mettre en place des pratiques qui favorisent le bon usage.

Une idée qui me passe par la tête (mais c'est au monde éducatif à plancher dessus) c'est par exemple dans un travail de rédaction, d'ajouter une section où il est explicitement prévu de faire usage de l'IA, de façon à annoncer ouvertement ce que dit l'IA, de le critiquer (positif et négatif), et d'en déduire comment la rédaction manuelle mériterait d'être revue. L'IA n'est plus le rédacteur mais le sujet de la dissertation dans une section dédiée. Ce serait même une partie qu'il serait intéressante de faire en live à l'oral après remise de la rédaction écrite.
0  0 
Avatar de jnspunk
Membre habitué https://www.developpez.com
Le 30/05/2025 à 5:36
Une solution plus intelligente serait de rendre obligatoire l'utilisation des modèles de langage pour les devoirs et examens. Cela permettrait de relever le niveau et de permettre aux étudiants d'apprendre des choses plus utiles, car on les évaluerait sur ce que le modèle de langage sera incapable de faire. Si on empêche l'utilisation de ces modèles de langage à l'école, on empêche alors aux étudiants d'apprendre un outil qui sera vite obligatoire dans la vie professionnelle.

Imaginez qu'à l'invention de la tronçonneuse, on force les apprentis bûcherons à couper un arbre avec une scie ? Ils n'auront rien appris de l'outil qui sera pourtant leur principal outil de travail.
0  3