IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Le paradoxe des détecteurs d'IA en classe : pour prouver qu'ils ne trichent pas en se servant de l'IA, des étudiants apprennent à utiliser l'IA.
Pourquoi les détecteurs d'IA en classe sont dans une impasse

Le , par Stéphane le calme

39PARTAGES

11  0 
Les outils de détection de contenu généré par intelligence artificielle, déployés à la hâte dans les établissements scolaires pour lutter contre la triche, produisent un effet exactement inverse à celui recherché. Des chercheurs et enseignants documentent un phénomène paradoxal : des étudiants n'ayant jamais utilisé l'IA se mettent à apprendre à la manier, non pas pour tricher, mais pour se défendre contre des accusations injustes. Portrait d'une dérive institutionnelle qui sacrifie la qualité d'écriture sur l'autel d'un algorithme défaillant.

En économie comportementale, l'effet cobra désigne les situations où une mesure corrective aggrave le problème qu'elle était censée résoudre. L'histoire est bien connue : le gouvernement colonial britannique en Inde, souhaitant réduire la population de cobras, offrit une prime pour chaque serpent mort. Résultat, des éleveurs se mirent à en produire industriellement pour encaisser les primes. Quand le programme fut supprimé, les reptiles élevés en captivité furent relâchés, empirant la situation initiale.

C'est exactement ce qui se passe aujourd'hui dans les salles de classe américaines — et, de façon croissante, ailleurs dans le monde occidental — avec les détecteurs de textes générés par IA. Mike Masnick, fondateur de TechDirt, et Dadland Maye, enseignant en écriture dans plusieurs universités américaines, ont documenté de façon rigoureuse un phénomène qui devrait alerter tous ceux qui s'intéressent aux interactions entre technologie et systèmes éducatifs.

Le cas le plus révélateur n'est pas celui d'un tricheur pris la main dans le sac. C'est celui d'une étudiante dont la plume avait toujours été saluée par ses professeurs. Arrivée dans un nouvel établissement, elle comprend que son style confiant et élaboré risque de déclencher les algorithmes de détection — des enseignants ne la connaissant pas n'auraient aucun moyen de savoir que cette voix est la sienne. Sa réaction ? Elle interroge Google Gemini pour comprendre quels patterns stylistiques attirent l'attention des logiciels de surveillance. Cette enquête ouvre une porte. Elle apprend comment les prompts façonnent les sorties, quelles structures de phrases suscitent le soupçon. L'outil devient un moyen de compléter ses cours et de clarifier des notions complexes, mais la démarche la met mal à l'aise. « J'ai comme l'impression de tricher », confie-t-elle à Maye — bien que ce soit précisément l'envie de ne pas tricher qui l'y ait conduit.

Un autre cas, plus radical encore : après avoir été faussement accusé d'utilisation de l'IA dans un autre cours, un étudiant décide de prendre les devants. Il souscrit à plusieurs abonnements IA, étudie minutieusement le fonctionnement des systèmes de détection et développe une véritable maîtrise des outils qu'il n'avait jamais prévu d'employer. Il décide ensuite de ne rien dire à ses professeurs, jugeant que sa nouvelle littératie en IA ne ferait qu'aggraver les soupçons à son égard.

Des outils techniquement défaillants aux effets pédagogiques dévastateurs

Pour comprendre pourquoi cette situation a pu se développer, il faut revenir sur le fonctionnement réel de ces détecteurs. La plupart analysent des métriques statistiques du texte : la perplexité (à quel point les choix lexicaux sont prévisibles par un modèle de langage) et la variabilité rythmique (la variabilité de la longueur et de la complexité des phrases). Le problème fondamental est qu'une écriture claire, efficace et disciplinée peut être confondue avec de l'IA, même lorsqu'elle est rédigée par des humains. En d'autres termes, les caractéristiques d'une bonne prose académique recoupent précisément ce que les détecteurs considèrent comme suspect.

Les chiffres sont éloquents. Une étude publiée par Cell.com indique que 61,3 % des textes rédigés par des non-natifs anglophones sont signalés à tort comme générés par IA. Une étude de l'Université Stanford a établi que les taux de faux positifs pour les étudiants en langue seconde pouvaient atteindre 97 % — plus de la moitié des essais TOEFL ayant été classés comme générés par IA par les sept meilleurs détecteurs du marché. Ces chiffres vertigineux révèlent une réalité simple : ces outils ne détectent pas l'IA avec une fiabilité suffisante pour justifier des sanctions académiques.

Une recherche publiée dans Acta Neurochirurgica (Springer Nature) conclut que la précision des détecteurs reste insuffisante dans un cadre académique, avec des erreurs notables dès que les textes sont techniques ou rédigés dans un style soutenu. En Australie, l'Australian Catholic University a suspendu l'usage du détecteur IA de Turnitin après que des étudiants ont été accusés à tort sur la seule base de scores automatisés. En France, le phénomène a déjà fait surface : en 2025, une lycéenne parisienne a été accusée d'avoir eu recours à une intelligence...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de ninow
Membre du Club https://www.developpez.com
Le 13/03/2026 à 10:01
Parce que c'est une question d'honnêteté envers les étudiants.
Pourquoi le professeur se permet il d'agir ainsi ? Ou est la morale ?
L'apprentissage se fait aussi par l'exemple. Il n'y a rien de pédagogique d'agir ainsi.
Encore une fois, ils n'ont pas les mêmes objectifs:
L'etudiant doit prouver qu'il a acquis une capacité: l'usage d'un LLM fait disparaitre l'interet même du devoir en question, il est normal que cet outil soit interdit dans ce cas là.
Le prof doit fournir un cours qu'il juge pertinent pour l'apprentissage des éléves: dans ce cas là le LLM n'est qu'un outil de plus à ça disposition, comme le sont depuis toujours les livres, manuels et articles existants. Ce n'est pas de la triche ou du plagiat et le but n'est pas que le prof montre qu'il a travaillé aussi dur que ces éléves pour faire son cours mais simplement que le taf soit fait.

Le seul point qui merite de jeter l'opprobre sur un prof s'aidant de l'IA pour générer son cours c'est si son travail n'est pas au niveau attendu: ça reste de sa responsabilité de s'en assurer. L'outil importe peu c'est la qualité du livrable qui est importante ici.
5  0 
Avatar de ninow
Membre du Club https://www.developpez.com
Le 12/03/2026 à 9:35
Je ne comprends pas à quel moment on trouve normal de mettre sur un même pied une personne qui fait son travail (un prof) et un étudiant dont le but est d’apprendre des choses.

Le but des devoirs est que les étudiants impriment des choses dans leur tête ou bien de valider qu’ils ont compris. Forcément, on ne veut pas qu’ils utilisent un LLM, car cela n’aurait plus aucun sens… Le prof, lui, doit fournir des cours ; il peut se servir des outils à sa disposition. Ce n’est carrément pas le même use case et ce n’est pas "de la triche".
3  0 
Avatar de Artemus24
Expert éminent sénior https://www.developpez.com
Le 19/03/2026 à 10:40
Si je comprends bien, avec l'IA, nous n'avons plus besoin de réfléchir par nous même.
Bravo le progrès. Et après on s'étonne que le QI diminue dans le monde. Je me marre.
2  0 
Avatar de Artemus24
Expert éminent sénior https://www.developpez.com
Le 20/03/2026 à 0:03
Citation Envoyé par Matthieu Vergne
Un amalgame trop souvent fait : utiliser l'IA ne veut pas dire déléguer.
Tu as tout à fait raison, mais il ne s'agit pas de cela. Il suffit de prendre l'exemple des calculatrices. Avant, pour faire des calculs, on apprenait par cœur les tables de multiplications. Maintenant, il suffit de tapoter sur sa calculatrice pour avoir le résultat attendu. Il n'est plus nécessaire d'apprendre quoi que ce soit et c'est ça le problème. On aura le même comportement avec l'IA, à savoir ne plus faire l'effort de quoi que ce soit car il suffit de demander à l'IA pour avoir la réponse. Et pourquoi remettre en cause la réponse puisqu'elle devrait, en principe, être fiable ? C'est inhérent au comportement humain d'agir ainsi. On ne demande pas d'analyser ou de comprendre, ce qui normalement est la bonne démarche. On peut même douter si l'on n'a pas compris, mais a-t-on encore le temps, aujourd'hui, de se poser ce genre de questions ? La réponse est NON !

Il ne faut pas chercher une excuse que ce soit aux professeurs ou aux élèves de chercher la solution de facilité. Pour un enseignement fiable, il faut tout bonnement interdire l'IA à l'école. Ne le fait-on pas déjà avec les calculatrices ?

Citation Envoyé par Ryu2000
Y en a qui se disent "pourquoi faire l'effort alors qu'un chatbot pourrait réaliser mon travail instantanément ?"
Solution de facilité, rien de plus à dire. Cela n'a pas que des conséquences à l'école, mais aussi dans la société. A quoi bon leur inculquer de bons comportements, plus personne ne voudra faire des efforts. Pourquoi ? L'IA est là pour subvenir à tous leurs besoins.

Ce n'est même plus une question de riche et de pauvre, mais bien une dégradation de la société toute entière.
Je reprends une maxime de Montesquieu qui illustre ma pensée : "Le mieux est le mortel ennemi du bien".

Citation Envoyé par Ryu2000
Tu peux creuser le sujet toi même, faire des recherches, acquérir des compétences et des connaissances, etc.
Il ne s'agit ni de toi ni de moi car nous sommes d'une autre génération. Le problème est pour ceux qui auront toujours connu l'IA.

Citation Envoyé par Ryu2000
Le QI n'est pas forcément lié à ça.
Ben si, car si tu ne fais pas travailler ton cerveau, tu ne peux pas avoir un bon QI.

Citation Envoyé par Gluups
Ne serait-ce que pour approfondir la réflexion avant d'investir 17 millions.
Qu'est-ce que tu veux approfondir ? Ta démarche est dans le rationnel alors que je te parle ici d'une solution de facilité. Qui va se dire que pour son bien, je vais réfléchir par moi-même, quitte à se tromper, plutôt que d'utiliser l'IA qui a réponse à tout ?

Es tu du genre à marcher pour le bien être de ton coeur, plutôt que de prendre les transports en commun ? C'est pareil, la solution de facilité, rien de plus.
2  0 
Avatar de Gluups
Membre expert https://www.developpez.com
Le 09/03/2026 à 20:13
Pour apprendre à nager, il doit bien y avoir moyen d'envoyer une IA à sa place.

Une fois jeté à l'eau, entre celui qui aura fait ça et celui qui sera venu en personne au cours, j'ai une petite idée sur celui qui va flotter, et ce qui va arriver à l'autre.
1  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 10/03/2026 à 10:06
Citation Envoyé par Stéphane le calme Voir le message
Le cas le plus révélateur n'est pas celui d'un tricheur pris la main dans le sac. C'est celui d'une étudiante dont la plume avait toujours été saluée par ses professeurs. Arrivée dans un nouvel établissement, elle comprend que son style confiant et élaboré risque de déclencher les algorithmes de détection — des enseignants ne la connaissant pas n'auraient aucun moyen de savoir que cette voix est la sienne. Sa réaction ? Elle interroge Google Gemini pour comprendre quels patterns stylistiques attirent l'attention des logiciels de surveillance. Cette enquête ouvre une porte. Elle apprend comment les prompts façonnent les sorties, quelles structures de phrases suscitent le soupçon. L'outil devient un moyen de compléter ses cours et de clarifier des notions complexes, mais la démarche la met mal à l'aise. « J'ai comme l'impression de tricher », confie-t-elle à Maye — bien que ce soit précisément l'envie de ne pas tricher qui l'y ait conduit.

Un autre cas, plus radical encore : après avoir été faussement accusé d'utilisation de l'IA dans un autre cours, un étudiant décide de prendre les devants. Il souscrit à plusieurs abonnements IA, étudie minutieusement le fonctionnement des systèmes de détection et développe une véritable maîtrise des outils qu'il n'avait jamais prévu d'employer. Il décide ensuite de ne rien dire à ses professeurs, jugeant que sa nouvelle littératie en IA ne ferait qu'aggraver les soupçons à son égard.
Si une personne est capable de s'exprimer correctement elle doit pouvoir le prouver à ses professeurs.
Et au pire c'est pas grave de faire des faux positifs...
Après tu peux te défendre et prouver que t'écris comme un chatbot IA.
Il doit bien y avoir une épreuve écrite, surveillé, sans accès à un ordinateur (montre, téléphone, etc).
Et là on voit comment la personne s'exprime sans IA.

Je n'y crois pas du tout à ces histoires de « Nous sommes obligés d’avoir recours à l’IA pour éviter que les professeurs ne soupçonnent que nous l’utilisons. ».
Il n'y a qu'à ajouter quelque "mal-dit" et c'est bon, tu passes pour une personne normale.
Ça ne tient pas debout "j'ai besoin d'une IA pour saboter mon travail"...
« Je suis tellement pétri de littérature que je me révèle incapable de proférer une phrase qui ne soit point grammaticalement irréprochable. » ce soit à quoi on ne peut répondre que « « Ouais, c'est ça. Ferme ta gueule ! ».

====
Si quelqu'un sait écrire correctement il va se battre pour le prouver.
Il ressentirait un profond sentiment d'injustice et il ne lâcherait pas.
Il dirait "je refuse de baisser mon niveau afin de passer inaperçu".
1  0 
Avatar de Gluups
Membre expert https://www.developpez.com
Le 10/03/2026 à 10:17
Citation Envoyé par Ryu2000 Voir le message
« Ouais, c'est ça. Ferme ta gueule ! »
Si on doit en arriver là, autant mettre directement la clef sous la porte.
1  0 
Avatar de Artemus24
Expert éminent sénior https://www.developpez.com
Le 11/03/2026 à 18:04
Salut à tous.

Citation Envoyé par Socrate
N'oublie jamais que tout est éphémère, alors tu ne seras jamais trop joyeux dans le bonheur, ni trop triste dans le chagrin.
Et c'est là que des professeurs d'université s'aperçoivent que leur rôle a change.
Rien n'est figé dans le marbre et il faut à tout instant se remettre en question.
Il semble à juste titre que les étudiants s'adaptent mieux à ces nouvelles technologies que certains professeurs.

Entre écrire à la plume d'oie, à la plume sergent major, au stylo bille et au stylo plume, il y a bien eu une évolution de l'écriture.
Je ne pense pas que ces même professeurs se sont focalisés sur la plume d'oie comme étant la bonne façon de faire.

De quoi est-il question ? Jadis, ne parlait on pas de plagia ?
Au lieu de recopier un extrait d'un livre, maintenant on s'adresse directement à l'IA pour le faire.
Le professeur a plus de difficulté de s'avoir si tricherie il y a.
Est-ce encore de la tricherie si le texte en question, rédigé par une IA, s'avère pertinente ?
D'accord, le but de la rédaction du texte est de démontrer que l'étudiant maitrise son sujet, pas l'IA.

Citation Envoyé par Michel de Montaigne
Mieux vaut une tête bien faite qu'une tête bien pleine.
Je crois que l'on n'est même plus dans cet aphorisme, mais plutôt une tête vide de tout savoir.
A quoi sert de réfléchir par soi-même quand tu peux poser la question et avoir automatiquement la réponse par l'IA ?

Citation Envoyé par Stéphane le calme
Mais c'est une IA qui nous enseigne.
On se demande à quoi peut encore servir un professeur si tout le travail est fait par une IA.

Citation Envoyé par Stéphane le calme
Les professeurs sont donc, dans leur grande majorité, convaincus que l'IA est nuisible à l'apprentissage...
Non, ce n'est pas nuisible, il faut juste savoir s'en servir, comme s'inspirer d'un texte sans faire du plagia.
Le but n'est pas de faire faire une rédaction par une IA mais d'apprendre ce que le professeur enseigne.
Il faudra bien que cet enseignement inculque quelque chose à l'étudiant, sinon c'est peine perdu.

Citation Envoyé par Stéphane le calme
... tout en l'adoptant pour préparer leurs cours, noter les travaux, voire générer leurs supports pédagogiques.
Si la qualité du cours est au rendez-vous, pourquoi pas, mais il semble que le professeur lui-même tombe dans le piège sans s'apercevoir du manque de pertinence du savoir qu'il va communiquer à ses élèves. Ben oui, si on trouve la même chose via l'internet ou par l'IA, à quoi sert cet enseignement ?

Je crains que la qualité de l'enseignement s'en ressente et que nous aurons de plus en plus un savoir divulgué par l'IA, formaté, sans avoir confirmation que ce savoir est vérité. La doxa (croyance admise collectivement sans examen critique), comme la croyance que le soleil tourne autour de la terre ou que la terre est plate, et je ne sais quoi d'autre. Dois je comprendre que dans l'avenir, nous aurons que des Doxa ? Seul la parole (divine) de l'IA faisant foi.

A cause de l'IA, nous allons vers une crise de l'enseignement et surtout une crise du savoir. Je fais bien la distinction entre le savoir qui se communique lors d'un enseignement et la connaissance qui est issue d'un apprentissage ou d'une expérience démontrant la vérité du travail que l'on effectue.
1  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 12/03/2026 à 13:15
Citation Envoyé par Stéphane le calme Voir le message
Peut-on raisonnablement demander à des étudiants de ne pas utiliser l'IA quand leurs futurs employeurs les y encourageront dès le premier jour de travail ?
Hors des filières pro il n'y a pas forcément de lien entre les études et le boulot.
Ça marche pour ceux en alternance. Chez eux il y a clairement un lien entre les études et le travail.

Dans ma Licence et mon Master on est allé loin dans la sécurité (chiffrement), dans le réseau, dans la preuve (méthode B ?), dans les calculs parallèles (CUDA + OpenMP), la compilation, la logique (Prolog), etc. On a vu des trucs comme Scheme, XSLT.
Dans ma carrière je ne me suis pas servi de tout (et c'est tant mieux, parce que j'étais une quiche dans certains domaines ).

Avant de demander à l'IA il faut savoir le faire soi même. (le jour de l'examen il n'y aura pas d'IA)
Si tu ne fais rien sans l'IA, tu ne sers à rien. Tu n'es qu'une interface.

Que demandent les professeurs à l'IA ?
"Corrige mon texte" et "Reformule ce paragraphe" ?

=======
Pour un élève d'aujourd'hui il doit être difficile d'avoir l'éthique nécessaire pour se dire "je ne vais pas demander de l'aide à l'IA pour faire mes devoirs".
Il doit se dire "Je vais me faire chier pour avoir un résultat potentiellement faux, alors que les autres ont les bonnes réponses instantanément".

[BLAGUE]Il faut que les parents soient strict et imposent "L'ordinateur ce n'est que pour les jeux vidéo, je t'interdis de l'utiliser pour tes devoirs".[/BLAGUE]
La blague ne fonctionne pas car les jeunes ont des smartphones...

[BLAGUE]Ils ne jouent même pas, ils ne savent pas que c'est une souris, un clavier ou une manette.
Y'en a qui regardent des séries sur smartphone... Et c'est ça l'avenir ? Le monde est sacrément dans la merde... [/BLAGUE]
2  1 
Avatar de Gluups
Membre expert https://www.developpez.com
Le 12/03/2026 à 20:01
Bon, jusque là, nous voilà sauvés.

Citation Envoyé par Ryu2000 Voir le message
Avant de demander à l'IA il faut savoir le faire soi même. (le jour de l'examen il n'y aura pas d'IA)
Si tu ne fais rien sans l'IA, tu ne sers à rien. Tu n'es qu'une interface.
Pour les examens on planche en salle avec recours seulement aux outils autorisés.

Il commence à se profiler qu'un à un moment on va être obligés de faire pareil pour le contrôle continu ?

Ça risque d'avoir un impact sur les coûts.
1  0