Les outils de détection de contenu généré par intelligence artificielle, déployés à la hâte dans les établissements scolaires pour lutter contre la triche, produisent un effet exactement inverse à celui recherché. Des chercheurs et enseignants documentent un phénomène paradoxal : des étudiants n'ayant jamais utilisé l'IA se mettent à apprendre à la manier, non pas pour tricher, mais pour se défendre contre des accusations injustes. Portrait d'une dérive institutionnelle qui sacrifie la qualité d'écriture sur l'autel d'un algorithme défaillant.En économie comportementale, l'effet cobra désigne les situations où une mesure corrective aggrave le problème qu'elle était censée résoudre. L'histoire est bien connue : le gouvernement colonial britannique en Inde, souhaitant réduire la population de cobras, offrit une prime pour chaque serpent mort. Résultat, des éleveurs se mirent à en produire industriellement pour encaisser les primes. Quand le programme fut supprimé, les reptiles élevés en captivité furent relâchés, empirant la situation initiale.
C'est exactement ce qui se passe aujourd'hui dans les salles de classe américaines — et, de façon croissante, ailleurs dans le monde occidental — avec les détecteurs de textes générés par IA. Mike Masnick, fondateur de TechDirt, et Dadland Maye, enseignant en écriture dans plusieurs universités américaines, ont documenté de façon rigoureuse un phénomène qui devrait alerter tous ceux qui s'intéressent aux interactions entre technologie et systèmes éducatifs.
Le cas le plus révélateur n'est pas celui d'un tricheur pris la main dans le sac. C'est celui d'une étudiante dont la plume avait toujours été saluée par ses professeurs. Arrivée dans un nouvel établissement, elle comprend que son style confiant et élaboré risque de déclencher les algorithmes de détection — des enseignants ne la connaissant pas n'auraient aucun moyen de savoir que cette voix est la sienne. Sa réaction ? Elle interroge Google Gemini pour comprendre quels patterns stylistiques attirent l'attention des logiciels de surveillance. Cette enquête ouvre une porte. Elle apprend comment les prompts façonnent les sorties, quelles structures de phrases suscitent le soupçon. L'outil devient un moyen de compléter ses cours et de clarifier des notions complexes, mais la démarche la met mal à l'aise. « J'ai comme l'impression de tricher », confie-t-elle à Maye — bien que ce soit précisément l'envie de ne pas tricher qui l'y ait conduit.
Un autre cas, plus radical encore : après avoir été faussement accusé d'utilisation de l'IA dans un autre cours, un étudiant décide de prendre les devants. Il souscrit à plusieurs abonnements IA, étudie minutieusement le fonctionnement des systèmes de détection et développe une véritable maîtrise des outils qu'il n'avait jamais prévu d'employer. Il décide ensuite de ne rien dire à ses professeurs, jugeant que sa nouvelle littératie en IA ne ferait qu'aggraver les soupçons à son égard.
Des outils techniquement défaillants aux effets pédagogiques dévastateurs
Pour comprendre pourquoi cette situation a pu se développer, il faut revenir sur le fonctionnement réel de ces détecteurs. La plupart analysent des métriques statistiques du texte : la perplexité (à quel point les choix lexicaux sont prévisibles par un modèle de langage) et la variabilité rythmique (la variabilité de la longueur et de la complexité des phrases). Le problème fondamental est qu'une écriture claire, efficace et disciplinée peut être confondue avec de l'IA, même lorsqu'elle est rédigée par des humains. En d'autres termes, les caractéristiques d'une bonne prose académique recoupent précisément ce que les détecteurs considèrent comme suspect.
Les chiffres sont éloquents. Une étude publiée par Cell.com indique que 61,3 % des textes rédigés par des non-natifs anglophones sont signalés à tort comme générés par IA. Une étude de l'Université Stanford a établi que les taux de faux positifs pour les étudiants en langue seconde pouvaient atteindre 97 % — plus de la moitié des essais TOEFL ayant été classés comme générés par IA par les sept meilleurs détecteurs du marché. Ces chiffres vertigineux révèlent une réalité simple : ces outils ne détectent pas l'IA avec une fiabilité suffisante pour justifier des sanctions académiques.
Une recherche publiée dans Acta Neurochirurgica (Springer Nature) conclut que la précision des détecteurs reste insuffisante dans un cadre académique, avec des erreurs notables dès que les textes sont techniques ou rédigés dans un style soutenu. En Australie, l'Australian Catholic University a suspendu l'usage du détecteur IA de Turnitin après que des étudiants ont été accusés à tort sur la seule base de scores automatisés. En France, le phénomène a déjà fait surface : en 2025, une lycéenne parisienne a été accusée d'avoir eu recours à une intelligence...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.


Peut-on raisonnablement demander à des étudiants de ne pas utiliser l'IA quand leurs futurs employeurs les y encourageront dès le premier jour de travail ?