IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les détecteurs d'IA étiquettent mal les travaux des étudiants, ce qui donne lieu à de fausses accusations d'utilisation de l'intelligence artificielle pour soumettre des devoirs et des copies d'examen

Le , par Jade Emy

38PARTAGES

6  0 
Les détecteurs d'IA étiquettent mal les travaux des étudiants, ce qui donne lieu à de fausses accusations d'utilisation de l'intelligence artificielle pour soumettre des devoirs et des copies d'examen.

Les détecteurs d'IA étiquettent mal les travaux des étudiants, selon un rapport de Bloomberg. Ces résultats confirment que les outils de détection de l'IA ne sont pas infaillibles et peuvent signaler à tort des contenus générés par des humains comme étant produits par l'IA. Cela présente également des risques potentiels pour les étudiants, qui peuvent être confrontés à de graves conséquences si leur travail est repéré par erreur par ces systèmes.

Avec l’essor des outils d’intelligence artificielle comme ChatGPT, les enseignants et les institutions éducatives se retrouvent face à un défi inédit : comment distinguer les travaux écrits par des étudiants de ceux générés par des machines. Cette situation a conduit à l’utilisation croissante de vérificateurs de texte IA, mais ces outils posent des problèmes inattendus.

Pour éviter d’être accusés de tricherie, de nombreux étudiants modifient leur style d’écriture pour qu’il soit moins créatif et plus conforme aux attentes des vérificateurs de texte IA. Cela peut inclure l’utilisation de phrases courtes, de structures de phrases simples et de vocabulaire limité. En conséquence, les étudiants risquent de perdre leur voix unique et leur créativité, se conformant à un modèle d’écriture plus robotique.

Pourtant, de récents rapports confirment que les détecteurs d'IA "étiquettent mal les travaux des étudiants", ce qui donne lieu à de fausses accusations. Certains détecteurs d'IA accuseraient à tort des étudiants d'utiliser l'intelligence artificielle pour rendre des travaux et des copies d'examen. Selon des courriels consultés par Bloomberg Businessweek, une étudiante atteinte d'un trouble du spectre autistique a déclaré qu'elle avait tendance à écrire de manière formelle, ce qui a été interprété à tort comme étant généré par l'IA. Elle a donc reçu un avertissement écrit pour avoir prétendument plagié son travail.


Bloomberg a effectué un test sur 500 demandes d'admission à l'université Texas A&M avant la publication de ChatGPT, en utilisant des services de détection d'IA tels que Copyleaks et GPTZero. Ces services ont signalé 1 à 2 % de ces demandes comme étant "probablement" rédigées par l'IA, et certaines ont été étiquetées avec une certitude de 100 %. La précision des détecteurs d'IA a été mise en doute, car bon nombre de ces applications ont été écrites par des humains et ne font partie d'aucun ensemble de données utilisé pour former des modèles de langage.

Bien que l'échantillon testé soit petit, il met en évidence un problème plus large. Les outils de détection de l'IA ne sont pas infaillibles et peuvent signaler à tort des contenus générés par des humains comme étant produits par l'IA. Cela présente également des risques potentiels pour les étudiants, qui peuvent être confrontés à de graves conséquences si leur travail est repéré par erreur par ces systèmes.

Par exemple, une étude réalisée en 2023 par l'université de Stanford a révélé que les détecteurs d'IA avaient identifié plus de la moitié des essais rédigés par des étudiants dont l'anglais n'était pas la langue maternelle comme étant générés par l'IA. Ethan Mollick, professeur de gestion à l'université de Pennsylvanie (Wharton), a critiqué ces outils sur le site X. Il a déclaré : "Il est moralement répréhensible d'utiliser des détecteurs d'IA lorsqu'ils produisent des faux positifs qui salissent les étudiants d'une manière qui leur fait du tort et pour laquelle ils ne peuvent jamais prouver leur innocence."

Le rapport cite également le cofondateur de Copyleaks, qui a reconnu qu'aucun système de détection n'est précis à 100 % et qu'il devrait être utilisé pour repérer des tendances, et non des réponses définitives. Alon Yamin a ajouté : "Nous expliquons clairement aux institutions universitaires que rien n'est sûr à 100 % et que le système doit être utilisé pour identifier les tendances dans les travaux des étudiants. Il s'agit en quelque sorte d'un signal d'alarme qu'ils doivent examiner et utiliser pour discuter avec les étudiants."

De même, le cofondateur de GPTZero, Edward Tian, a admis que les détecteurs d'IA ont des "angles morts", ajoutant que son entreprise a fait des progrès dans l'atténuation des résultats pour les étudiants d'anglais langue seconde en particulier. OpenAI a également déclaré récemment qu'elle s'était abstenue de publier un outil de détection de l'écriture par l'IA, craignant qu'il n'ait un impact disproportionné sur certains groupes, tels que les étudiants d'anglais langue seconde.

Alon Yamin, PDG et cofondateur de Copyleaks, a commenté le rapport :

Chez Copyleaks, nous comprenons l'impact profond que de fausses accusations peuvent avoir sur la carrière universitaire d'un étudiant, et nous assumons cette responsabilité avec le plus grand sérieux. Bien que notre détecteur d'IA soit précis à plus de 99 %, avec un taux de faux positifs de 0,6 %, le plus bas du marché, aucune technologie n'est parfaite, quel que soit le secteur d'activité. En fait, de nombreux autres services utilisés quotidiennement présentent des taux de faux positifs plus élevés, qu'il s'agisse de technologies pour les diagnostics médicaux, de produits pharmaceutiques, de modèles de notation de crédit ou de systèmes de navigation, et pourtant nous continuons à les utiliser et à leur faire confiance.

Bien que le test de Bloomberg ait révélé un taux de faux positifs de 1 à 2 % dans la détection de textes générés par l'IA, il est important de noter qu'aucun outil de détection n'est infaillible, en particulier lorsqu'il s'agit de contenus antérieurs à ChatGPT. Nous améliorons continuellement notre précision grâce à l'apprentissage automatique. Néanmoins, quelle que soit la précision d'un outil, nous encouragerons toujours les éducateurs à utiliser ces outils comme un guide plutôt que comme un outil définitif de contrôle et de jugement. Notre objectif est de favoriser un dialogue ouvert entre les enseignants et les élèves lorsque l'utilisation potentielle de l'IA est signalée, offrant ainsi la possibilité de mieux comprendre le travail des élèves et les processus d'apprentissage. La détection de l'IA devrait être un outil de croissance, et non un obstacle, garantissant l'équité et la transparence du processus académique.
La distinction entre le contenu créé par l’homme et celui généré par l’IA devient floue. Les détecteurs d’IA, conçus pour identifier les textes générés par l’IA, sont devenus des outils controversés. Des rédacteurs se retrouvent licenciés suite à des accusations erronées d’utilisation d’IA, soulevant des questions sur la fiabilité de ces technologies et leurs implications pour l’emploi.

Source : Bloomberg Businessweek

Et vous ?

Pensez-vous que ce rapport est crédible ou pertinente ?
Quel est votre avis sur le sujet ?

Voir aussi :

Les détecteurs d'IA sont biaisés par rapport aux rédacteurs dont l'anglais n'est pas la langue maternelle. Leur fiabilité est remise en question : le contenu de ChatGPT n'est pas détecté

Qui a utilisé ChatGPT, Claude, ou encore Bard pour ses créations ? Quelle est l'efficacité réelle des détecteurs de contenu IA ? Les réponses dans un sujet de recherche universitaire

Écriture académique à l'ère de l'IA : progrès ou problème ? Les étudiants rédigent probablement des millions d'articles à l'aide de l'IA, selon une étude menée par Turnitin
Vous avez lu gratuitement 2 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de totozor
Expert confirmé https://www.developpez.com
Le 18/03/2025 à 7:20
J'ai connu ces débats sur les ordinateurs puis sur internet.
Certains diront que les jeunes sont de plus en plus bêtes, preuve que les craintes étaient fondées.
Mais si chaque génération est plus bête que la précédente, je n'ose imaginer à quel point Neandertal était brillant.
2  0 
Avatar de Escapetiger
Expert éminent sénior https://www.developpez.com
Le 29/03/2025 à 19:35
Citation Envoyé par totozor Voir le message
Certains diront que les jeunes sont de plus en plus bêtes, preuve que les craintes étaient fondées.

« L’école est malade, l’Éducation nationale impose la bêtise et la nullité générale » – Aude Denizot

Epoch Times France
27 fév.2025

Aude Denizot est professeur agrégé en droit privé à l’université du Mans. Elle a aussi enseigné l’économie et la gestion au lycée il y a quelques années. Elle est l’auteur du livre « Pourquoi nos étudiants ne savent-ils plus écrire ? » (éd. Enrick B).

Un ouvrage dans lequel elle analyse les causes de la chute du niveau des élèves, notamment en français, tout en proposant des solutions pour enrayer l’effondrement du système scolaire...

« J’ai peu à peu constaté que le niveau de français se dégradait. Les fautes devenaient de plus en plus graves et de plus en plus nombreuses, les phrases ne voulaient plus rien dire, les mots n’avaient plus aucun sens, explique-t-elle. Chaque année, nous découvrons des erreurs de français qui, jusqu’à présent, n’avaient jamais été commises. »

Outre de sérieuses lacunes en orthographe, en conjugaison et en grammaire, Aude Denizot souligne que le vocabulaire des étudiants s’est aussi « considérablement appauvri », ce qui induit notamment des « problèmes de compréhension en lecture, avec des difficultés à mesurer ce que dit un texte pourtant assez simple » et des étudiants qui confondent des mots usuels.

« La baisse du niveau est extrêmement inquiétante puisqu'on arrive à un point où le langage écrit et oral ne permet plus de communiquer, souligne la professeure de droit. On a des enfants qui sont hors-sol. »

Des difficultés que l’on retrouve d'ailleurs dans toutes les disciplines, selon Aude Denizot.

« J'échange beaucoup avec une professeure en filière informatique. Elle est absolument effrayée par le niveau de mathématiques de ses étudiants qui sont incapables de faire le moindre calcul. Pour multiplier par dix ou diviser par dix, les étudiants prennent la calculatrice », explique-t-elle.

« Les professeurs d'histoire vous diront la même chose. Les étudiants mélangent un peu tout, ils ont une vision très caricaturale, ils connaissent quelques thématiques, mais il n'y a pas de connaissances historiques. [...] certains étudiants pensent que le Chili est en Afrique, ils n'ont aucune connaissance du monde, de la planète en général. »

D’après Aude Denizot, la chute du niveau scolaire n’épargne personne : « Tout le monde est concerné, y compris les très bons élèves qui sont, certes, très bons aujourd'hui, mais qui sont moins bons que ne l'étaient les très bons élèves d'il y a dix, vingt ou trente ans. »

Si le constat de la baisse du niveau des élèves semble largement partagé, les classements TIMSS et PISA témoignant du décrochage de la France, l'Éducation nationale ne ferait rien pour régler problème, selon Aude Denizot.

« L'idée, c'est que la masse – tout le monde sauf les enfants des élites, bien sûr, qui arrivent à échapper à cela –, soit dans le même moule totalitaire, avec des idées toutes faites, une certaine idéologie, des cours d'histoire un peu orientés, mais surtout, je dirais, cette nullité. Les enfants ne savent ni écrire ni lire, ni compter, donc c'est vraiment l'empire de la bêtise et on veut imposer ça à tous pour qu'il y ait très peu de têtes qui dépassent. » ...

Journaliste : Henri-Michel Thalamy
👉 / hm_thalamy
📩 Pour sponsoriser l’émission : epochtv@epochtimes.fr

00:00 Intro
01:47 Le niveau des élèves a-t-il vraiment baissé ces dernières années ?
05:25 Des étudiants incapables de maîtriser des règles apprises en CP ou en CE1
08:01 Un vocabulaire de plus en plus pauvre
12:56 Des livres réécrits et simplifiés pour que les écoliers puissent les comprendre
15:50 Des élèves qui ont besoin d’une calculatrice pour diviser ou multiplier par dix
17:54 Quand des élèves pensent que le Chili est en Afrique
19:25 Aucun élève n'est épargné
21:32 L’illusion de l’école privée
24:15 Les écoles hors contrat, bêtes noires de l’Éducation nationale
28:08 Quand l’Éducation nationale impose la nullité générale
30:36 L’empire de la bêtise, sauf pour les élites
34:03 La France en pointe des inégalités scolaires
37:50 Que valent le brevet et le baccalauréat ?
45:59 Quelles conséquences pour les jeunes générations ?
50:59 La crise des vocations parmi les professeurs
56:22 L’impact du pédagogisme sur l’effondrement du niveau
01:02:14 Des jeunes plus malléables
01:05:04 Élisabeth Borne à l’Éducation nationale
01:08:16 Les programmes d’éducation à la sexualité sont-ils indispensables ?
01:10:20 Les conséquences du développement du numérique sur les apprentissages
01:14:32 L’effondrement du système scolaire peut-il encore être évité ?
01:19:01 Le symptôme d’une crise plus profonde ?
01:24:58 Conclusion
https://www.instruire.fr/actualites/...st-malade.html
L’école malade de l’Éducation nationale – Instruire

Publié le 1 mars 2025 à 16:02, Mis à jour le 1 mars 2025 à 21:43

Thèmes abordés dans l’interview : ...

https://www.instruire.fr/le-grip/qui-sommes-nous.html

Constitué en 2003, le GRIP, Groupe de Réflexion Interdisciplinaire sur les Programmes, rassemble des professeurs enseignant à tous les niveaux, de la maternelle à l’université.

L’objectif premier du GRIP, comme son nom l’indique, est d’élaborer des programmes scolaires. Ceux que nous avons pour l’instant rédigés (mathématique, grammaire et géographie) et testés dans les classes S.L.E.C.C. (Savoir Lire, Écrire, Compter, Calculer) se caractérisent par leur exigence, leur cohérence disciplinaire et des progressions rationnelles. Ils s’appuient à la fois sur l’intuition enfantine et l’art des praticiens qui permet d’en tirer parti...
2  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 10/03/2025 à 17:48
Citation Envoyé par Bruno Voir le message
Comment garantir l’intégrité académique dans un monde où l’IA peut produire des travaux en quelques secondes ?
Comment les institutions éducatives peuvent-elles adapter leurs politiques pour prévenir la triche tout en restant justes envers les étudiants ?
Ils pourraient reprendre le principe des honeypots utilisés en sécurité en exploitant la tendance à halluciner des IA génératives.
Poser certaines questions/problèmes avec des informations délirantes (avec du faux contenu en ligne), qu'il serait possible de "debunker" pour un étudiant ayant travaillé, et mettre zéro à tous ceux qui y ont répondu, par exemple.
1  0 
Avatar de smarties
Expert confirmé https://www.developpez.com
Le 11/03/2025 à 8:41
L'IA tue surtout la réflexion.

Selon moi, il faudrait revoir tout le système éducatif :
- faire redoubler ceux qui n'ont pas le niveau
- réduire le nombre d'élève par classe
- faire des classes de niveaux pour mieux aider les élèves en difficultés et ne pas pénaliser ceux qui apprennent vite en général... quitte à faire quelques cours par semaine avec un niveau plus hétérogène
- revoir certains programmes : quand je vois ce qui me reste par rapport à tout ce que j'ai appris
- privilégier le contrôle continu, ça ne sert à rien d'avoir un examen final sur TOUTES les matières, éventuellement sur 2-3 principales
- essayer de réduire les heures de cours car je me souviens me lever à 6h30 et rentrer à 19h le soir quand j'étais au collège et lycée à cause du temps passé dans les transports en commun. Certains pays finissent en début d'après midi et les élèves peuvent étudier sur place et/ou faire du sport... ça me parait un rythme plus sain
1  0 
Avatar de Stellar7
Membre éclairé https://www.developpez.com
Le 11/03/2025 à 10:12
Citation Envoyé par smarties Voir le message
L'IA tue surtout la réflexion.
La réflexion ? elle est déjà presque abandonnée au collège : on applique, on ne réfléchit plus.
Je viens de donner un exemple d'utilisation de l'IA au lycée.

Le tableau me semble sombre, mais pas désespéré. Par contre, c'est un combat de tous les jours pour faire revenir la réflexion.
1  0 
Avatar de Escapetiger
Expert éminent sénior https://www.developpez.com
Le 10/03/2025 à 18:36
Citation Envoyé par kain_tn Voir le message
Ils pourraient reprendre le principe des honeypots utilisés en sécurité en exploitant la tendance à halluciner des IA génératives.
Poser certaines questions/problèmes avec des informations délirantes (avec du faux contenu en ligne), qu'il serait possible de "debunker" pour un étudiant ayant travaillé, et mettre zéro à tous ceux qui y ont répondu, par exemple.
C'est à double-tranchant, un enseignant avait créé il y a plus de dix ans - période pré-IA donc, une fausse fiche Wikipedia entre autre, pour, justement, faire prendre conscience à ses élèves de la nécéssité d'acquérir du sens critique, certains l'ont bien (com)pris, d'autres non :

« Et l'enseignant de conclure : "Les élèves au lycée n'ont pas la maturité nécessaire pour tirer un quelconque profit du numérique en lettres. Leur servitude à l'égard d'internet va même à l'encontre de l'autonomie de pensée et de la culture personnelle que l'école est supposée leur donner." »

Source: Comment un prof a piégé ses élèves plagiaires - franceinfo:
Publié le 22/03/2012 18:29
Mis à jour le 22/03/2012 18:55
0  0 
Avatar de RenarddeFeu
Membre averti https://www.developpez.com
Le 10/03/2025 à 23:31
Même remarque que pour les calculatrices : si l'IA suffit à tuer la difficulté d'un exercice, c'est qu'il n'était pas pertinent à la base.

Et puis les critiques de l'IA ne sont pas sans rappeler celles quand Wikipédia est apparu.
1  1 
Avatar de totozor
Expert confirmé https://www.developpez.com
Le 11/03/2025 à 7:42
Citation Envoyé par Bruno Voir le message
Les étudiants qui recourent à ces outils risquent de se priver d’une véritable formation intellectuelle et éthique, essentielle dans des domaines comme la philosophie ou l’éthique médicale.
Soyons honnetes, la qualité de l'enseignement de la philosophie est catastrophique dans les formations orientées vers l'industrie, il devient alors compliqué de dire que l'IA risque d'empirer la chose.
comment préserver l’intégrité des évaluations tout en continuant à inspirer et à éduquer leurs étudiants ?
Rien que lier intégrité de l'évaluation et l'inspiration des étudiants me fait rire.
Un prof qui a besoin de passer par l'évaluation pour inspirer ses étudiants a pas mal de choses à revoir dans ses méthodes. (De toute ma scolarité je n'ai eu qu'un prof qui interrogeait sur le court précédent pour s'assurer qu'il avait bien été intégré et compris. Cette évaluation n'impactait pas nos bulletins)
Cependant, les textes générés par l’IA, surtout les moins sophistiqués, ne sont pas impossibles à identifier [...] Parfois, ils incluent des citations ou des références, mais celles-ci sont souvent erronées ou inventées.

Pourtant, cette adoption rapide de l’IA soulève des défis majeurs. Un tiers des étudiants utilisant ces outils ignorent qu’ils peuvent « halluciner », c’est-à-dire inventer des faits, des citations ou des données pour combler des lacunes.
Un de mes profs de maths nous avait montré qu'une calculatrice peut fournir un résultat erroné, ne me dites pas qu'un prof de philo n'est pas capable de créer du contenu autour des hallucination des IA génératives...
Ils traitent les élèves de branleurs mais qu'en est-il d'eux?
Cependant, l’utilisation de l’IA dans l’éducation n’est pas sans conséquences. Une étude récente révèle que les étudiants qui recourent à ces outils sont souvent moins productifs et risquent de compromettre leur réussite future. Les élèves les moins performants ont tendance à utiliser l’IA pour compenser leurs lacunes, ce qui peut renforcer leur dépendance et réduire leur capacité à apprendre de manière autonome. Par ailleurs, les outils de détection de textes générés par l’IA, comme celui de Turnitin, bien qu’utiles, ne sont pas infaillibles et peuvent accuser à tort des étudiants de tricherie, créant ainsi des situations injustes et stressantes.
Mon premier exposé a été fait sans internet, aujourd'hui personne ne s'indigne qu'un gamin s'est renseigné sur les animaux de la foret sur wikipedia et fait des copier/coller d'images plutôt que de les découper dans un livre.
Le problème n'est pas l'IA mais l'incapacité du système scolaire à s'y adapter, notamment dans ses méthodes d'évaluations.
Comment garantir l’intégrité académique dans un monde où l’IA peut produire des travaux en quelques secondes ?
Pour moi l'intégrité de celle ci n'est pas remise en cause, ce sont les méthodes d'évaluation qui le sont.
Les outils d’IA comme ChatGPT remettent-ils en cause la notion même de propriété intellectuelle et de travail personnel ?
Oui.
Mais concernant le travail personnel, pourquoi dépenser de l'énergie quand la remarque à chaque dissertation est "êtes vous stupide"?
Je ne rendais plus de dissertations (et assumais le 0/20) aujourd'hui je rendrais un travail médiocre et insipide et aurais une meilleure note.
Quelles sont les conséquences éthiques de l’utilisation de l’IA par les étudiants pour générer des travaux sans effort intellectuel ?
Si on ne parle pas de publications publiques (scientifiques ou autre), il n'y en a aucune, ou plutôt il n'y en a pas plus qu'avant.
Comment les institutions éducatives peuvent-elles adapter leurs politiques pour prévenir la triche tout en restant justes envers les étudiants ?
Je sais pas une de mes profs d'électricité empêchait la triche en permettant quasiment tout courts, antisèches, internet.
Son évaluation était juste suffisamment complexe pour que tout support ne puisse servir que d'aide.
0  1 
Avatar de RenarddeFeu
Membre averti https://www.developpez.com
Le 18/03/2025 à 1:11
Même remarque que pour la calculatrice scientifique : si un LLM suffit à tuer la difficulté d'un exercice, c'est qu'il n'était pas pertinent à la base.
0  3