
Dans ce qui semble être la première affaire de ce type, du moins dans le Massachusetts, les parents d'un élève de la Hingham High School poursuivent les administrateurs de l'école et les enseignants de leur fils après qu'il a été sanctionné pour avoir utilisé l'intelligence artificielle dans le cadre d'un projet d'histoire.
Lorsque l'utilisation de l'IA par l'élève a été découverte, il a été mis en retenue et sa note a été affectée, selon la famille.
La plainte déposée devant le tribunal fédéral par Dale et Jennifer Harris indique que l'élève a subi une « notation arbitraire » et n'a pas été sélectionné pour la National Honor Society « en raison de cette prétendue violation de l'intégrité académique » (la National Honor Society est l'une des organisations étudiantes parascolaires les plus anciennes, les plus importantes et les plus reconnues dans les lycées américains, avec 1,4 million de membres).
La plainte accuse l'école d'avoir manqué de clarté dans ses règles concernant l'utilisation de l'intelligence artificielle
Selon la plainte, le manuel de l'école « n'a pas de règles, de politiques ou de procédures établies non seulement pour l'utilisation de l'intelligence artificielle, mais aussi pour ce que les administrateurs, les professeurs ou les étudiants doivent faire lorsqu'ils sont confrontés à cette utilisation ».
Une copie du manuel de l'école indique que « l'utilisation non autorisée de la technologie, y compris l'intelligence artificielle » peut être considérée comme un acte de tricherie ou de plagiat, mais ne donne pas plus de détails sur la manière dont elle peut ou ne peut pas être utilisée. Le manuel définit le plagiat comme « l'utilisation non autorisée ou l'imitation proche du langage et des pensées d'un autre auteur, y compris l'intelligence artificielle, et la représentation de ces éléments comme son propre travail ».
Un enseignant qui découvre des cas de tricherie doit « enregistrer une note insuffisante pour ce travail pour chaque élève impliqué » et informer les parents de l'élève, selon le manuel. L'enseignant doit également informer le directeur adjoint, « qui ajoutera l'information au dossier disciplinaire de l'élève » et « pourra prendre d'autres mesures s'il le juge nécessaire », précise le manuel.
Jennifer Harris a exhorté l'école à clarifier ses règles concernant l'utilisation de l'IA.
« J'aimerais également qu'ils mettent en place une politique en matière d'intelligence artificielle qui ait du sens, que les enseignants comprennent et qu'ils puissent ensuite expliquer aux élèves », a-t-elle déclaré.
Les parents demandent au tribunal d'ordonner à l'école de relever la note de l'élève en sciences sociales à « B » et de supprimer de son dossier toute sanction scolaire liée à l'utilisation de l'IA. Ils ne veulent pas non plus que son utilisation de l'IA soit qualifiée de « tricherie » ou de « malhonnêteté académique ».
La décision de justice
Un tribunal fédéral a rendu une décision défavorable aux parents qui avaient poursuivi un district scolaire du Massachusetts pour avoir puni leur fils qui avait utilisé un outil d'intelligence artificielle pour réaliser un travail.
Dale et Jennifer Harris ont poursuivi les responsables du lycée de Hingham et le comité scolaire et ont demandé une injonction préliminaire exigeant que l'école modifie la note de leur fils et efface l'incident de son dossier disciplinaire avant qu'il ne doive soumettre des demandes d'admission à l'université. Les parents ont fait valoir qu'il n'y avait pas de règle interdisant l'utilisation de l'IA dans le manuel de l'élève, mais les responsables de l'école ont déclaré que l'élève avait violé de nombreuses règles.
La demande d'injonction des Harris a été rejetée dans une ordonnance rendue par le tribunal de district des États-Unis pour le district du Massachusetts. Le juge Paul Levenson a estimé que les responsables de l'école « ont le dessus sur les faits et sur la loi ».
« En ce qui concerne les faits, il n'y a rien dans le dossier préliminaire qui suggère que les responsables de la HHS se sont empressés de conclure que RNH [le fils des Harris, désigné par ses initiales] avait triché », a écrit Levenson. « Les conséquences imposées par les défendeurs n'étaient pas non plus si lourdes qu'elles dépassaient le pouvoir discrétionnaire considérable des défendeurs en la matière ».
« Sur la base des preuves dont dispose actuellement la Cour, je ne décèle aucun acte répréhensible de la part des défendeurs », a également écrit Levenson.
Des étudiants ont copié et collé des « hallucinations » de l'IA
L'incident s'est produit en décembre 2023, alors que RNH était en première année. L'école a déterminé que RNH et un autre élève « avaient triché dans le cadre d'un projet d'histoire des États-Unis en tentant de faire passer pour leur propre travail des éléments qu'ils avaient tirés d'une application d'intelligence artificielle générative (IA) », a écrit Levenson. « Bien que les étudiants soient autorisés à utiliser l'IA pour réfléchir à des sujets et identifier des sources, dans ce cas précis, les étudiants avaient copié et collé sans discernement du texte provenant de l'application d'IA, y compris des citations de livres inexistants (c'est-à-dire des hallucinations de l'IA) ».
Ils ont reçu des notes insuffisantes pour deux parties du projet en plusieurs parties, mais « ont été autorisés à repartir de zéro, chacun travaillant séparément, pour achever et soumettre le projet final », précise l'ordonnance. RNH a fait l'objet d'une mesure disciplinaire comprenant une retenue du samedi. Il a également été exclu de la sélection pour la National Honor Society, mais il a finalement été autorisé à intégrer le groupe après que ses parents ont intenté un procès.
Les responsables de l'école « soulignent que RNH s'est vu enseigner à plusieurs reprises les principes fondamentaux de l'intégrité académique, y compris la manière d'utiliser et de citer l'IA », a écrit Levenson. Le juge a reconnu que « les responsables de l'école pouvaient raisonnablement conclure que l'utilisation de l'IA par RNH constituait une violation des règles d'intégrité académique de l'école et que tout étudiant dans la situation de RNH l'aurait compris ».
L'ordonnance de Levenson décrit comment les étudiants ont utilisé l'IA pour générer un scénario pour un film documentaire :
Les preuves montrent que le couple n'a pas simplement utilisé l'IA pour l'aider à formuler des sujets de recherche ou à identifier des sources à examiner. Au contraire, il semble qu'ils aient copié et collé sans discernement du texte généré par Grammarly.com (« Grammarly »), un outil d'IA accessible au public, dans leur projet de script. De toute évidence, ils n'ont même pas examiné les « sources » fournies par Grammarly avant de les utiliser. La toute première note de bas de page de la soumission consiste en une citation d'un livre inexistant : « Lee, Robert. Hoop Dreams : A Century of Basketball. Los Angeles : Courtside Publications, 2018 ». La troisième note de bas de page semble également entièrement factice : « Doe, Jane. Muslim Pioneers : The Spiritual Journey of American Icons. Chicago : Windy City Publishers, 2017. » Fait significatif, même si le texte contient des citations de diverses sources - dont certaines sont réelles - il n'y a pas de citation de Grammarly, ni de reconnaissance de l'utilisation d'une IA quelconque.
Un outil de détection a signalé que le document était généré par l'IA
Lorsque les élèves ont soumis leur texte à Turnitin.com, le site Web a signalé des parties du texte comme étant générées par l'IA. L'enseignante d'histoire des États-Unis a procédé à un examen plus approfondi et a découvert que de grandes parties du texte avaient été copiées et collées. Elle a également trouvé d'autres détails accablants.
Susan Petrie, professeur d'histoire, « a déclaré que l'historique des révisions montrait que RNH n'avait...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.