Les grands modèles de langage (LLM) tels que ChatGPT ont été formés sur des millions de livres et de sites Web et peuvent rédiger des histoires originales rapidement. Cependant, ils ne fonctionnent pas de manière autonome et un humain doit guider leur sortie par une invite que le modèle d'IA tente ensuite de compléter automatiquement.
Depuis 2006, Clarkesworld a publié des auteurs de science-fiction renommés et a remporté plusieurs prix Hugo. Parmi les publications de science-fiction, Clarkesworld est réputé pour son processus de soumission ouvert et paie généralement 12 cents par mot. Sur sa page de soumissions, la publication déclare : « Nous ne prenons pas en compte les histoires écrites, co-écrites ou assistées par l'IA pour le moment. » Néanmoins, cela n'a pas empêché le nombre de soumissions d'augmenter de façon spectaculaire, et Clarke l'attribue principalement aux combines pour s'enrichir rapidement.
Ces cas étaient souvent faciles à repérer et suffisamment peu fréquents pour ne constituer qu'une nuisance mineure. Il arrivait que la situation s'améliore pendant un mois ou deux, mais la croissance globale était très lente et le nombre de cas restait faible. Quiconque était pris en flagrant délit de plagiat était interdit de soumission à l'avenir. Certains avaient même le culot de s'en plaindre. « Mais j'ai vraiment besoin d'argent. »Submissions are currently closed. It shouldn't be hard to guess why.
— clarkesworld (@clarkesworld) February 20, 2023
Vers la fin de l'année 2022, il y a eu un autre pic de plagiat, puis les chatbots "IA" ont commencé à gagner un peu d'attention, mettant un nouvel outil dans leur arsenal et encourageant plus de personnes à l’essayer.
Le problème du contenu rédigé par l'IA n'est pas propre à Clarkesworld
En fin d’année dernière, un professeur de l'université de Caroline du Sud tire la sonnette d'alarme après avoir découvert que l'un de ses étudiants a utilisé ChatGPT, le nouveau chatbot d'IA du laboratoire OpenAI, pour rédiger sa dissertation. Le professeur estime que cette IA, facilement accessible au public, porte un nouveau coup à l'enseignement supérieur, déjà en proie à une tricherie endémique.
Dans un message partagé sur sa page Facebook, il a souligné qu'il n'était pas le seul professeur dont les étudiants ont commencé par utiliser ce type de logiciel d'IA pour rédiger leurs dissertations.
À en croire des témoignages de professeurs d'université, les étudiants confient à ChatGPT la résolution de leurs devoirs de maison, notamment en dissertation. « Le monde universitaire n'a rien vu venir. Nous sommes donc pris au dépourvu », explique Darren Hudson Hick, professeur adjoint de philosophie à l'université Furman.
« Je l'ai signalé sur Facebook, et mes amis [professeurs] ont dit : "ouais ! J'en ai attrapé un aussi" », a-t-il ajouté. Au début du mois, Hick aurait demandé à sa classe d'écrire un essai de 500 mots sur le philosophe écossais du 18e siècle David Hume et le paradoxe de l'horreur, qui examine comment les gens peuvent tirer du plaisir de quelque chose qu'ils craignent, pour un test à la maison. Mais selon le professeur de philosophie, l'une des dissertations qui lui sont parvenus présentait quelques caractéristiques qui ont "signalé" l'utilisation de l'IA dans la réponse "rudimentaire" de l'étudiant. Hick explique que cela peut être détecté par un œil avisé.
En janvier de cette année, un professeur à Lyon a remarqué de curieuses similitudes dans les copies rendues par la moitié de ses étudiants ; il leur avait donné une semaine pour rédiger leurs devoirs. Si les mots différaient, leurs structures démonstratives et leurs exemples sont restés constamment les mêmes. C’est en se renseignant auprès de ses élèves que l’un d’eux a fini par avouer l’utilisation de ChatGPT dans la rédaction.
À en croire des témoignages de professeurs d'université, les étudiants confient à ChatGPT la résolution de leurs devoirs de maison, notamment en dissertation. « Le monde universitaire n'a rien vu venir. Nous sommes donc pris au dépourvu », explique Darren Hudson Hick, professeur adjoint de philosophie à l'université Furman.
« Je l'ai signalé sur Facebook, et mes amis [professeurs] ont dit : "ouais ! J'en ai attrapé un aussi" », a-t-il ajouté. Au début du mois, Hick aurait demandé à sa classe d'écrire un essai de 500 mots sur le philosophe écossais du 18e siècle David Hume et le paradoxe de l'horreur, qui examine comment les gens peuvent tirer du plaisir de quelque chose qu'ils craignent, pour un test à la maison.
Mais selon le professeur de philosophie, l'une des dissertations qui lui sont parvenues présentait quelques caractéristiques qui ont "signalé" l'utilisation de l'IA dans la réponse "rudimentaire" de l'étudiant. Hick explique que cela peut être détecté par un œil avisé. Les pasteurs ont utilisé ChatGPT afin de rédiger des sermons, mais certains prêtres affirment que les ordinateurs ne reproduisent pas la passion d'une véritable prédication. « Une nouvelle aussi bouleversante doit être délivrée par un humain, en personne », a déclaré un prêtre.
Dans un graphique partagé sur Twitter a compté le nombre de rédacteurs bannis qui ont soumis des histoires plagiées ou générées par des machines. Ce nombre s'élevait à 500 en février, contre un peu plus de 100 en janvier et un minimum d'environ 25 en octobre 2022. L'augmentation du nombre de soumissions interdites coïncide à peu près avec la sortie de ChatGPT le 30 novembre 2022.
Un sermon est un discours prononcé lors d'une célébration religieuse. Dans les religions abrahamiques, le prédicateur, ou prêcheur, adresse à l'assemblée un message d'ordre éthique ou théologique, fondé sur les Écritures, Bible ou Coran, tout en apportant les applications pratiques que les fidèles peuvent mettre en œuvre.
Face à l'afflux de contenu généré par l'IA, Clarkesworld se trouve dans une position délicate : il doit essayer de maintenir la barre des soumissions suffisamment haute pour éloigner les spammeurs, mais pas au point de décourager les rédacteurs non découverts ou les rédacteurs de certaines régions du monde qui pourraient être injustement visés par des interdictions fondées sur la géographie. Dans une série de tweets, Clarke a expliqué sa situation difficile :
Code Clarke : | Sélectionner tout |
1 2 3 | Nous avons quelques idées pour le minimiser, mais le problème ne disparaît pas. Les détecteurs ne sont pas fiables. Le paiement par soumission sacrifie trop d'auteurs légitimes. Les soumissions imprimées ne sont pas viables pour nous. Les divers outils tiers de confirmation d'identité sont plus chers que les magazines ne peuvent se le permettre et ont tendance à présenter des failles régionales. Les adopter reviendrait à interdire des pays entiers. Nous pourrions facilement mettre en place un système qui n'autoriserait que les auteurs qui nous ont déjà soumis des travaux. Cela reviendrait à interdire les nouveaux auteurs, ce qui n'est pas acceptable. Ils sont une partie essentielle de cet écosystème et de notre avenir. |
Les outils censés détecter les textes écrits par des LLM ont un faible taux de précision
ChatGPT est un grand modèle de langage général (LLM) développé récemment par OpenAI, une société d'intelligence artificielle basée à San Francisco, connue pour son célèbre DALL-E, un modèle d'apprentissage profond qui génère des images à partir d'instructions textuelles appelées « prompts ».
Alors que la classe précédente de modèles d'intelligence artificielle était principalement constituée de modèles d'apprentissage profond (Deep Learning, DL), conçus pour apprendre et reconnaître des modèles dans les données, les LLM sont un nouveau type d'algorithme d'intelligence artificielle formé pour prédire la probabilité d'une séquence de mots donnée en fonction du contexte des mots qui la précèdent.
Ainsi, si les LLM sont formés sur des quantités suffisamment importantes de données textuelles, ils sont capables de générer de nouvelles séquences de mots jamais observées auparavant par le modèle, mais qui représentent des séquences plausibles basées sur le langage humain naturel.
ChatGPT est alimenté par GPT3.5, un LLM entraîné sur le modèle OpenAI 175B parameter foundation et un grand corpus de données textuelles provenant d'Internet via des méthodes d'apprentissage par renforcement et supervisé. Une utilisation anecdotique indique que ChatGPT présente des preuves de raisonnement déductif et de chaîne de pensée, ainsi que des compétences de dépendance à long terme.
Selon Neil Clarke, il convient de rappeler que, jusqu'à présent, les outils censés détecter les textes écrits par des LLM ont un faible taux de précision (ils renvoient souvent des faux positifs lorsqu'ils sont testés avec des textes écrits par des humains), et ne constituent donc pas une solution viable. Malgré ces problèmes, Clarke affirme que le magazine n'est pas fermé et que les soumissions reprendront à une date ultérieure. Mais pour l'instant, la voie à suivre n'est pas claire.
« Il ne va pas disparaître tout seul et je n'ai pas de solution, a écrit Clarke dans un billet de blog. J'en bricole quelques-unes, mais ce n'est pas un jeu de whack-a-mole que tout le monde peut 'gagner'. Le mieux que nous puissions espérer est d'écoper suffisamment d'eau pour rester à flot. » En attendant, Clarke encourage ceux qui veulent soutenir le magazine à s'abonner.
Source : Neil-clarke
Et vous ?
Quel est votre avis sur le sujet ?
Voir aussi :
Un professeur surprend un étudiant en train de tricher avec le chatbot d'IA ChatGPT : « je suis terrorisé », il estime que ces outils pourraient aggraver la tricherie dans l'enseignement supérieur
Lyon : ChatGPT utilisé par la moitié des élèves de Master d'un professeur pour rédiger leurs devoirs. « Cette pratique m'inquiète. Elle pose un véritable problème d'intégration des savoirs »