Depuis sa sortie à la fin de 2022, ChatGPT est devenu l’un des sites web les plus populaires au monde. Cependant, OpenAI a récemment développé un système capable de détecter le texte généré par ChatGPT. Ce système laisse une sorte de filigrane dans les mots générés, invisible pour les humains mais repérable par un autre système d’intelligence artificielle. Par exemple, les enseignants pourraient l’utiliser pour vérifier si leurs élèves trichent en utilisant ChatGPT pour leurs devoirs. Cependant, OpenAI hésite à mettre en place ce système, car il pourrait stigmatiser l’utilisation de ChatGPT et réduire sa popularité.
OpenAI dispose d'une méthode permettant de détecter de manière fiable si quelqu'un utilise ChatGPT pour rédiger une dissertation ou un travail de recherche. C'est en tout cas ce qu'a rapporté le Wall Street Journal qui a précisé que l'entreprise ne l'a pas rendue publique malgré les inquiétudes généralisées concernant l'utilisation de l'intelligence artificielle par les étudiants pour tricher.
Le projet est embourbé dans un débat interne à OpenAI depuis environ deux ans et est prêt à être publié depuis environ un an, selon des personnes familières avec le sujet et des documents internes consultés par le quotidien. « Il suffit d'appuyer sur un bouton », a déclaré l'une de ces personnes.
En essayant de décider quoi faire, les employés d'OpenAI ont hésité entre l'engagement déclaré de la startup à la transparence et leur désir d'attirer et de retenir les utilisateurs. Une enquête menée par l'entreprise auprès des utilisateurs fidèles de ChatGPT a révélé que près d'un tiers d'entre eux seraient rebutés par la technologie anti-tricherie.
Une porte-parole d'OpenAI a déclaré que l'entreprise craignait que l'outil n'affecte de manière disproportionnée des groupes tels que les personnes dont l'anglais n'est pas la langue maternelle. « La méthode de filigrane que nous développons est techniquement prometteuse, mais elle comporte des risques importants que nous évaluons tout en recherchant d'autres solutions », a-t-elle déclaré. « Nous pensons que l'approche délibérée que nous avons adoptée est nécessaire compte tenu des complexités en jeu et de son impact probable sur l'écosystème élargi au-delà de l'OpenAI ».
Les employés qui soutiennent la diffusion de l'outil, y compris ceux qui ont contribué à son développement, ont déclaré en interne que ces arguments étaient bien faibles par rapport à l'utilité de cette technologie.
L’outil d’intelligence artificielle (IA) générative ChatGPT, sorti en novembre 2022 et accessible gratuitement au grand public, est capable de créer des textes sur demande, qu’il s’agisse de rédiger des e-mails, des messages sur les réseaux sociaux ou des dissertations – au grand désarroi de certains enseignants. « C'est un problème énorme », a déclaré Alexa Gutterman, professeur d'anglais et de journalisme dans un lycée de New York. « Tous les enseignants avec lesquels je travaille en ont parlé ».
Une enquête récente du Center for Democracy & Technology, une organisation à but non lucratif spécialisée dans la politique technologique, a révélé que 59 % des enseignants de collège et de lycée étaient certains que certains élèves avaient utilisé l'IA pour les aider dans leurs travaux scolaires, soit une augmentation de 17 points par rapport à l'année scolaire précédente.
Sam Altman, directeur général d'OpenAI, et Mira Murati, directrice de la technologie, ont participé aux discussions sur l'outil anti-tricherie. Altman a encouragé le projet, mais n'a pas insisté pour qu'il soit lancé, ont déclaré certaines personnes au fait du dossier.
Un outil qui serait efficace à 99,9 % sur ChatGPT
ChatGPT est alimenté par un système d'intelligence artificielle qui prédit quel mot ou fragment de mot, appelé "token", doit suivre dans une phrase. L'outil anti-tricherie en cours de discussion à l'OpenAI modifierait légèrement la manière dont les jetons sont sélectionnés. Ces modifications laisseraient un motif appelé « filigrane ». Ces filigranes seraient imperceptibles à l'œil nu, mais pourraient être détectés grâce à la technologie de détection de l'OpenAI. Le détecteur fournit un score indiquant la probabilité que le document entier ou une partie de celui-ci ait été écrit par ChatGPT.
Les filigranes sont efficaces à 99,9 % lorsque ChatGPT crée suffisamment de nouveau texte, selon les documents internes. Néanmoins, des employés ont exprimé leur inquiétude quant à la possibilité d'effacer les filigranes au moyen de techniques simples, par exemple en demandant à Google de traduire le texte dans une autre langue, puis de revenir en arrière, ou en demandant à ChatGPT d'ajouter des emojis au texte, puis de les effacer manuellement, a déclaré un employé d'OpenAI au courant de l'affaire.
L'entreprise est largement d'accord sur le fait qu'il serait difficile de déterminer qui peut utiliser ce détecteur. Si trop peu de personnes y ont accès, l'outil ne sera pas utile. Si trop de personnes y ont accès, de mauvais acteurs pourraient déchiffrer la technique de filigrane de l'entreprise.
Les employés d'OpenAI ont envisagé de fournir le détecteur directement aux éducateurs ou à des entreprises extérieures qui aident les écoles à identifier les travaux rédigés par l'IA et les travaux plagiés.
Une portée limitée
Dans une déclaration, un porte-parole d'OpenAI a confirmé que l'entreprise étudie la méthode de filigrane décrite dans l'article du Journal, mais a déclaré qu'elle adopte une « approche délibérée » en raison des « complexités impliquées et de son impact probable sur l'écosystème plus large au-delà d'OpenAI ».
« La méthode de filigrane que nous développons est techniquement prometteuse, mais elle comporte des risques importants que nous évaluons pendant que nous recherchons des alternatives, notamment la possibilité d'être contournée par de mauvais acteurs et la possibilité d'avoir un impact disproportionné sur des groupes tels que les non-anglophones », a déclaré le porte-parole.
Il s'agirait d'une approche différente de la plupart des efforts précédents visant à détecter les textes générés par l'IA, qui se sont avérés largement inefficaces. OpenAI elle-même a fermé l'an dernier son précédent détecteur de texte généré par l'IA en raison de son « faible taux de précision ».
Avec le filigrane de texte, OpenAI se concentrerait uniquement sur la détection de l'écriture de ChatGPT, et non sur les modèles d'autres entreprises. Pour ce faire, elle apporterait de petites modifications à la manière dont ChatGPT sélectionne les mots, créant ainsi un filigrane invisible dans l'écriture qui pourrait être détecté ultérieurement par un outil distinct.
À la suite de la publication de l'article du Journal, l'OpenAI a également mis à jour un billet de blog datant du mois de mai et portant sur ses recherches en matière de détection des contenus générés par l'IA. La mise à jour indique que le filigrane de texte s'est avéré « très précis et même efficace contre les altérations localisées, telles que la paraphrase », mais qu'il s'est révélé « moins robuste contre les altérations globales, telles que l'utilisation de systèmes de traduction, la reformulation avec un autre modèle génératif, ou le fait de demander au modèle d'insérer un caractère spécial entre chaque mot, puis de supprimer ce caractère ».
En conséquence, OpenAI écrit que cette méthode est « triviale pour être contournée par de mauvais acteurs ». La mise à jour d'OpenAI fait également écho à la remarque du porte-parole concernant les non-anglophones, en écrivant que le filigrane de texte pourrait "stigmatiser l'utilisation de l'IA en tant qu'outil d'écriture utile pour les personnes dont l'anglais n'est pas la langue maternelle ».
Sources : Le Monde, OpenAI
Et vous ?
L’anonymat en ligne : Devrions-nous privilégier la confidentialité des utilisateurs de ChatGPT, même si cela peut entraîner des abus ? Comment pouvons-nous trouver un équilibre entre la protection de la vie privée et la prévention des comportements nuisibles ?
Responsabilité des utilisateurs : Qui devrait être tenu responsable des actions basées sur le texte généré par ChatGPT ? L’utilisateur, OpenAI ou les deux ? Comment pouvons-nous encourager une utilisation responsable ?
Transparence et confiance : Comment OpenAI peut-il renforcer la confiance des utilisateurs envers ChatGPT sans compromettre la confidentialité ? Quelles mesures de transparence devraient être mises en place ?
Quelles sont les implications de l’utilisation de ChatGPT sans filigrane ? Comment pouvons-nous garantir que l’IA est utilisée de manière responsable ?
OpenAI a mis au point un système capable d'identifier les textes rédigés par ChatGPT mais hésite à le déployer
Car il pourrait stigmatiser l'utilisation de ChatGPT et lui faire perdre des utilisateurs
OpenAI a mis au point un système capable d'identifier les textes rédigés par ChatGPT mais hésite à le déployer
Car il pourrait stigmatiser l'utilisation de ChatGPT et lui faire perdre des utilisateurs
Le , par Stéphane le calme
Une erreur dans cette actualité ? Signalez-nous-la !