OpenAI et les autres entreprises d'IA qui travaillent sur des chatbots de type ChatGPT pourraient avoir de gros ennuis avec la justice s'ils ne résolvent pas très rapidement le problème d'hallucination des grands modèles de langage. Ces derniers mois, ChatGPT a créé de fausses histoires sur de nombreuses personnes à travers le monde et cite parfois même des sources inexistantes pour étayer ses récits. Dans un cas aux États-Unis, ChatGPT a inventé un scandale de harcèlement sexuel et a désigné un vrai professeur de droit comme l'accusé. En Australie, il a accusé à tort un maire de corruption avec de fausses preuves. De telles histoires pullulent sur Internet, y compris en France.On parle d'hallucination dans les chatbots d'IA lorsqu'une machine fournit des réponses convaincantes, mais complètement inventées. Ce phénomène n'est pas nouveau et des développeurs ont mis en garde contre des modèles d'IA convaincus de faits totalement faux, en tentant de répondre à des questions par des réponses inventées. Les hallucinations sont l'une des principales caractéristiques des modèles d'IA, car ils exigent la capacité de reformuler, de résumer et de présenter des textes complexes sans contraintes. Cela soulève le problème des faits qui ne sont pas avérés et qui peuvent être traités dans leur contexte lorsqu'on présente l'information comme crible.
En fait, un chatbot d'IA pourrait éventuellement prendre en compte des informations largement disponibles plutôt que des informations factuelles. Le problème devient particulièrement aigu lorsque l'on utilise une grammaire complexe ou des sources obscures. « Nous nous dirigeons à grands pas vers un Internet fortement influencé par l'IA, bourré de pépins, de spams et d'escroqueries », a récemment écrit un journaliste du MIT Technology Review. Sommes-nous déjà à ce stade ? Les accusations de désinformation et de diffamation visant ChatGPT commencent à se multiplier et certaines personnes concernées ont même intenté une action en justice.
ChatGPT accuse un professeur de droit dans une fausse histoire de harcèlement sexuel
La semaine dernière, Jonathan Turley, professeur de droit à l'université George Washington, a soudainement appris qu'il était l'accusé dans une affaire de harcèlement sexuel. Le professeur n'avait pas connaissance de cette histoire jusqu'à présent parce qu'elle vient tout juste d'être inventée de toutes pièces par ChatGPT. En fait, dans le cadre d'une étude, un collègue avocat californien a demandé à ChatGPT de générer une liste de juristes ayant harcelé sexuellement quelqu'un. À sa grande surprise, le nom de Turley figurait sur la liste générée par le Chatbot d'IA d'OpenAI. Le collègue a ensuite envoyé un courriel à Turley pour l'informer de sa découverte.
En développant l'histoire concernant Turley, ChatGPT a déclaré que le professeur avait fait des commentaires sexuellement suggestifs et tenté de toucher une étudiante lors d'un voyage de classe en Alaska, citant un article de mars 2018 du Washington Post comme source. Le problème ? Un tel article n'existe pas. Il n'y a jamais eu de voyage de classe en Alaska. Et Turley n'a jamais fait l'objet d'une telle accusation. « ChatGPT avait faussement rapporté une plainte pour harcèlement sexuel qui n'a jamais été déposée contre moi lors d'un voyage qui n'a jamais eu lieu, alors que je faisais partie d'une faculté où je n'ai jamais enseigné », s'est défendu Turley.
Commentateur régulier dans les médias, Turley a parfois demandé des corrections dans des articles de presse. Mais cette fois-ci, il n'y avait ni journaliste ni rédacteur en chef à appeler et il n'y avait aucun moyen de rectifier les faits. « Cela m'a fait froid dans le dos. Une telle allégation est incroyablement préjudiciable », a déclaré Turley lors d'une interview accordée au quotidien The Post. Selon un billet de blogue publié par Turley, en enquêtant sur cette fausse histoire, le Washington Post a remarqué que le chatbot Bing Chat de Microsoft, qui est basé sur le modèle d'IA GPT-4, a répété la même fausse affirmation concernant le professeur.
« Il semble que j'aie été jugé par un jury d'IA pour un fait qui n'a jamais eu lieu », a-t-il écrit. Selon Turley, lorsque le journal a tenté d'obtenir des explications auprès de Microsoft, Katy Asher, directrice principale de la communication chez Microsoft, a déclaré que la société prenait des mesures pour garantir la sécurité et l'exactitude des résultats de recherche. Mais pour Turley, c'est vague et ce n'est pas suffisant. « C'est cela et c'est le problème. Vous pouvez être diffamé par l'IA et ces entreprises se contentent de hausser les épaules en disant qu'elles essaient d'être exactes. Pendant ce temps, leurs fausses histoires se répandent sur Internet », a-t-il écrit.
« Lorsque vous apprenez l'existence d'une fausse histoire, la piste d'un système d'IA n'est souvent plus d'actualité. Vous ne disposez d'aucun moyen clair ni d'aucun auteur pour obtenir réparation. Vous vous retrouvez avec la même situation que Ray Donovan, le secrétaire de Donald Reagan, qui se demandait : "où puis-je aller pour retrouver ma réputation ?" », a ajouté Turley. Le cas de Turley n'est pas isolé. Il y a eu d'autres histoires de ce type en...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.