IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Comment ChatGPT crée de fausses histoires de toutes pièces pour diffamer lourdement des innocents,
Cela donne-t-il raison aux détracteurs des chatbots ?

Le , par Bill Fassinou

80PARTAGES

3  0 
OpenAI et les autres entreprises d'IA qui travaillent sur des chatbots de type ChatGPT pourraient avoir de gros ennuis avec la justice s'ils ne résolvent pas très rapidement le problème d'hallucination des grands modèles de langage. Ces derniers mois, ChatGPT a créé de fausses histoires sur de nombreuses personnes à travers le monde et cite parfois même des sources inexistantes pour étayer ses récits. Dans un cas aux États-Unis, ChatGPT a inventé un scandale de harcèlement sexuel et a désigné un vrai professeur de droit comme l'accusé. En Australie, il a accusé à tort un maire de corruption avec de fausses preuves. De telles histoires pullulent sur Internet, y compris en France.

On parle d'hallucination dans les chatbots d'IA lorsqu'une machine fournit des réponses convaincantes, mais complètement inventées. Ce phénomène n'est pas nouveau et des développeurs ont mis en garde contre des modèles d'IA convaincus de faits totalement faux, en tentant de répondre à des questions par des réponses inventées. Les hallucinations sont l'une des principales caractéristiques des modèles d'IA, car ils exigent la capacité de reformuler, de résumer et de présenter des textes complexes sans contraintes. Cela soulève le problème des faits qui ne sont pas avérés et qui peuvent être traités dans leur contexte lorsqu'on présente l'information comme crible.

En fait, un chatbot d'IA pourrait éventuellement prendre en compte des informations largement disponibles plutôt que des informations factuelles. Le problème devient particulièrement aigu lorsque l'on utilise une grammaire complexe ou des sources obscures. « Nous nous dirigeons à grands pas vers un Internet fortement influencé par l'IA, bourré de pépins, de spams et d'escroqueries », a récemment écrit un journaliste du MIT Technology Review. Sommes-nous déjà à ce stade ? Les accusations de désinformation et de diffamation visant ChatGPT commencent à se multiplier et certaines personnes concernées ont même intenté une action en justice.

ChatGPT accuse un professeur de droit dans une fausse histoire de harcèlement sexuel

La semaine dernière, Jonathan Turley, professeur de droit à l'université George Washington, a soudainement appris qu'il était l'accusé dans une affaire de harcèlement sexuel. Le professeur n'avait pas connaissance de cette histoire jusqu'à présent parce qu'elle vient tout juste d'être inventée de toutes pièces par ChatGPT. En fait, dans le cadre d'une étude, un collègue avocat californien a demandé à ChatGPT de générer une liste de juristes ayant harcelé sexuellement quelqu'un. À sa grande surprise, le nom de Turley figurait sur la liste générée par le Chatbot d'IA d'OpenAI. Le collègue a ensuite envoyé un courriel à Turley pour l'informer de sa découverte.


En développant l'histoire concernant Turley, ChatGPT a déclaré que le professeur avait fait des commentaires sexuellement suggestifs et tenté de toucher une étudiante lors d'un voyage de classe en Alaska, citant un article de mars 2018 du Washington Post comme source. Le problème ? Un tel article n'existe pas. Il n'y a jamais eu de voyage de classe en Alaska. Et Turley n'a jamais fait l'objet d'une telle accusation. « ChatGPT avait faussement rapporté une plainte pour harcèlement sexuel qui n'a jamais été déposée contre moi lors d'un voyage qui n'a jamais eu lieu, alors que je faisais partie d'une faculté où je n'ai jamais enseigné », s'est défendu Turley.

Commentateur régulier dans les médias, Turley a parfois demandé des corrections dans des articles de presse. Mais cette fois-ci, il n'y avait ni journaliste ni rédacteur en chef à appeler et il n'y avait aucun moyen de rectifier les faits. « Cela m'a fait froid dans le dos. Une telle allégation est incroyablement préjudiciable », a déclaré Turley lors d'une interview accordée au quotidien The Post. Selon un billet de blogue publié par Turley, en enquêtant sur cette fausse histoire, le Washington Post a remarqué que le chatbot Bing Chat de Microsoft, qui est basé sur le modèle d'IA GPT-4, a répété la même fausse affirmation concernant le professeur.

« Il semble que j'aie été jugé par un jury d'IA pour un fait qui n'a jamais eu lieu », a-t-il écrit. Selon Turley, lorsque le journal a tenté d'obtenir des explications auprès de Microsoft, Katy Asher, directrice principale de la communication chez Microsoft, a déclaré que la société prenait des mesures pour garantir la sécurité et l'exactitude des résultats de recherche. Mais pour Turley, c'est vague et ce n'est pas suffisant. « C'est cela et c'est le problème. Vous pouvez être diffamé par l'IA et ces entreprises se contentent de hausser les épaules en disant qu'elles essaient d'être exactes. Pendant ce temps, leurs fausses histoires se répandent sur Internet », a-t-il écrit.

« Lorsque vous apprenez l'existence d'une fausse histoire, la piste d'un système d'IA n'est souvent plus d'actualité. Vous ne disposez d'aucun moyen clair ni d'aucun auteur pour obtenir réparation. Vous vous retrouvez avec la même situation que Ray Donovan, le secrétaire de Donald Reagan, qui se demandait : "où puis-je aller pour retrouver ma réputation ?" », a ajouté Turley. Le cas de Turley n'est pas isolé. Il y a eu d'autres histoires de ce type en Australie et en France.

Un maire australien pourrait porter plainte contre ChatGPT (OpenAI) pour diffamation

Brian Hood, maire de la ville de Hepburn Shire Council, au nord de Melbourne, en Australie, envisage de poursuivre OpenAI pour diffamation après que ses administrés ont commencé à lui dire que ChatGPT avait allégué qu'il purgeait une peine de prison pour corruption. Mais la réalité est tout autre. Non seulement, Hood affirme qu'il n'a jamais été en prison, mais qu'il est le dénonciateur qui a signalé la corruption en premier lieu. Cette histoire montre une fois de plus que le problème l'hallucination et les erreurs fréquentes de ChatGPT, mais également des chatbots d'IA concurrents, commencent à avoir des conséquences dans le monde réel.

« Il s'agit d'un élu, sa réputation est au cœur de son rôle. Ce serait potentiellement d'un moment historique dans le sens où il s'agit d'appliquer la loi sur la diffamation à un nouveau domaine de l'IA et de la publication dans le secteur des technologies de l'information », a déclaré l'avocat James Naughton, partenaire de Gordon Legal, qui représente Hood. Les administrés du maire l'ont informé que le chatbot d'IA a prétendu qu'il faisait partie des personnes reconnues coupables dans une affaire de corruption qui s'est déroulée entre 1999 et 2004 et qui impliquait une entité de la Banque de réserve d'Australie, notamment Note Printing Australia.

Or, c'est tout le contraire qui s'est produit : oui, Hood a travaillé à Note Printing Australia, mais ses avocats affirment que c'est lui qui a signalé les pots-de-vin aux autorités étrangères et qu'il n'a pas été inculpé lui-même. Aujourd'hui, Hood craint que son nom ne soit terni si des affirmations inexactes sont diffusées par ChatGPT. Fin mars, l'équipe juridique de Hood a adressé une lettre de préoccupation à OpenAI, demandant à l'entreprise américaine de corriger les erreurs dans un délai de 28 jours. Dans le cas contraire, l'équipe envisage de porter plainte contre OpenAI pour diffamation. OpenAI n'aurait pas encore répondu à Hood.

Mais ce n'est pas la première fois que l'OpenAI est confrontée à des allégations d'erreurs factuelles. En février, l'entreprise a déclaré qu'elle s'efforçait de corriger les biais de ChatGPT après avoir reçu une avalanche de plaintes concernant des réponses inappropriées et inexactes. D'autres plateformes de chatbot ont également été confrontées à plusieurs cas de faits inventés. Une étude sur le chatbot Bard de Google a révélé que lorsqu'on lui demande de produire des récits erronés largement connus, la plateforme le fait facilement et fréquemment - dans près de huit sujets controversés sur dix - sans donner d'avertissement aux utilisateurs.

En fait, Bard a commis une erreur spectaculaire dès le premier jour de son lancement. Le chatbot a affirmé à tort que le télescope spatial James Webb a pris la toute première photo d'une exoplanète. Google a également tweeté l'animation avec cette déclaration. En septembre de l'année dernière, James Webb a bel et bien pris sa première photo d'une exoplanète, mais il ne s'agissait pas de la toute première photo d'une exoplanète - un événement marquant qui s'est produit en 2004. Pour sa part, le PDG d'OpenAI, Sam Altman, a déclaré que ChatGPT, même avec sa nouvelle technologie GPT-4 améliorée, est "encore imparfaite, encore limitée".

Dans les cas les plus extrêmes, les chatbots peuvent même être fatals. Eliza, un chatbot développé par Chai Research, une société basée à San Francisco, aurait poussé un Belge à mettre fin à ses jours après qu'il s'est ouvert au chatbot pour lui faire part de ses inquiétudes concernant le changement climatique. De tels cas ont suscité des inquiétudes quant à la manière dont les développements de l'IA seront supervisés à mesure que la technologie deviendra couramment utilisée par les gens.

Un développeur français poursuit également OpenAI devant la CNIL pour diffusion d'infox

Mardi dernier, David Libeau, développeur très engagé dans la protection des données personnelles, a déposé une plainte devant la CNIL alléguant que ChatGPT diffuse de fausses informations à son sujet. Libeau allègue avoir repéré des informations personnelles le concernant en interrogeant ChatGPT sur son profil. Il ajoute que ses informations sont fausses. « Lorsque je demandais plus d’informations, l’algorithme a commencé à affabuler et à m’attribuer la création de sites Web ou l’organisation de manifestations en ligne, ce qui est totalement faux », écrit-il. Il s'agit d'une entorse au RGPD (règlement général sur la protection des données personnelles).

En fait, cette faille serait contraire à l'article 5 du RGPD, qui exige que les informations délivrées portant sur une personne soient exactes. Une enquête de la CNIL doit déterminer l'exactitude de l'accusation. Ces différentes expériences sont des études de cas des pièges de la dernière vague de chatbots d'IA, qui ont attiré l'attention du grand public grâce à leur capacité à écrire du code informatique, à composer des poèmes et à tenir des conversations étrangement semblables à celles d'un être humain. Mais cette créativité peut aussi être le moteur d'affirmations erronées et les experts craignent que ces IA amplifient la désinformation en ligne.

Les modèles peuvent déformer des faits essentiels avec beaucoup d'aisance, voire fabriquer des sources primaires pour étayer leurs affirmations. Alors que des outils d'IA non réglementés tels que ChatGPT, Bing Chat et Bard commencent à être intégrés sur le Web, leur propension à générer des infox potentiellement préjudiciables soulève des inquiétudes quant à la propagation de la désinformation, ainsi que de nouvelles questions sur la responsabilité des chatbots lorsqu'ils induisent en erreur. Le secteur de l'IA a appelé à une réglementation de ces outils technologiques, mais aucune action dans ce sens n'a été observée pour le moment.

« Parce que ces systèmes répondent avec tant de confiance, il est très séduisant de penser qu'ils peuvent tout faire, et il est très difficile de faire la différence entre les faits et les mensonges », a déclaré Kate Crawford, professeur à l'université de Californie du Sud et chercheuse principale chez Microsoft Research. Le gouvernement américain a récemment décidé que les œuvres d'art générées par l'IA ne bénéficieraient pas de la protection des droits d'auteur, mais il n'existe pas de lignes directrices ou de lois similaires pour les contenus textuels produits par les chatbots. En France, la perspective d'un blocage de ChatGPT est plus forte que jamais.

Source : billet de blogue

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous des fausses histoires inventées par ChatGPT ?
Selon vous, quels impacts ces faux récits pourraient avoir sur les victimes ?
Selon vous, comment les régulateurs pourraient-ils aborder ce type de problème ?
Avez-vous eu connaissance d'autres histoires de ce type ? Si oui, partagez-les.

Voir aussi

ChatGPT bientôt interdit en France comme en Italie ? La CNIL enregistre les premières plaintes contre le logiciel d'IA d'OpenAI, la société est accusée d'avoir violé plusieurs dispositions du RGPD

« Nous nous dirigeons à grands pas vers un Internet fortement influencé par l'IA, bourré de pépins, de spams et d'escroqueries », affirme un journaliste senior du MIT Technology Review

Que peut vous apporter l'outil ChatGPT ? L'essence même du puissant chatbot d'IA générative est dévoilée à travers une enquête auprès des utilisateurs d'Internet

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de
https://www.developpez.com
Le 13/04/2023 à 23:43
Mais les demandes et ce qu'en font les personnes ...
C'est vraiment du même niveau que les gens qui veulent interdire des stylos ou du papier ou des forums parce qu'on peut écrire de mauvaise choses dessus.
0  0