Des utilisateurs de ChatGPT ont repéré un problème inhabituel qui empêche le chatbot IA de prononcer le nom « David Mayer ». L'outil d'IA extrêmement populaire d'OpenAI répond aux demandes d'écriture du nom par un message d'erreur, indiquant : « Je ne suis pas en mesure de produire une réponse ». Le fil de discussion est alors interrompu et les utilisateurs sont obligés d'ouvrir une nouvelle fenêtre de discussion pour continuer à interagir avec ChatGPT. Cette question a suscité des inquiétudes quant à l'utilisation par des entreprises technologiques comme OpenAI de leurs plateformes pour censurer l'information.Les utilisateurs de la plateforme d'IA conversationnelle ChatGPT ont découvert un phénomène intéressant au cours du week-end : le populaire chatbot a refusé de répondre aux questions lorsqu'on lui parle d'un « David Mayer ». Lorsqu'on lui demande de le faire, il se fige instantanément. Des théories du complot ont vu le jour, mais une raison plus ordinaire pourrait être à l'origine de ce comportement étrange.
Le week-end dernier, la nouvelle s'est rapidement répandue que le nom était un poison pour le chatbot, et de plus en plus de personnes ont essayé de tromper le service pour qu'il reconnaisse simplement le nom. Pas de chance : chaque tentative de faire épeler ce nom spécifique par le ChatGPT le fait échouer ou même s'interrompre en plein milieu du nom.
À noter que si c'est le nom David Mayer qui a d'abord soulevé l'intérêt sur internet, depuis, on a découvert que plusieurs autres noms créaient le même genre de réaction sur ChatGPT, notamment Brian Hood, Jonathan Turley, Jonathan Zittrain, David Faber et Guido Scorza (D'autres ont sans doute été découverts depuis, cette liste n'est donc pas exhaustive).
Qui sont ces hommes ? Et pourquoi ChatGPT les déteste-t-il tant ? OpenAI n'ayant pas répondu aux demandes répétées des médias, certains internautes se sont mis à énoncer des théories.
Certains de ces noms peuvent appartenir à n'importe qui. Mais un fil conducteur potentiel identifié par les utilisateurs de ChatGPT est que ces personnes sont des personnalités publiques ou semi-publiques qui peuvent préférer que certaines informations soient « oubliées » par les moteurs de recherche ou les modèles d'IA.
Des fausses histoires crées par ChatGPT pour diffamer lourdement des innocentsDepuis ce weekend des utilisateurs ont découvert qu’ils ne pouvaient pas poser des questions sur un certain David Mayer. Outre les délires complotistes qui cela a généré, cela permet de comprendre comment aujourd’hui OpenAI contrôle des réponses et de « censure » ⤵️ pic.twitter.com/Uzt64hDPXB
— Ari Kouts (@arikouts) December 2, 2024
On parle d'hallucination dans les chatbots d'IA lorsqu'une machine fournit des réponses convaincantes, mais complètement inventées. Ce phénomène n'est pas nouveau et des développeurs ont mis en garde contre des modèles d'IA convaincus de faits totalement faux, en tentant de répondre à des questions par des réponses inventées. Les hallucinations sont l'une des principales caractéristiques des modèles d'IA, car ils exigent la capacité de reformuler, de résumer et de présenter des textes complexes sans contraintes. Cela soulève le problème des faits qui ne sont pas avérés et qui peuvent être traités dans leur contexte lorsqu'on présente l'information comme crible.
En fait, un chatbot d'IA pourrait éventuellement prendre en compte des informations largement disponibles plutôt que des informations factuelles. Le problème devient particulièrement aigu lorsque l'on utilise une grammaire complexe ou des sources obscures. « Nous nous dirigeons à grands pas vers un Internet fortement influencé par l'IA, bourré de pépins, de spams et d'escroqueries », a récemment écrit un journaliste du MIT Technology Review. Sommes-nous déjà à ce stade ? Les accusations de désinformation et de diffamation visant ChatGPT se sont multipliées et certaines personnes concernées ont même intenté une action en justice.
Selon les enquêteurs en herbe, chacun des noms cités plus haut correspond à un individu qui a porté plainte contre OpenAI, subi une hallucination de la part de l'outil ou fait une demande de droit à l'oubli. Dans l'UE, par exemple, le RGPD a en effet consacré le droit à l'oubli numérique, qui permet aux citoyens de l'Union européenne de demander à ce que des liens renvoyant vers un contenu leur portant préjudice soient retirés des moteurs de recherche.
Jonathan Turley
L'année dernière, Jonathan Turley, professeur de droit à l'université George Washington, a [URL="https://intelligence-artificielle.developpez...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.


