IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Pourquoi ChatGPT refusait d'écrire certains noms comme «David Mayer» ? Lancer une requête sur le sujet mettait prématurément fin à la discussion
Un comportement inattendu qui a suscité la curiosité d'Internet

Le , par Stéphane le calme

27PARTAGES

4  0 
Des utilisateurs de ChatGPT ont repéré un problème inhabituel qui empêche le chatbot IA de prononcer le nom « David Mayer ». L'outil d'IA extrêmement populaire d'OpenAI répond aux demandes d'écriture du nom par un message d'erreur, indiquant : « Je ne suis pas en mesure de produire une réponse ». Le fil de discussion est alors interrompu et les utilisateurs sont obligés d'ouvrir une nouvelle fenêtre de discussion pour continuer à interagir avec ChatGPT. Cette question a suscité des inquiétudes quant à l'utilisation par des entreprises technologiques comme OpenAI de leurs plateformes pour censurer l'information.

Les utilisateurs de la plateforme d'IA conversationnelle ChatGPT ont découvert un phénomène intéressant au cours du week-end : le populaire chatbot a refusé de répondre aux questions lorsqu'on lui parle d'un « David Mayer ». Lorsqu'on lui demande de le faire, il se fige instantanément. Des théories du complot ont vu le jour, mais une raison plus ordinaire pourrait être à l'origine de ce comportement étrange.

Le week-end dernier, la nouvelle s'est rapidement répandue que le nom était un poison pour le chatbot, et de plus en plus de personnes ont essayé de tromper le service pour qu'il reconnaisse simplement le nom. Pas de chance : chaque tentative de faire épeler ce nom spécifique par le ChatGPT le fait échouer ou même s'interrompre en plein milieu du nom.


À noter que si c'est le nom David Mayer qui a d'abord soulevé l'intérêt sur internet, depuis, on a découvert que plusieurs autres noms créaient le même genre de réaction sur ChatGPT, notamment Brian Hood, Jonathan Turley, Jonathan Zittrain, David Faber et Guido Scorza (D'autres ont sans doute été découverts depuis, cette liste n'est donc pas exhaustive).

Qui sont ces hommes ? Et pourquoi ChatGPT les déteste-t-il tant ? OpenAI n'ayant pas répondu aux demandes répétées des médias, certains internautes se sont mis à énoncer des théories.

Certains de ces noms peuvent appartenir à n'importe qui. Mais un fil conducteur potentiel identifié par les utilisateurs de ChatGPT est que ces personnes sont des personnalités publiques ou semi-publiques qui peuvent préférer que certaines informations soient « oubliées » par les moteurs de recherche ou les modèles d'IA.

[TWITTER]<blockquote class="twitter-tweet"><p lang="fr" dir="ltr">Depuis ce weekend des utilisateurs ont découvert qu’ils ne pouvaient pas poser des questions sur un certain David Mayer. Outre les délires complotistes qui cela a généré, cela permet de comprendre comment aujourd’hui OpenAI contrôle des réponses et de « censure » ⤵️ <a href="https://t.co/Uzt64hDPXB">pic.twitter.com/Uzt64hDPXB</a></p>— Ari Kouts (@arikouts) <a href="https://twitter.com/arikouts/status/1863626705295843416?ref_src=twsrc%5Etfw">December 2, 2024</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script> [/TWITTER]

Des fausses histoires crées par ChatGPT pour diffamer lourdement des innocents

On parle d'hallucination dans les chatbots d'IA lorsqu'une machine fournit des réponses convaincantes, mais complètement inventées. Ce phénomène n'est pas nouveau et des développeurs ont mis en garde contre des modèles d'IA convaincus de faits totalement faux, en tentant de répondre à des questions par des réponses inventées. Les hallucinations sont l'une des principales caractéristiques des modèles d'IA, car ils exigent la capacité de reformuler, de résumer et de présenter des textes complexes sans contraintes. Cela soulève le problème des faits qui ne sont pas avérés et qui peuvent être traités dans leur contexte lorsqu'on présente l'information comme crible.

En fait, un chatbot d'IA pourrait éventuellement prendre en compte des informations largement disponibles plutôt que des informations factuelles. Le problème devient particulièrement aigu lorsque l'on utilise une grammaire complexe ou des sources obscures. « Nous nous dirigeons à grands pas vers un Internet fortement influencé par l'IA, bourré de pépins, de spams et d'escroqueries », a récemment écrit un journaliste du MIT Technology Review. Sommes-nous déjà à ce stade ? Les accusations de désinformation et de diffamation visant ChatGPT se sont multipliées et certaines personnes concernées ont même intenté une action en justice.

Selon les enquêteurs en herbe, chacun des noms cités plus haut correspond à un individu qui a porté plainte contre OpenAI, subi une hallucination de la part de l'outil ou fait une demande de droit à l'oubli. Dans l'UE, par exemple, le RGPD a en effet consacré le droit à l'oubli numérique, qui permet aux citoyens de l'Union européenne de demander à ce que des liens renvoyant vers un contenu leur portant préjudice soient retirés des moteurs de recherche.


Jonathan Turley

L'année dernière, Jonathan Turley, professeur de droit à l'université George Washington, a soudainement appris qu'il était l'accusé dans une affaire de harcèlement sexuel. Le professeur n'avait pas connaissance de cette histoire jusqu'en avril 2023 parce qu'elle venait tout juste d'être inventée de toutes pièces par ChatGPT. En fait, dans le cadre d'une étude, un collègue avocat californien a demandé à ChatGPT de générer une liste de juristes ayant harcelé sexuellement quelqu'un. À sa grande surprise, le nom de Turley figurait sur la liste générée par le Chatbot d'IA d'OpenAI. Le collègue a ensuite envoyé un courriel à Turley pour l'informer de sa découverte.

En développant l'histoire concernant Turley, ChatGPT a déclaré que le professeur avait fait des commentaires sexuellement suggestifs et tenté de toucher une étudiante lors d'un voyage de classe en Alaska, citant un article de mars 2018 du Washington Post comme source. Le problème ? Un tel article n'existe pas. Il n'y a jamais eu de voyage de classe en Alaska. Et Turley n'a jamais fait l'objet d'une telle accusation. « ChatGPT avait faussement rapporté une plainte pour harcèlement sexuel qui n'a jamais été déposée contre moi lors d'un voyage qui n'a jamais eu lieu, alors que je faisais partie d'une faculté où je n'ai jamais enseigné », s'est défendu Turley.

Commentateur régulier dans les médias, Turley a parfois demandé des corrections dans des articles de presse. Mais cette fois-ci, il n'y avait ni journaliste ni rédacteur en chef à appeler et il n'y avait aucun moyen de rectifier les faits. « Cela m'a fait froid dans le dos. Une telle allégation est incroyablement préjudiciable », a déclaré Turley lors d'une interview accordée au quotidien The Post. Selon un billet de blogue publié par Turley, en enquêtant sur cette fausse histoire, le Washington Post a remarqué que le chatbot Bing Chat de Microsoft, qui est basé sur le modèle d'IA GPT-4, a répété la même fausse affirmation concernant le professeur.

Brian Hood

Brian Hood, maire de la ville de Hepburn Shire Council, au nord de Melbourne, en Australie, a envisagé de poursuivre OpenAI pour diffamation après que ses administrés ont commencé à lui dire que ChatGPT avait allégué qu'il purgeait une peine de prison pour corruption. Mais la réalité est tout autre. Non seulement, Hood affirme qu'il n'a jamais été en prison, mais il rappelle également qu'il est le lanceur d'alerte qui a signalé la corruption en premier lieu. Cette histoire montre une fois de plus que le problème l'hallucination et les erreurs fréquentes de ChatGPT, mais également des chatbots d'IA concurrents, commencent à avoir des conséquences dans le monde réel.

« Il s'agit d'un élu, sa réputation est au cœur de son rôle. Ce serait potentiellement d'un moment historique dans le sens où il s'agit d'appliquer la loi sur la diffamation à un nouveau domaine de l'IA et de la publication dans le secteur des technologies de l'information », a déclaré l'avocat James Naughton, partenaire de Gordon Legal, qui représente Hood. Les administrés du maire l'ont informé que le chatbot d'IA a prétendu qu'il faisait partie des personnes reconnues coupables dans une affaire de corruption qui s'est déroulée entre 1999 et 2004 et qui impliquait une entité de la Banque de réserve d'Australie, notamment Note Printing Australia.

Or, c'est tout le contraire qui s'est produit : oui, Hood a travaillé à Note Printing Australia, mais ses avocats affirment que c'est lui qui a signalé les pots-de-vin aux autorités étrangères et qu'il n'a pas été inculpé lui-même. Aujourd'hui, Hood craint que son nom ne soit terni si des affirmations inexactes sont diffusées par ChatGPT. Fin mars 2023, l'équipe juridique de Hood a adressé une lettre de préoccupation à OpenAI, demandant à l'entreprise américaine de corriger les erreurs dans un délai de 28 jours. Dans le cas contraire, l...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de petitours
Membre émérite https://www.developpez.com
Le 14/03/2025 à 10:31
L'art de vouloir le beurre , l'argent du beurre et la crémière, le tout en tuant la poule aux œufs d'or

Tout ceci ne fait que montrer que l'IA n'a pas de valeur, seuls ceux qui créent la donnée produisent de la valeur.

Pourquoi n'évoque t-il pas le fait logique et simple de rémunérer les créateurs de valeur ?
7  0 
Avatar de petitours
Membre émérite https://www.developpez.com
Le 14/03/2025 à 15:04
Citation Envoyé par Artaeus Voir le message
[...] les ayants droits [...]
oui les ayants droits

Citation Envoyé par Artaeus Voir le message
J'ai beaucoup de mal avec cette idée que les ayants droits doivent toujours toucher de l'argent pour un entrainement d'IA ...

L'IA est un simple réseau de neurone qui ne reproduit pas l'oeuvre, tout comme un être humain peu s'inspirer d'un film/livre.
A-t-on payer un "droit" quand les robots ont remplacé les caissières ou les ouvriers ? Ont-ils eut la moindre compensation ? Pourquoi les artistes (en vrai, les ayants-droits) auraient ce privilèges ?

A la rigueur, l'IA devrait payer une fois l'oeuvre comme un humain, et c'est tout, pour éviter que les ayants-droits aient encore une rente supplémentaire.
L'IA ne reproduit pas l'oeuvre mais elle fait du beurre grace à l'oeuvre et dans ce cas précis elle met en difficulté l'auteur qui ne peut plus se rémunérer.

Un exemple pour aider à comprendre : les films. Qui produirait des films s'il fallait dépenser des millions pour les faire et ne jamais rien toucher en retour ?

Pour la caissière c'est malheureux et la remplacer par un robot une vraie ânerie sociétale, mais son sujet a absolument rien à voir avec le problème du droit d'auteur.

Et ça ne concerne pas que les artistes, ça concerne tous ceux qui produisent du contenu de valeur. S'ils ne peuvent plus se rémunérer (= vivre) ils font comment ?
6  0 
Avatar de OuftiBoy
Membre éprouvé https://www.developpez.com
Le 03/12/2024 à 16:08


Citation Envoyé par edrobal Voir le message
Je prêche dans le vide mais je répète que l'IA cela n'existe pas, c'est juste un habillage de marketing pour des algorithmes de traitement de masses de données.
Oui, l'IA n'existe pas. C'est juste, comme tu le dis bien, un habillage marketing, où l'on remplace le terme "Algorithme" par le terme "IA". La différence de perception, seuls des gens sachant de quoi ils parlent savent la comprendre.

Mr. et Md. "tout-le-monde" y croyent car avant on leur parlait de "technique", et ça leur passait au-dessus de la tête. Renommer algorithme par IA, et ça les touchent un peu plus, car dans le terme IA, il y a "intelligence", chose qu'ils "comprennent mieux".

Quand on me parle de l'IA, je finis toujours par : "Et à fin, il y a un 'IF'. Un oui ou non.

Mais l'IA est une "nouvelle" sorte d'algo, qui fait un énorme traitement, d'une toute aussi énorme masse de données, et utilisant une gigantesque quantité d'énergie. Cette manière de procéder est nouvelle, dans le sens où elle n'était (par des limites matérielles) pas possible auparavant.

Comme beaucoups d'autres "inventions", il y aura du bon et du mauvais. Cette manière de procéder sera adaptée à certains domaines, et n'apportera rien dans d'autres domaines. Cela dépendra aussi de la qualité et de la pertinence des données que pourra traiter une IA.

Un peu d'histoire...

  • L'imprimerie en tant que "technique" ne faisait rien de "miraculeux", mais ça a aidé à diffuser le "savoir". L'imprimerie étant plus rapide qu'un moine copiste.
  • La radio ne créait rien non plus, mais a permis une plus grande diffusion du savoir.
  • Internet, à ses débuts, a aider à partager le savoir.
  • Les moteurs de recherche on permis de "trouver plus vite" le savoir.
  • L'IA va aider a mettre en pratique un savoir, et c'est là le danger. L'IA ne va rien "inventer", mais va permettre à des "non initiés" de "(re)produire" des "choses" qu'ils ne maîtrissent pas. Où est le danger ? Pour moi, l'écart va se creuser entre ceux "qui savent" et d'autres "qui font".


En résumant, ce n'est pas parce que l'on sait utiliser une calculatrice, qu'il ne faut pas continuer a apprendre les mathématiques.

BàV et Peace & Love.
4  0 
Avatar de Gluups
Membre expert https://www.developpez.com
Le 15/03/2025 à 14:02
Citation Envoyé par Artaeus Voir le message
pour éviter que les ayants-droits aient encore une rente supplémentaire.
Est-ce que ce n'est pas justement ce qu'il convient de ne pas éviter ?

Il a bien fallu quelqu'un pour que l'œuvre existe.
4  0 
Avatar de _toma_
Membre éclairé https://www.developpez.com
Le 12/12/2024 à 23:44
C'est toujours la même chose : ceux qui prônent une économie dérégulée et qui chient sur un état qui les contraint dans leurs mouvements sont les premiers à venir pleurer auprès de l'état quand ce ne sont pas eux qui sont en position de force.

"Un marché libre, oui, mais à condition que je sois toujours gagnant."

Qu'il soient fabricants de voitures, d'avions ou d'ordinateurs, c'est le même scénario.
2  0 
Avatar de Nym4x
Membre confirmé https://www.developpez.com
Le 15/03/2025 à 6:03
C’est juste du pillage de connaissance et
d’œuvres à des fins commerciales. C’est un peu comme si je me mettais à photocopier des livres, puis à découper des passages des photocopies pour les assembler afin de faire un nouveau livre pour ensuite le vendre à d’autres personnes en me faisant un max d’argent. Le tout de façon automatisée et massive. Vu le sacro saint droit de propriété aux États Unis, je ne pense pas que le pilllage dure encore bien longtemps…
2  0 
Avatar de Mat.M
Expert éminent sénior https://www.developpez.com
Le 01/01/2025 à 20:20
Citation Envoyé par calvaire Voir le message
les "talents" devrait urgemment trouver du taff ailleurs car il n'ont plus aucun avenir chez amazon, surement plus aucune augmentation de salaire et des conditions de travails qui vont se dégrader.
hhhmm je pense que chez Amazon c'est surtout des caristes, des préparateurs de commande, des manutentionnaires oui dont on a besoin et non pas des salariés de la tech..
et si ça ne recrute plus dans la tech vous seriez prêt à travailler comme manutentionnaire chez Amazon ?
1  0 
Avatar de ec
Membre confirmé https://www.developpez.com
Le 15/03/2025 à 19:55
Citation Envoyé par floyer Voir le message
Cette histoire de "attention, que va devenir telle profession ?", avec l'exemple de la caissière a déjà été posé dans les années 1800 avec la révoltes des Canuts qui s'opposait déjà à de l'automatisation.

Cependant, il y a une différence majeure ici : l'apport de l'IA est stérile, et n'apportera rien, alors que l'artiste est susceptible de produire des choses nouvelles, se réinventer. ET je pense que même si on se place du côté du consommateur, on a à perdre si l'IA évince les vrais artistes. J'avais entendu une chronique sur France Info, où il était question d'utiliser l'IA pour produire des sonates à la manière de Beethoven. Le critique musical invité avait noté que l'IA avait fait un bon boulot pour s'inspirer de Beethoven... sauf que Beethoven se réinventait à chaque sonate, alors que l'IA n'était pas arrivé à produire quelque chose de vraiment neuf.
Oui j'ai entendu aussi cette chronique de France info. Il n'y a rien de surprenant. Mais cet aspect de l'IA va quand même séduire des tas de gens qui se retrouvent bien dans la "répétition" artistique et sont indifférents à la véritable création.
Pour ce qui est du "grand remplacement par les robots dopés à l'IA", décidément les angoisses se télescopent de sujets en sujets avec la même irrationalité, Il est clair que l'IA va bouleverser l'organisation économique. Ceux qui n'arrivent pas à visionner ce bouleversement décidé par d'autres sont inquiets, mais à mon avis à juste titre. Parce que ceux qui réorganiseront avec l'IA ne sont pas dans la peau de ceux qui subiront la réorganisation. C'est là que la notion de respect humain prendra toute sa place, comment accompagner cette évolution, c'est à dire la découvrir en même temps que la faire découvrir, corriger ses aberrations éventuelles, écouter ceux qui en voient que les organisateurs ne voient pas.
1  0 
Avatar de calvaire
Expert éminent https://www.developpez.com
Le 16/03/2025 à 9:58
Citation Envoyé par vVDB.fr Voir le message
l'IA ne fait que du plus probable donc s'appuie sur ses bases de données en permanence.
Le probable n'est pas la 'bonne' réponse, c'est la réponse du 'beauf'.
Une IA développée avec les connaissances sous Charlemagne va répondre 'plate' a la question comment est la terre : réponse débile car c'est ce que demande le dogme de la religion d'alors, les croyances ne sont pas intelligentes par construction. Ce n'est pas la réponse convenable, intelligente puisque en 200 AV-JC un grec à Alexandrie avait montré qu'elle était sphérique... Mais impossible de donner cette réponse car hérétique. Des siècles plus tard Galilée a failli être brûlé vif pour avoir dit que la terre n'était pas au centre du monde.
Le probable, ce qui est attendu par la masse n'est malheureusement pas une réponse intelligente, l'IA ne peut pas être bâtie sur le probable. Si la masse d'informations sont des fakes alors l'IA répendra les fakes comme vérité absolue.
Les sociétés d'IA (ChatGPT, et consorts) doivent être responsable des contenus que génèrent l'IA qu'ils commercialisent (même gratuitement) : on évite les fakes, les bugs (ou hallucinations, extrapoler est une erreur de conception)
Être intelligent, c'est savoir qu'on ne sait pas. Donc ne pas répondre !
elle a aussi un énorme biais politique.

chatgpt est orienté de gauche, peu importe les questions neutre que je lui pose en matière de politique/économique, elle propose quasi systématiquement par defaut que des solutions de gauche modéré, jamais des solutions de droite/néolibéralisme/libertarien et encore moins d’extrême gauche/droite.
3  2 
Avatar de Gluups
Membre expert https://www.developpez.com
Le 03/12/2024 à 20:05
Citation Envoyé par Stéphane le calme Voir le message
Pourquoi ChatGPT refusait d'écrire certains noms comme « David Mayer » ?
Lancer une requête sur le sujet mettait prématurément fin à la discussion, un comportement inattendu qui a suscité la curiosité d'Internet

Ouille, entre le titre et le texte, il y a pas mal de sujets, évoqués dans ce fil.

Le titre, tout d'abord. Il nous a fallu un sacré paquet de dizaines d'années avant d'interdire aux juges de réclamer une preuve que quand on verse des tonnes de mercure dans une rivière, ce n'est pas bon pour la santé des poissons. Eh bien le problème a tendance à apparaître encore dans les pays qui n'ont pas parcouru les mêmes étapes. A ce qui est dit ici, le même report peut être observé pour les faits d'esclavage des "temps modernes". Dans le textile on commence à savoir faire la publicité qu'il faut, et encore s'agit-il de voir si ça marche autant qu'il faut.

Si maintenant c'est Microsoft qu'il s'agit de placer devant ses responsabilités, par où est-ce qu'on commence ?

Après le titre, voyons voir maintenant le texte. Il nous adresse une mise en garde intéressante, qui fait toutefois se demander si l'auteur ne souffre pas d'un cruel manque d'information. Une recherche sur "harcèlement suicides adolescentes" permettra une première approche.

Et alors effectivement, ce n'était pas la peine d'automatiser la pensée si c'était pour arriver aux mêmes dérives.
Il aurait été intéressant que les auteurs d'"IA" mettent eux-mêmes les garde-fous sans qu'il soit besoin de le leur demander. Si ça n'a pas été le cas, quelle action doit être menée, par qui ? La représentation nationale pourrait être une idée assez spontanée de vers qui se tourner, mais le spectacle qu'elle nous offre actuellement peut rendre prudent de ce côté.
0  0