IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Le chatbot d'IA Grok d'Elon Musk continue d'inventer des infox basées sur les blagues des utilisateurs de X et commet des erreurs "stupides",
Ce qui amplifie la désinformation sur la plateforme

Le , par Mathis Lucas

11PARTAGES

13  0 
Elon Musk, propriétaire du réseau social X, a fait le choix de permettre à son chatbot d'IA Grok d'accéder en temps réel aux messages publiés sur le site. Mais cette approche semble se retourner contre lui en raison de la faible qualité des informations produites par les utilisateurs de la plateforme. Grok génère de plus en plus d'informations biaisées et d'infox et commet des erreurs stupides. Le chatbot a même répandu des informations diffamatoires en accusant à tort une star de la NBA de vandalisme criminel. Grok est censé analyser en temps réel les messages de X pour partager des résumés des dernières nouvelles, mais l'expérience semble partir en vrille.

Grok est un chatbot d'IA développé par la startup xAI lancée par Elon Musk l'année dernière. Musk a notamment lancé xAI pour développer un rival de ChatGPT, le chatbot d'OpenAI qu'il accuse d'être woke et de promouvoir les idées de gauche, tout en censurant les voix des conservateurs. Contrairement à ses rivaux, Grok a la capacité d'accéder à des informations en temps réel grâce à une intégration avec le réseau social X (ex-Twitter). En outre, Grok se différencie des autres par le fait qu'il est prêt à s'attaquer à des questions "épicées" et est programmé pour le faire d'une manière à la fois spirituelle et surtout peu rebelle.

Mais les performances de Grok semblent se dégrader rapidement, notamment en matière d'exactitude dans les réponses. Il ne s'agit pas de petites erreurs, mais d'erreurs très stupides, sans parler du fait que le chatbot a participé à la diffusion d'informations erronées sur des événements mondiaux de premier plan. Au début du mois, Grok a diffusé de nombreuses infox sur l'éclipse en titrant : « le comportement étrange du soleil : les experts déconcertés ». Dans son article, le chatbot d'Elon Musk expliquait que "le soleil s'était comporté de manière inhabituelle, suscitant l'inquiétude et la confusion auprès du grand public".


L'article affirme que malgré l'inquiétude croissante du public, "il n'y a pas eu de déclaration officielle ou d'explication de la part des autorités scientifiques concernant l'état actuel du soleil". Il va sans dire que les scientifiques comprennent parfaitement ce qui se passe avec l'éclipse solaire, qui a été observée par des millions de curieux en Amérique du Nord le 8 avril dernier. Il n'y a pas de mystère sur les raisons d'une éclipse, malgré ce qu'affirment certains politiciens américains marginaux. Grok aurait fait ces étranges proclamations en se référant à des blagues faites par des gens qui se demandaient où était passé le soleil.

« QU'EST-CE QUI SE PASSE AVEC LE SOLEIL EN CE MOMENT ? ? ???? », pouvait-on lire lundi dans le premier message sur X, écrit par l'humoriste Michael Ian Black. « Il se passe quelque chose avec le soleil. Je ne veux alarmer personne, mais il semble que je ne sois pas le seul à le remarquer », a plaisanté un autre utilisateur. Mais ce n'est pas tout. Plus récemment Grok a diffusé des infox sur la star de NBA Klay Thompson après s'être trompé sur le sens de certains termes utilisés dans le jargon du basketball. Grok a titré : « Klay Thompson est accusé d'avoir commis des actes de vandalisme bizarres avec des briques ».

Sous le titre, le chatbot de Musk a apporté encore plus de détails pour étayer sa fausse information : « la star de la NBA Klay Thompson a été accusée d'avoir vandalisé de nombreuses maisons à l'aide de briques à Sacramento. Les autorités enquêtent sur ces allégations après que plusieurs personnes ont signalé que leur maison avait été endommagée et que des fenêtres avaient été brisées par des briques. Klay Thompson n'a pas encore fait de déclaration concernant ces accusations. Les incidents ont ébranlé la communauté, mais aucun blessé n'a été signalé. Le motif de ces actes de vandalisme n'est toujours pas clair ».

En effet, Grok semble confondre un terme courant du basketball, où l'on dit que les joueurs lancent des "briques". (Il désigne familièrement un tir manqué qui ne touche pas l'arceau du panier, mais uniquement la planche.) Selon le site SFGate, qui a été l'un des premiers à signaler l'erreur de Grok, Thompson a eu une soirée de "tirs difficiles", ne réussissant aucun de ses tirs lors de ce qui était son dernier match émotionnel avec les Golden State Warriors avant de devenir un agent libre sans restriction. Les utilisateurs ont parlé de "briques" pour discuter de la prestation de Klay Thompson, mais Grok les a mal interprétés.

[tweet]<blockquote class="twitter-tweet"><p lang="en" dir="ltr">First off… I am ok.<br><br>My house was vandalized by bricks &#129521; <br><br>After my hands stopped shaking, I managed to call the Sheriff…They were quick to respond&#128680; <br><br>My window was gone and the police asked if I knew who did it&#128110;*&#9794;&#65039; <br><br>I said yes, it was Klay Thompson</p>&mdash; LakeShowYo (@LakeShowYo) <a href="https://twitter.com/LakeShowYo/status/1780452033121702267?ref_src=twsrc%5Etfw">April 17, 2024</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script>[/tweet]

En petits caractères sous l'article de Grok, X inclut une clause de non-responsabilité indiquant : « Grok est une fonctionnalité précoce et peut faire des erreurs. Vérifiez ses résultats ». Mais au lieu de cela, il semble que les utilisateurs de X - dans l'esprit de plaisanterie bien connu du service - aient décidé d'alimenter la désinformation de Grok. Sous le message, des utilisateurs de X, dont certains fans de la NBA, ont commenté avec de faux rapports de victimes, utilisant le même format de blague pour apparemment convaincre le chatbot de Musk que plusieurs personnes ont signalé que leur maison avait été endommagée.

Certains de ces commentaires ont été vus par des millions de personnes. Par le passé, OpenAI et son principal investisseur Microsoft ont fait l'objet de poursuites en diffamation pour des proclamations similaires, ChatGPT ayant accusé à tort un homme politique et un animateur radio d'avoir des antécédents criminels complètement inventés. Microsoft a également été poursuivie par un professeur d'aérospatiale que Copilot (alors Bing Chat) avait faussement qualifié de terroriste. Musk, son réseau social X et sa startup xAI tentent d'échapper à ce type de poursuites en mettant en place une clause de non-responsabilité.

Mais des experts affirment qu'il n'est pas certain que cela permette aux entreprises d'échapper à toute responsabilité si un plus grand nombre de personnes décident d'intenter des actions en justice pour des résultats d'IA erronés. Les plaintes pour diffamation pourraient dépendre de la preuve que les plateformes publient "sciemment" de fausses déclarations, ce que les clauses de non-responsabilité suggèrent. En juillet dernier, la Federal Trade Commission (FTC) a ouvert une enquête sur OpenAI, exigeant que l'entreprise réponde aux inquiétudes de la FTC concernant les résultats "faux, trompeurs ou désobligeants" de l'IA.

X a lancé Grok pour tous les utilisateurs payants ce mois-ci, juste au moment où X a commencé à donner un accès premium aux meilleurs utilisateurs de la plateforme. Pendant le déploiement, X a vanté la nouvelle capacité de Grok à résumer toutes les actualités et tous les sujets en vogue, ce qui a peut-être suscité l'intérêt pour cette fonctionnalité et fait grimper l'utilisation de Grok juste avant que Grok ne crache un message potentiellement diffamatoire sur la star de la NBA. Les proclamations de Grok sur l'éclipse et sur Klay Thompson ne sont que deux des cas les plus médiatisés où le chatbot de Musk a diffusé des infox.


Grok a également généré de faux titres et de faux contenus d'actualité sur la montée des tensions entre l'Iran et Israël. Et les faux titres et les faux contenus générés par Grok ont ensuite été promus par X dans sa section officielle d'actualités en vogue. Au début du mois, Grok a titré : « l'Iran frappe Tel-Aviv avec des missiles lourds ». Bien sûr, il s'agissait d'une infox publiée par Grok et promue par X. De nombreux responsables politiques ont qualifié l'erreur de Grok de grave. Il convient toutefois de noter que l'Iran a récemment lancé des frappes contre Israël en riposte à une attaque israélienne contre son consulat en Syrie.

En outre, Grok n'est pas le seul chatbot présentant des vulnérabilités qui le rendent potentiellement dangereux pour les utilisateurs. Ce mois-ci, une startup spécialisée dans la sécurité de l'IA, AdversaAI, a publié un rapport sur les vulnérabilités trouvées dans les chatbots les plus populaires, dont Grok de xAI, Claude d'Anthropic, Gemini de Google, Copilot de Microsoft, Mistral Chat et ChatGPT d'OpenAI. Selon le rapport, l'équipe rouge de AdversaAI a exploité certaines des attaques les plus courantes contre les chatbots pour déjouer les filtres et générer des résultats nuisibles que les entreprises ont l'intention de restreindre.

Parmi tous les chatbots, Grok et Mistral Chat sont arrivés ex aequo en tête des chatbots les moins sûrs. Alex Polyakov, fondateur d'AdversaAI, a déclaré que son équipe a constaté que Grok est le chatbot le moins bien protégé contre les piratages de l'IA, ce qui est embarrassant si l'on tient compte du fait que ce n'est pas une personne quelconque, mais Elon Musk qui est responsable de sa sûreté et de sa sécurité. Selon le rapport, lors d'un test, l'équipe d'AdversaAI a découvert que le chatbot de Musk n'avait même pas besoin d'une quelconque forme d'attaque pour générer des résultats sur la façon de créer une bombe.

Grok fait partie des chatbots les plus récents que les utilisateurs expérimentent aujourd'hui, et il est intentionnellement conçu pour être rebelle et sans filtre, pour le plus grand plaisir du propriétaire de Musk. Ses fonctionnalités continuent de se développer, Musk ayant récemment annoncé que Grok pouvait comprendre les images et prévoyant qu'un jour prochain, les utilisateurs pourront composer des messages X avec Grok.

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous de la tendance du chatbot Grok d'Elon Musk à diffuser des infox ?
Comment Elon Musk et les siens peuvent-ils faire face à ce problème épineux ?
L'accès de Grok aux messages publiés par les utilisateurs de X est-il une mauvaise idée ?

Voir aussi

xAI d'Elon Musk publie l'architecture de son LLM de base Grok-1, sous forme de code open source avec un modèle "Mixture-of-Experts" de 314 milliards de paramètres

Vulnérabilités des chatbots IA : Grok d'Elon Musk obtient la pire note en matière de sécurité parmi les LLM les plus populaires, selon les tests d'Adversa AI. Llama de Facebook fait mieux que ChatGPT

Elon Musk publie le code source de son chatbot d'IA Grok dans le cadre de la dernière escalade de la guerre de l'IA, il est publié sous la licence Apache 2.0 qui autorise l'utilisation commerciale

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de virginieh
Membre expérimenté https://www.developpez.com
Le 22/04/2024 à 7:42
Citation Envoyé par Aiekick Voir le message
au debut j'étais admiratif d'elon musk. je me disait, le mec aprt de zero et va au bout de ses reves.

maintenant je pense que c'est un paradoxe. a la fois tres intelligent, et un cretin fini. une sorte de politique quoi
Oui enfin part de zéro ...

Tu connais l'histoire du millionnaire ? (je sais plus lequel c'est censé être)
Comment je suis devenu millionnaire ? C'est très simple, j'ai acheté une pomme moche, je l'ai frottée et revendue le double, puis j'ai acheté 2 pommes et j'ai recommencé. Puis mon grand père m'a donné 1 million.

Si tu enlève des "self-made" tous ceux qui ont lancé leur(s) boite(s) sponsorisées par leurs parents il n'en reste plus beaucoup.
7  0 
Avatar de Aiekick
Membre extrêmement actif https://www.developpez.com
Le 20/04/2024 à 12:44
au debut j'étais admiratif d'elon musk. je me disait, le mec aprt de zero et va au bout de ses reves.

maintenant je pense que c'est un paradoxe. a la fois tres intelligent, et un cretin fini. une sorte de politique quoi
3  0 
Avatar de totozor
Expert confirmé https://www.developpez.com
Le 22/04/2024 à 7:51
Citation Envoyé par Mathis Lucas Voir le message
Quel est votre avis sur le sujet ?
On sait pourtant qu'il ne faut pas former une IA sur un royaume de trolls, on a déjà testé avant avec 4chan, on connait le résultat.
Mais je ne serais pas si critique, Grok est finalement un sous-Gorafi
Que pensez-vous de la tendance du chatbot Grok d'Elon Musk à diffuser des infox ?
Comment diffuser des infos construites sur une plateforme qui limite les messages à 300 caractères?
Twitter est un nid à trolls, Grok est un troll.
L'accès de Grok aux messages publiés par les utilisateurs de X est-il une mauvaise idée ?
Ca ne devrait même pas être une idée.
2  0 
Avatar de Artae
Membre régulier https://www.developpez.com
Le 30/08/2024 à 19:16
Il a toujours été très accessible de faire un trucage avec photoshop ou gimp, à l'époque les gens étaient bien moins informé et il y a eu peu de désinformation.

La question de la responsabilité concernant les fake news IA, n'est pas a posé du côté de l'IA, des dev, ou autres. Elle est du côté de l'utilisateur.
Quelqu'un a parfaitement le droit de créer une fausse image et de la diffuser, par contre, l'intention de tromper et de manipuler est condamnable.

Cette évolution juridique et des mentalités qui tend à rendre irresponsable les utilisateurs (citoyens) est plus qu'inquiétante pour la démocratie.
Mieux vaudrait se concentrer sur l'enseignement de l'esprit critique, que sur la censure de modèle IA ...
2  0 
Avatar de
https://www.developpez.com
Le 16/08/2024 à 8:30

Gestion des filtres : Faut il censurer la génération d'images de l'IA comme OpenAI le fait avec ChatGPT ou laisser faire comme Elon Musk le fait avec Grok 2 ? Dans quelle mesure ?
Non, simplement. Libre aux différents réseaux sociaux et autres plateformes d'adapter leurs chartes d'utilisation.


Désinformation et contenus offensants : Comment pouvons-nous garantir que Grok ne propage pas de désinformation ou de contenus offensants ?
Alors ce n'est pas Grok, une intelligence artificielle qui propage de la désinformation mais des intelligences humaines, qui utilisent l'IA
Comment faire pour que l'utilisateur d'une plateforme ne propage pas de désinformation ou de contenus offensants ? J'ai 4 potentielles solutions mais elles ne sont évidemment pas exhaustive :
  • Avec une charte d'utilisation des plateformes de partage (réseaux sociaux, forums, etc..) et les sanctions qui vont avec en cas de non-respect.
  • En intégrant des outils de détection d'IA par exemple.
  • Les Notes de la Communauté sur X/Twitter fonctionnent relativement bien. Un contexte est souvent (toujours) apporté sur les fake news, y compris les images générées par IA. Les autres réseaux devraient s'en inspirer.
  • Et le plus important, la sensibilisation : Un utilisateur sensibilisé est un pilier de la sécurité collective.



Créativité humaine : Grok peut générer du contenu, mais comment préserver la créativité individuelle face à cette automatisation ?
En continuant à créer individuellement Les bibliothécaires, journalistes et éditeurs n'ont pas disparu avec l'expansion des moteurs de recherche comme Google à l'époque. Alors je pense que tout comme avec l'arrivée de Google, l'IA fera sans doute évoluer la manière de fonctionner de certains domaine (telle que la créativité individuelle) sans pour autant la faire disparaitre. Ce n'est qu'un outil que personne n'oblige à utiliser.
2  1 
Avatar de OrthodoxWindows
Membre expert https://www.developpez.com
Le 16/08/2024 à 11:29
Tout cela ressemble vraiment à une panique morale... Alors que dans les faits, les conséquences seront très limités. Le seul truc qui m’effraie avec la génération d'image est le risque de désinformation avec les deepfakes. Pour le reste, l'AI générative d'image est loin d'être la plus dangereuse. On devrait (et surtout ces activistes du dimanche) surtout s’inquiéter des risques de la surveillance algorithmique.

« Toutefois, ce problème a été résolu bien avant que ChatGPT ne soit accessible au public. Il est très inquiétant de constater que n'importe qui peut payer X 4 $ pour générer des images de Micky Mouse en train d'effectuer une fusillade de masse contre des enfants »
En quoi pouvoir générer des images de Micky Mouse en train d'effectuer une fusillade de masse contre des enfants représente un danger ?? Personne ne crois que Micky Mouse est un personnage réel...
1  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 16/08/2024 à 11:30
Citation Envoyé par OrthodoxWindows Voir le message
Personne ne crois que Micky Mouse est un personnage réel...
Ouais mais ça ne va pas plaire à Disney.
2  1 
Avatar de OrthodoxWindows
Membre expert https://www.developpez.com
Le 16/08/2024 à 21:09
Citation Envoyé par Ryu2000 Voir le message
Ouais mais ça ne va pas plaire à Disney.
Certes

D'ailleurs quand on y pense, les grosses multinationales de gestion des droits d'auteur (de Disney à Warner en passant par Sony) sont en train de se faire vraiment avoir ; pendant des années, on nous a fait ch*** avec le strict respect du droit d'auteur, désormais ces même pouvoir publiques deviennent très laxistes avec l'IA. La différence est que ce n'a jamais été des multinationales du numérique qui piratais du contenu... Alors qu'avec l'IA, les intérêts financiers ne sont plus les mêmes
1  0 
Avatar de totozor
Expert confirmé https://www.developpez.com
Le 23/08/2024 à 8:22
Citation Envoyé par Ryu2000 Voir le message
Il faut le temps que les lois se fassent, c'est un processus lent.
Je suis moins optimiste que toi là dessus.
Le problème n'est pas le temps législatif mais l'impunité de certains ou la capacité à répondre à ce système.

Je vais donner un exemple : il y a 7-8 ans les troupes d'improvisations théâtrale vers chez moi ont reçu des courriers ou des mails leur signalant qu'elles avaient violées les droits d'auteurs pendant certains de leurs évènements en diffusant au public des musiques qui n'étaient pas libre de droits (de mémoire on leur réclamait 75€ par évènements sur environ 1 an soit entre 300 et 1000€).
Certaines troupes ont décidé de payer vite pour éviter tout problème.
D'autres ont décidé de contester collectivement chaque évènement via courrier d'un avocat.
Une partie des évènements ont été retiré de la liste mais pour d'autres on a reçu la liste des musiques diffusées avec les heures de diffusion.
Je n'ai pas le détail de la suite mais s'en est suivi plusieurs échanges entre avocats pour que finalement ils renoncent à toute demande.

Là où je veux en venir est que si tu as les moyens (en l'occurrence un improvisateur avocat) et que tu pousses l'adversaire à dépenser plus en te répondant qu'il n'y gagnera à la fin, les poursuites sont abandonnées.
Les puissants ont quasiment moyens illimités sur ce genre de sujets stratégique pour eux (regarde les amendes données aux GAFAM qui se répètent tous les ans sans que rien ne change).
Ils sont factuellement au dessus de la loi parce qu'il est plus rentable pour eux de ne pas la respecter et de payer l'amende que de la respecter.
1  0 
Avatar de OuftiBoy
Membre éclairé https://www.developpez.com
Le 31/08/2024 à 20:50


Mais quand même, quand je lis ceci:

Citation Envoyé par OrthodoxWindows Voir le message
Surtout pas, il s'agit d'une mesure totalement absurde, qui ne peut que conduire à la mort de l'IA générative. Même des IA très modérés peuvent générer du contenu pouvant tomber sous le coup de la loi, c'est impossible d'empêcher cela.
Je suis dubitatif de cette réponse. Si un "produit" (ici l'IA), fournit un "service" défaillant (ici, les réponses que l'IA donne), il faut bien avoir un responsable vers qui pouvoir se retourner pour avoir une "indemnisation" en cas de mauvais fonctionnement dudit "service".

Parce que sinon, c'est la porte ouverte à tous les abus.

Si tu vas au restaurant, que tu commandes un steak au poivre, et qu'on te sers une pizza avariée, tu vas la manger sans rien dire ? Ou bien tu vas réclamer au "responsable" de ce restaurant des explications ?

Si tu vas à l'hopital pour te faire retirer un furoncle, et qu'on te retire un testicule à la place, là non plus tu ne vas rien dire ?

Si c'est le cas, je ne peux que de t'applaudire Tu est le plus tolérant du monde.


Je ne vois pas pourquoi on devrait "absoudre" de toute responsabilités le "responsable" d'une IA qui "Hallucine" (je ne parle pas des développeurs, mais des éditeurs de ces IA, ceux qui gagnent du fric en vomissant un gloubiboulga en remixant ce qu'ils ont volé un peu partout sur le web).

Et si cela ne peut que conduire à la mort de l'IA générative, ça n'est pas le soucis, ça ne sera ni la première ni la dernière révolution qui ne mène nulle part. Le monde continuera de tourner.

Citation Envoyé par OrthodoxWindows Voir le message
Pour le reste, je ne vois pas en quoi Grok est particulièrement un problème, vu qu'il existe plusieurs modèles open-source, de plus en plus performant.

Evidemment, si tu trouve normal que l'IA peut générer n'importe quoi, sans être responsable de rien, je comprend que tu ne vois pas le soucis avec Grok.

Ce n'est pas le soucis d'une IA ou d'une Autre, c'est tout simplement une "technologie" qui n'est pas encore au point, qu'on balance dans la nature en expérant qu'elle ne produise pas plus de problèmes qu'elle n'en résoud.

Si tu faisais de l'humour, je m'excuse sinon je vais tenter de rester "zen"

BàV et Peace & Love.
2  1