Le chatbot IA Grok de xAI d'Elon Musk diffuse des informations erronées après la fusillade de Bondi Beach, identifiant à plusieurs reprises le héros à tort et diffusant de fausses informations sur l'attaqueGrok, de xAI, a à plusieurs reprises identifié à tort Ahmed al Ahmed, le héros qui a désarmé le tireur de Bondi Beach, et a affirmé que des vidéos vérifiées étaient d'anciens contenus viraux ou des événements sans rapport. Le chatbot a également suggéré à tort qu'Ahmed était un otage israélien détenu par le Hamas et a confondu l'emplacement de la plage, accusant à la place Currumbin Beach pendant le cyclone Alfred. Il ne s'agit pas d'un incident isolé : les antécédents de Grok en matière d'exactitude sont pour le moins mitigés, avec des incidents antérieurs de divulgation d'informations personnelles et de diffusion de fausses informations
Grok est un chatbot d'intelligence artificielle générative développé par xAI, basé sur un grand modèle de langage (LLM). Il est développé à l'initiative d'Elon Musk en réponse à la montée en puissance de ChatGPT d'OpenAI, co-fondé à l'origine par Musk. Le chatbot est présenté comme « ayant un sens de l'humour » et un accès direct à X, anciennement Twitter. Il est actuellement disponible gratuitement pour tout le monde en version limitée.
En août, Elon Musk a annoncé mettre en open source son modèle Grok 2.5 au nom de la transparence. De plus, l'entreprise d'IA rendra également le modèle Grok 3 open source dans environ six mois. Il semble donc que Musk travaille selon un cycle annuel. Un cycle qui suggère que Grok 5 devrait être lancé d'ici la fin de l'année 2025. Malgré ce cycle de mise à jour fréquent, le chatbot a suscité des controverses liées à ses réponses sur des sujets sensibles et à l'influence d'Elon Musk sur ses prises de position politiques. Grok est également accusé de propager de la désinformation à caractère négationniste et complotiste.
Le dernier exemple en date : le chatbot Grok de xAI a échoué de manière spectaculaire à couvrir la tragique fusillade de masse de Bondi Beach en Australie, diffusant à plusieurs reprises de fausses informations sur Ahmed al Ahmed, l'homme qui a héroïquement désarmé l'un des assaillants. Le système d'IA l'a identifié à tort comme un otage israélien, a affirmé que des images vérifiées étaient une vidéo virale montrant quelqu'un grimpant à un arbre, et a même attribué la responsabilité à la mauvaise plage. Cela nous rappelle de manière frappante que même si les systèmes d'IA deviennent plus intelligents, ils restent dangereusement peu fiables lorsque cela compte le plus.
Grok de xAI a transformé une véritable tragédie en un cas d'école illustrant pourquoi les systèmes d'IA ne peuvent toujours pas être considérés comme fiables pour traiter les actualités de dernière minute. À la suite de la fusillade de Bondi Beach en Australie, le chatbot a diffusé des informations erronées avec une constance remarquable, créant une tempête parfaite d'échecs de l'IA au moment même où la précision comptait le plus.
Les dégâts sont les plus graves là où ils frappent le plus fort. Ahmed al Ahmed, un homme de 43 ans qui est intervenu pour arrêter l'un des tireurs, a été héroïquement salué sur Internet. Mais Grok s'est systématiquement efforcé d'effacer et de déformer ses actions. Il l'a à plusieurs reprises identifié à tort comme un Israélien retenu en otage par le Hamas. Lorsqu'on lui a présenté une vidéo vérifiée de son héroïsme, Grok a insisté sur le fait qu'il s'agissait en réalité d'une vieille vidéo virale montrant un homme grimpant à un arbre. Il a également affirmé que les images provenaient de Currumbin Beach pendant le cyclone Alfred, un autre lieu totalement erroné.
Ce qui aggrave encore la situation, c'est que des personnes mal intentionnées ont immédiatement exploité le dysfonctionnement de Grok. Quelqu'un a rapidement créé un site d'informations bidon, très certainement généré par une intelligence artificielle, mettant en scène un informaticien fictif nommé Edward Crabtree qui revendiquait avoir désarmé le tireur. Cette histoire inventée a été reprise directement par Grok, qui l'a ensuite diffusée sur X à des milliers d'utilisateurs.
C'est là que la crise de fiabilité plus générale de Grok apparaît clairement. Le chatbot n'a pas seulement un problème de désinformation concernant cette tragédie spécifique. Il est en train de subir une panne complète du système. Lorsque les utilisateurs lui ont posé des questions sur les difficultés financières d'Oracle, il a répondu par un résumé de la fusillade de Bondi Beach. Quelqu'un qui posait une question sur une opération de la police britannique a obtenu la date du jour, suivie de chiffres aléatoires concernant Kamala Harris. C'est comme si l'ensemble du système était confus quant à ce qui lui était demandé et aux questions auxquelles il devait répondre.
Tout cela n'est pas nouveau pour Grok. Le chatbot phare de xAI a connu une histoire mouvementée depuis son lancement. Il a divulgué des informations personnelles sur des gens ordinaires. Il a répandu des théories du complot. Les tentatives de l'entreprise pour donner à Grok une personnalité « sauvage » qui s'affranchit des garde-fous de sécurité se sont à plusieurs reprises retournées contre elle, troquant le développement responsable de l'IA contre l'audace.
L'échec de Bondi Beach est particulièrement accablant, car il ne s'agit pas d'une désinformation compliquée. Il ne s'agit pas d'une interprétation politique ou d'une analyse subjective. Il s'agit simplement d'une correspondance de modèles : voici une vidéo, voici une personne, voici ce qui s'est passé. Grok n'est même pas capable de gérer cela. Au lieu de cela, il diffuse avec assurance des informations erronées à un moment où des informations précises pourraient réellement sauver des vies ou protéger des réputations.
Ce qui est particulièrement troublant, c'est l'amplification. Grok n'existe pas dans le vide. Chaque fausse affirmation qu'il fait se propage sur X, atteint d'autres utilisateurs et est reprise par des personnes qui cherchent des arguments contre les actions héroïques d'Ahmed. La désinformation devient alors partie intégrante de l'histoire de l'événement. Dans quelques années, quelqu'un pourrait trouver une capture d'écran de Grok affirmant qu'Ahmed était un otage et, sans contexte, y croire.
Pour toute personne attentive, ce moment révèle quelque chose de crucial sur la fiabilité de l'IA à la fin de l'année 2025. Les principaux systèmes d'IA peuvent rédiger des essais cohérents, passer des examens et mener des conversations réfléchies. Mais lorsque les enjeux sont réels et que la rapidité est importante, ils échouent encore de manière catastrophique. Grok ne se trompe pas seulement sur cette tragédie. Cela révèle que l'ensemble du système ne comprend pas ce qu'est la vérité.
Pourtant, en juillet, Elon Musk a annoncé que xAI avait amélioré Grok « de manière significative ». Mais à l'époque, après l'annonce de Musk, il est apparu clairement que Grok avait été modifié de manière à amplifier les stéréotypes nuisibles. Le chatbot avait notamment fait l'éloge d'Hitler, glorifié Elon Musk pour avoir supprimé les filtres « woke », ou lancé des attaques contre Donald Trump au sujet des inondations au Texas
La catastrophe de Bondi Beach révèle quelque chose de dérangeant à propos de Grok et, par extension, à propos de l'état actuel des systèmes d'IA qui prétendent traiter des informations en temps réel. xAI a commercialisé Grok comme une alternative à la recherche de la vérité par rapport aux assistants IA plus prudents. Au lieu de cela, nous sommes confrontés à un système qui répand la confiance dans des mensonges tout en causant des dommages réels.
Il ne s'agit pas seulement d'un problème de relations publiques pour xAI. C'est un défi fondamental pour toute une industrie qui parie que l'IA peut être considérée comme fiable pour traiter les informations qui façonnent la compréhension du monde par les individus. À l'heure actuelle, les preuves suggèrent que ce n'est pas le cas.
Et vous ?
Pensez-vous que ce rapport est crédible ou pertinent ?
Quel est votre avis sur le sujet ?Voir aussi :
Grok AI est un désastre pour la démocratie : l'IA d'Elon Musk intégrée à X n'a pas de garde-fous pour empêcher les utilisateurs de générer de la désinformation électorale, selon une enquête du CCDH
Les moteurs de recherche basés sur l'IA échouent au test de précision, avec un taux d'erreur de 60 %, atteignant même 96 % pour Grok-3, selon une étude du Tow Center for Digital Journalism
Les grands modèles de langage répètent des théories du complot, des stéréotypes nuisibles et d'autres formes de désinformation, selon une nouvelle étude
Vous avez lu gratuitement 8 920 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.