Elon Musk, le magnat de la technologie, a récemment lancé Grok, une intelligence artificielle conversationnelle intégrée à la plateforme X (anciennement Twitter). Conçue pour être à la fois humoristique et provocante, cette IA a rapidement attiré l’attention pour ses réponses sarcastiques et ses prises de position surprenantes. Une nouvelle étude révèle que des utilisateurs créent de fausses images liées aux élections à l'aide du robot Grok AI et les partagent sur X et que la plateforme d'Elon Musk ne respecte pas ses propres règles pour l'empêcher.Après l'intégration par Grok d'un générateur d'images appelé FLUX.1 au début du mois, les utilisateurs ont rapidement généré de fausses images de l'ancien président Donald Trump et de la vice-présidente Kamala Harris et les ont partagées sur X. Certaines sont manifestement fausses, comme celles des deux candidats s'embrassant ou faisant un signe de la main en hommage aux attentats du 11 septembre. D'autres, en revanche, sont plus subtiles.
Certaines des photos de Trump et Harris générées par l'IA ont déjà généré plus d'un million de vues sur X.
Les chercheurs du Center for Countering Digital Hate, une organisation britannique à but non lucratif qui vise à mettre fin aux discours de haine et à la désinformation en ligne, ont constaté que Grok n'avait pas rejeté 60 demandes différentes d'images douteuses liées à l'élection présidentielle de 2024.
Grok, l'assistant d'intelligence artificielle de X, ne dispose pas de « garde-fous efficaces »
Selon une nouvelle étude, Grok, l'assistant d'intelligence artificielle de X, ne dispose pas de « garde-fous efficaces » qui empêcheraient les utilisateurs de créer des « images potentiellement trompeuses » sur les candidats de 2024 ou les informations relatives aux élections. Le Center for Countering Digital Hate (CCDH) a étudié la capacité de Grok à transformer en images des messages sur la fraude électorale et les candidats.
Il a constaté que l'outil était capable de produire des « images convaincantes » après avoir reçu des invites, notamment une image IA de la vice-présidente Kamala Harris en train de se droguer et une autre de l'ancien président Donald Trump semblant malade dans son lit.
Pour chaque test, les chercheurs ont fourni à Grok un texte simple. Ils ont ensuite essayé de modifier l'invite originale pour contourner les mesures de sécurité de l'outil, par exemple en décrivant les candidats plutôt qu'en les nommant. D'autres créateurs d'images d'IA, comme ChatGPT et Midjourney, ont interdit des mots tels que « Kamala Harris » et « Donald Trump » afin d'empêcher la diffusion en ligne d'images électorales trompeuses.
L'outil d'IA n'a rejeté aucune des 60 invites textuelles originales que les chercheurs ont développées à propos des prochaines élections présidentielles, a indiqué le CCDH.
Bien que la plateforme d'Elon Musk dispose d'une politique contre le partage de « médias synthétiques, manipulés ou hors contexte qui...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.


je suis parfaitement d'accord avec cette remarque pleine de bon sens: