
En utilisant les messages d'erreur générés lorsqu'un utilisateur fait une demande qui viole les conditions de service et/ou qui est quelque chose que ChatGPT n'est pas capable de faire, ShadowDragon a été en mesure de trouver de fausses critiques générées par l'IA, des messages sur les médias sociaux, des discours haineux, de faux blogs et bien plus encore.
La recherche a également permis de découvrir que le ChatGPT ment souvent à propos de certaines tâches qui lui sont confiées. En d'autres termes, il commet des erreurs et ment ensuite.
L'un des problèmes mis en évidence dans l'article est l'utilisation de ChatGPT pour générer de faux avis sur les sites d'achat. Comme il a été formé sur de vastes ensembles de données d'avis, il peut en créer de nouveaux qui semblent avoir été rédigés par de vraies personnes. Ces faux avis peuvent être utilisés pour manipuler l'opinion des consommateurs, nuire aux concurrents et tromper les clients.
Les recherches personnelles de Dekens ainsi que les conversations avec d'autres enquêteurs de l'Open Source Intelligence (OSINT) ont permis de formuler des recherches spécifiques afin d'approfondir l'étude de l'utilisation abusive de ChatGPT à des fins malveillantes ou erronées.
Dekens conclut : « Il a été prouvé que ChatGPT ment, et il est toujours nécessaire de procéder à une vérification et à une validation supplémentaires des faits. Nous pouvons utiliser des techniques de recherche OSINT tradecraft pour trouver et exposer le contenu faux, falsifié ou offensant généré par ChatGPT, et nous pouvons utiliser ces informations pour pivoter vers les comptes d'utilisateurs et les plateformes qui hébergent et diffusent ces mauvais éléments de contenu générés par l'IA ».
Source : ShadowDragon
Et vous ?




Voir aussi :



