
L'utilisation de robots conversationnels d'IA pourrait permettre aux acteurs malveillants de créer de fausses informations de manière beaucoup plus rentable. Ces chatbots peuvent également être utilisés pour que la désinformation soit de meilleure qualité. Ils peuvent personnaliser les différents types de campagnes de désinformation qui circulent, ce qui les rend beaucoup plus difficiles à repérer et à démanteler pour les chercheurs.
Il convient de préciser que ce ne sera pas la première fois que les chatbots seront utilisés à des fins aussi néfastes. Cependant, ils n'ont jamais été aussi puissants auparavant, le contenu qu'ils généraient étant souvent truffé d'erreurs de syntaxe, de fautes de frappe et d'autres problèmes qui rendaient ce qu'ils essayaient d'accomplir terriblement évident.
Des personas générés par l'IA ont déjà été observés dans des campagnes de désinformation menées dans le monde entier. Des technologies comme ChatGPT peuvent être utilisées pour créer des fausses nouvelles convaincantes en quelques secondes, et le contenu ne comportera pas les mêmes types d'erreurs qui le rendraient si facile à analyser.
Tout cela semble indiquer que ChatGPT et d'autres chatbots IA de ce type devront être perfectionnés afin de les rendre sûrs. Il est important de mettre en place des filtres, car c'est le genre de chose qui pourrait potentiellement empêcher les acteurs malveillants de les utiliser pour mener leurs campagnes en ligne.
Open AI a lancé un outil qui peut aider les gens à discerner si un contenu est généré par l'IA ou non. Ce sera un outil crucial dans la lutte contre la désinformation qui est en cours.
Source : Article de recherche (PDF)
Et vous ?



Voir aussi :


