Les chatbots IA représentent un nouveau chapitre passionnant de l'histoire de la technologie, mais malgré cela, ils ne sont pas exempts de dangers et de problèmes potentiels. Des chercheurs travaillant dans un large éventail d'institutions ont récemment mis en lumière un problème potentiel alarmant pouvant être causé par des IA telles que ChatGPT : elles pourraient augmenter la quantité de désinformation en ligne.
L'utilisation de robots conversationnels d'IA pourrait permettre aux acteurs malveillants de créer de fausses informations de manière beaucoup plus rentable. Ces chatbots peuvent également être utilisés pour que la désinformation soit de meilleure qualité. Ils peuvent personnaliser les différents types de campagnes de désinformation qui circulent, ce qui les rend beaucoup plus difficiles à repérer et à démanteler pour les chercheurs.
Il convient de préciser que ce ne sera pas la première fois que les chatbots seront utilisés à des fins aussi néfastes. Cependant, ils n'ont jamais été aussi puissants auparavant, le contenu qu'ils généraient étant souvent truffé d'erreurs de syntaxe, de fautes de frappe et d'autres problèmes qui rendaient ce qu'ils essayaient d'accomplir terriblement évident.
Des personas générés par l'IA ont déjà été observés dans des campagnes de désinformation menées dans le monde entier. Des technologies comme ChatGPT peuvent être utilisées pour créer des fausses nouvelles convaincantes en quelques secondes, et le contenu ne comportera pas les mêmes types d'erreurs qui le rendraient si facile à analyser.
Tout cela semble indiquer que ChatGPT et d'autres chatbots IA de ce type devront être perfectionnés afin de les rendre sûrs. Il est important de mettre en place des filtres, car c'est le genre de chose qui pourrait potentiellement empêcher les acteurs malveillants de les utiliser pour mener leurs campagnes en ligne.
Open AI a lancé un outil qui peut aider les gens à discerner si un contenu est généré par l'IA ou non. Ce sera un outil crucial dans la lutte contre la désinformation qui est en cours.
Source : Article de recherche (PDF)
Et vous ?
Quel est votre avis sur le sujet ?
Trouvez-vous que les conclusions formulées par ces chercheurs sont pertinentes ou crédibles ?
Quel est votre ressenti concernant les chatbots d'IA ? Selon vous, comment devrait-on encadrer leurs usages pour qu'ils soient plus sûrs ?
Voir aussi :
L'IA peut maintenant écrire de la désinformation pour tromper les lecteurs, des chercheurs ont utilisé le générateur de texte GPT-3 pour écrire des tweets que les gens ont trouvés convaincants
Un système d'IA pourrait aider à contrer la propagation de la désinformation avec une précision de 96 %, grâce à un mécanisme qui détecte les comptes de médias sociaux à l'origine de ces campagnes
Le gouvernement US développe une technologie d'IA pour démasquer les écrivains anonymes, évoquant entre autres « le suivi des campagnes de désinformation et d'autres activités malveillantes en ligne »
Les chatbots d'IA pourraient aggraver la désinformation en ligne, en permettant aux acteurs malveillants de créer des campagnes plus rentables
Et plus difficiles à repérer, selon certains chercheurs
Les chatbots d'IA pourraient aggraver la désinformation en ligne, en permettant aux acteurs malveillants de créer des campagnes plus rentables
Et plus difficiles à repérer, selon certains chercheurs
Le , par Anthony
Une erreur dans cette actualité ? Signalez-nous-la !