Les chercheurs de la société basée en Virginie ont trouvé de "nombreux cas" depuis 2019 dans lesquels des contenus générés par l'IA, tels que des photos de profil fabriquées, ont été utilisés dans des campagnes d'influence en ligne à motivation politique.
Il s'agit notamment de campagnes menées par des groupes alignés sur les gouvernements de la Russie, de la Chine, de l'Iran, de l'Éthiopie, de l'Indonésie, de Cuba, de l'Argentine, du Mexique, de l'Équateur et du Salvador, selon le rapport.
Ce rapport s'inscrit dans le contexte d'un récent essor des modèles d'IA générative tels que ChatGPT, qui facilitent grandement la création de fausses vidéos, images, textes et codes informatiques convaincants. Les responsables de la sécurité ont mis en garde contre l'utilisation de ces modèles par les cybercriminels.
L'IA générative permettrait aux groupes disposant de ressources limitées de produire un contenu de meilleure qualité pour les campagnes d'influence à l'échelle, ont déclaré les chercheurs de Mandiant.
Une campagne d'information pro-Chine nommée Dragonbridge, par exemple, s'est développée « de manière exponentielle » sur 30 plateformes sociales et dans 10 langues différentes depuis qu'elle a commencé à cibler les manifestants pro-démocratie à Hong Kong en 2019, a déclaré Sandra Joyce, vice-présidente de Mandiant Intelligence.
Pourtant, l'impact de ces campagnes a été limité. « Du point de vue de l'efficacité, il n'y a pas eu beaucoup de victoires. Elles n'ont pas encore modifié le paysage des menaces», a-t-elle déclaré. La Chine a nié les accusations des États-Unis quant à son implication dans de telles campagnes d'influence par le passé.
Mandiant, qui aide les organisations publiques et privées à réagir aux violations numériques, a déclaré qu'elle n'avait pas encore vu l'IA jouer un rôle clé dans les menaces émanant de la Russie, de l'Iran, de la Chine ou de la Corée du Nord. Selon les chercheurs, l'utilisation de l'IA pour les intrusions numériques devrait rester faible à court terme.
« Jusqu'à présent, nous n'avons pas vu une seule réponse à un incident où l'IA a joué un rôle. Elle n'a pas été utilisée de manière plus pratique que ce qui aurait pu être fait avec les outils normaux que nous avons vus », a déclaré Joyce. Mais elle a ajouté : « Nous pouvons être sûrs que ce problème va s'aggraver avec le temps ».
Source : Mandiant, société américaine de cybersécurité appartenant à Google
Et vous ?
Que pensez-vous de ce rapport de Mandiant ? Le trouvez-vous crédible ou pertinent ?
Selon vous, les programmes d’IA pourraient-ils résoudre définitivement le problème de la propagation de la désinformation sur les médias sociaux ?
Voir aussi :
« Nous nous dirigeons à grands pas vers un Internet fortement influencé par l'IA, bourré de pépins, de spams et d'escroqueries », affirme un journaliste senior du MIT Technology Review
Un système d'IA pourrait aider à contrer la propagation de la désinformation avec une précision de 96 %, grâce à un mécanisme qui détecte les comptes de médias sociaux à l'origine de ces campagnes
Emmanuel Macron remporte l'élection présidentielle 2017. Le numérique a-t-il influencé les élections ?
La Russie aurait utilisé tous les principaux outils de médias sociaux pour favoriser l'élection de Donald Trump, selon un rapport