Les campagnes de désinformation ne sont pas nouvelles, ce qui est nouveau, en revanche, c'est l'utilisation d'Internet et des médias sociaux pour diffuser ces campagnes. La diffusion de la désinformation via les médias sociaux a le pouvoir de modifier les élections, de renforcer les théories du complot et de semer la discorde.
Un nouveau rapport publié en fin 2018 sur la campagne de désinformation menée par la Russie lors de l'élection présidentielle américaine de 2016 a révélé que toutes les grandes plateformes de médias sociaux ont été utilisées pour diffuser des mots, des images et des vidéos dans le but d'influencer les électeurs pour favoriser l'élection du président Donald Trump. Le rapport offrait des détails sur la manière dont les Russes travaillant à l’Internet Research Agency auraient influencé les Américains lors des élections présidentielles de 2016 avec des infox.
Au cours du même mois, un autre rapport a conclu que la manipulation de l'opinion publique sur les plateformes de médias sociaux était devenue une menace critique pour la vie publique. Le rapport a révélé que malgré les efforts pour lutter contre la propagande informatique, le problème s'aggrave à grande échelle. En effet, partout dans le monde, des agences gouvernementales et des partis politiques exploitent les plateformes de médias sociaux pour diffuser des informations indésirables et la désinformation, exercer une censure et un contrôle, et saper la confiance dans les médias, les institutions publiques et la science.
Pas plus tard que ce mois, un groupe de chercheurs en sécurité a publié un article dans lequel il affirmait avoir démasqué une ferme massive de bots qui visait à façonner l'opinion publique sur Facebook dans le feu de l'élection présidentielle américaine de 2020. Les chercheurs ont établi que le réseau de bots comprenait 13 775 comptes Facebook uniques qui publiaient chacun environ 15 fois par mois, pour une production de plus de 50 000 publications par semaine. D’après leur rapport, les comptes semblent avoir été utilisés à des fins de « manipulation politique », la moitié environ des messages étant liés à des sujets politiques et 17 % au covid-19.
Les sociétés de réseaux sociaux comme Facebook et Twitter font mains et pieds depuis des années pour éradiquer ces fake news sur leurs plateformes sans vraiment y parvenir. L’équipe à l’origine des dernières recherches comprend Steven Smith, qui est membre du MIT Lincoln Laboratory. L’équipe, qui cherchait à mieux comprendre ces campagnes de fausses informations en lançant le programme RIO, a été récompensée l’année dernière par un prix R&D 100.
Détecter les comptes de désinformation avec une précision de 96 %
Le travail sur le projet a commencé en 2014 et l'équipe a remarqué une activité accrue et inhabituelle dans les données des médias sociaux provenant de comptes qui avaient l'apparence de propager des récits prorusses. Steve Smith, membre de l'équipe, a déclaré à MIT News qu'ils étaient « en quelque sorte en train de se gratter la tête ». L'équipe a donc demandé un financement interne par le biais du bureau des technologies du laboratoire pour essayer de comprendre ce qui se passait.
Et puis juste avant les élections françaises de 2017, l'équipe a lancé le programme pour vérifier si des techniques similaires seraient mises à contribution. Trente jours avant les scrutins, l'équipe de RIO a collecté des données en temps réel sur les médias sociaux pour analyser la propagation de la désinformation. Ils ont compilé un total de 28 millions de tweets provenant d'un million de comptes sur le site de micro-blogging. Grâce au mécanisme du RIO, l'équipe a pu détecter les comptes de désinformation avec une précision de 96 %.
La particularité du système RIO, c'est qu'il combine plusieurs techniques d'analyse afin de créer une vue globale de l'endroit et de la manière dont les récits de désinformation se propagent. Edward Kao, un autre membre de l'équipe de recherche, a déclaré qu'auparavant, si les gens voulaient savoir qui était le plus influent sur une plateforme de réseau social, ils se contentaient de regarder le nombre d'activités. Mais les chercheurs sont allés au-delà.
« Si vous essayez de répondre à la question de savoir qui est influent sur un réseau social, traditionnellement, les gens regardent le nombre d'activités », a-t-il expliqué Kao. Sur Twitter, par exemple, les analystes considèrent le nombre de tweets et de retweets. « Ce que nous avons constaté, c'est que dans de nombreux cas, ce n'est pas suffisant. Cela ne vous indique pas réellement l'impact des comptes sur le réseau social ».
Schéma fonctionnel du cadre de détection et de caractérisation de bout en bout des opérations d'influence (IO)
Kao a mis au point une approche statistique, dans le cadre de son travail de doctorat dans le programme Lincoln Scholars du laboratoire – un programme de bourses d'études. L’approche vise à aider à déterminer non seulement si un compte de médias sociaux diffuse de la désinformation, mais aussi dans quelle mesure le compte amène le réseau dans son ensemble à changer et à amplifier le message. Le programme développé par Kao est maintenant utilisé dans RIO.
Erika Mackin, un autre membre de l'équipe de recherche, a également appliqué une nouvelle approche d'apprentissage automatique qui aide RIO à classer ces comptes en examinant les données liées aux comportements, par exemple si le compte interagit avec des médias étrangers et quelles langues il utilise. Cette approche permet à RIO de détecter les comptes hostiles qui sont actifs dans diverses campagnes, allant des élections présidentielles françaises de 2017 à la diffusion de la désinformation covid-19.
Mais voici l'une des utilisations les plus uniques et les plus efficaces du RIO : le système peut détecter et quantifier l'impact des comptes exploités à la fois par des bots et des humains, alors que la plupart des systèmes automatisés utilisés aujourd'hui ne détectent que les bots. RIO est également capable d'aider les utilisateurs du système à prévoir comment différentes contre-mesures pourraient stopper la propagation d'une campagne de désinformation particulière.
L'équipe du laboratoire du MIT espère que RIO sera utilisé à la fois par le gouvernement et l'industrie, ainsi qu'au-delà des médias sociaux et dans le domaine des médias traditionnels tels que les journaux et la télévision. Actuellement, selon MIT News, l'équipe travaille avec Joseph Schlessinger, étudiant à West Point, qui est également étudiant diplômé au MIT et boursier militaire au Lincoln Laboratory, pour comprendre comment les faux récits se propagent dans les médias européens. Un nouveau programme de suivi est également en cours pour étudier les aspects cognitifs des opérations d'influence et la manière dont les attitudes et les comportements individuels sont affectés par la désinformation.
« Se défendre contre la désinformation n'est pas seulement une question de sécurité nationale, mais aussi de protection de la démocratie », a déclaré Kao.
Source : Article de recherche
Et vous ?
Que pensez-vous de cette nouvelle recherche ?
Le programme RIO pourrait analyser et détecter automatiquement la désinformation avec une précision de 96 %. Quels commentaires en faites-vous ?
Selon vous, les programmes d’IA pourraient-ils résoudre définitivement le problème de la propagation de la désinformation sur les médias sociaux ?
Voir aussi :
Microsoft dévoile des outils de détection de deepfakes, pour lutter contre les fausses nouvelles et d'autres formes de désinformation
Européennes : des hackers russes propageraient des fake news pour favoriser l'extrême droite, selon The New York Times
La manipulation de l'opinion publique sur les plateformes de médias sociaux est devenue une menace critique pour la vie publique, selon un rapport
Facebook annonce de nouveaux outils pour lutter contre la désinformation sur son site, les utilisateurs pourront désormais signaler les fakes news