La Chine utilise de faux comptes de médias sociaux pour sonder les électeurs sur ce qui les divise le plus, afin de semer la discorde et d'influencer éventuellement le résultat de l'élection présidentielle américaine en sa faveur. C’est ce qui ressort de l’alerte de Microsoft qui ajoute que le Parti communiste chinois soutient des groupes cybercriminels qui, ces derniers mois, ont tenté de diviser les Américains sur une série d'événements récents, notamment en affirmant que le gouvernement américain pourrait être impliqué dans le déraillement du train du Kentucky en novembre 2023, que les États-Unis empoisonnent de façon intentionnelle les réserves d'eau étrangères, les raisons de la consommation de drogues aux États-Unis, ainsi que les politiques d'immigration et les tensions raciales dans le pays.
L’un des principaux risques est lié à la diffusion des « deepfakes », des images, des vidéos ou des enregistrements audio truqués grâce à l’IA, qui peuvent faire dire ou faire n’importe quoi à n’importe qui. Ces faux contenus sont de plus en plus faciles à produire et à partager, et peuvent avoir un impact dévastateur sur la crédibilité des candidats ou sur la confiance dans le processus électoral. Par exemple, on pourrait voir un candidat politique comme le président Joe Biden être transporté à l’hôpital, ou un candidat dire des choses qu’il ou elle n’a jamais dites.
Près de trois ans après que les émeutiers ont pris d’assaut le Capitole des États-Unis, les théories du complot à l’origine de cette violente attaque restent répandues sur les réseaux sociaux et dans l’actualité par câble : valises remplies de bulletins de vote, dépôts de bulletins de vote tard dans la nuit, des morts qui ont voté.
Les experts préviennent que la situation sera probablement pire lors de la prochaine élection présidentielle. Les garde-fous qui ont tenté de contrer les fausses allégations la dernière fois s’érodent, tandis que les outils et les systèmes qui les créent et les diffusent ne font que se renforcer.
De nombreux Américains, encouragés par l’ancien président Donald Trump, ont continué à promouvoir l’idée, sans fondement, selon laquelle on ne peut pas faire confiance aux élections partout aux États-Unis. Une majorité de républicains (57 %) estiment que le démocrate Joe Biden n’a pas été légitimement élu président.
Parallèlement, les outils d’intelligence artificielle générative ont rendu beaucoup moins coûteuse et plus facile la diffusion du type de désinformation susceptible d’induire les électeurs en erreur et potentiellement d’influencer les élections. Et les sociétés de médias sociaux qui investissaient autrefois massivement dans la correction des faits ont changé leurs priorités.
Les deepfakes IA deviennent de plus en plus répandus
Les images et vidéos manipulées entourant les élections ne sont pas nouvelles, mais 2024 sera la première élection présidentielle américaine au cours de laquelle des outils d'IA sophistiqués capables de produire des contrefaçons convaincantes en quelques secondes ne seront qu'à quelques clics.
Les images, vidéos et clips audio fabriqués, connus sous le nom de deepfakes, ont commencé à se frayer un chemin dans les publicités expérimentales de la campagne présidentielle. Des versions plus sinistres pourraient facilement se propager sans étiquette sur les réseaux sociaux et tromper les gens quelques jours avant une élection.
« On pourrait voir un candidat politique comme le président Biden être transporté d’urgence à l’hôpital. On pourrait voir un candidat dire des choses qu’il n’avait jamais dites. On pourrait assister à une ruée sur les banques. On pouvait voir des bombardements et des violences qui n’ont jamais eu lieu », soulignent des observateurs
Les contrefaçons de haute technologie ont déjà affecté les élections dans le monde entier, a déclaré Larry Norden, directeur principal des élections et du programme gouvernemental au Brennan Center for Justice. Quelques jours seulement avant les récentes élections en Slovaquie, des enregistrements audio générés par l’IA ont usurpé l’identité d’un candidat libéral discutant de projets visant à augmenter les prix de la bière et à truquer les élections. Les vérificateurs de faits se sont efforcés de les identifier comme étant faux, mais ils ont malgré tout été partagés comme étant réels sur les réseaux sociaux.
Ces outils pourraient également être utilisés pour cibler des communautés spécifiques et affiner les messages trompeurs sur le vote. Cela pourrait ressembler à des messages texte persuasifs, à de fausses annonces sur les processus de vote partagées dans différentes langues sur WhatsApp, ou à de faux sites Web simulés pour ressembler à ceux officiels du gouvernement de votre région, ont déclaré les experts.
Face à un contenu conçu pour paraître réel, « tout ce que nous avons été programmés pour faire au cours de l'évolution va entrer en jeu pour nous faire croire à la fabrication plutôt qu'à la réalité réelle », a déclaré Kathleen Hall Jamieson, spécialiste de la désinformation et directeur du Annenberg Public Policy Center de l'Université de Pennsylvanie.
Les Républicains et les Démocrates du Congrès et de la Commission électorale fédérale étudient des mesures pour réglementer la technologie, mais ils n’ont finalisé aucune règle ou législation. Cela laisse aux États le soin d’adopter les seules restrictions jusqu’à présent sur les deepfakes politiques de l’IA.
Une poignée d’États ont adopté des lois exigeant que les deepfakes soient étiquetés ou interdisant ceux qui dénaturent les candidats. Certaines sociétés de médias sociaux, notamment YouTube et Meta, qui possèdent Facebook et Instagram, ont introduit des politiques d'étiquetage de l'IA. Reste à voir s’ils seront capables d’arrêter systématiquement les contrevenants.
Les protections des médias sociaux s'effondrent : l'exemple de X/Twitter
Il y a un peu plus d’un an, Elon Musk a racheté Twitter et a commencé à licencier ses dirigeants, à démanteler certaines de ses fonctionnalités principales et à remodeler la plateforme de médias sociaux pour en faire ce que l’on appelle désormais X.
Depuis lors, il a bouleversé le système de vérification, laissant les agents publics vulnérables aux usurpateurs d’identité. Il s'est débarrassé des équipes qui luttaient autrefois contre la désinformation sur la plateforme, laissant la communauté des utilisateurs se modérer. Et il a rétabli les comptes de théoriciens du complot et d’extrémistes qui étaient auparavant bannis.
Les changements ont été applaudis par de nombreux conservateurs qui affirment que les précédentes tentatives de modération de Twitter équivalaient à une censure de leurs opinions. Mais les partisans des démocrates affirment que cette prise de pouvoir a transformé ce qui était autrefois une ressource imparfaite mais utile en matière d’information et d’informations électorales en une chambre d’écho largement non réglementée qui amplifie les discours de haine et la désinformation.
Twitter était autrefois l'une des plateformes « les plus responsables », montrant sa volonté de tester des fonctionnalités susceptibles de réduire la désinformation, même au détriment de l'engagement, a déclaré Jesse Lehrich, co-fondateur d'Accountable Tech, un groupe de surveillance à but non lucratif.
« De toute évidence, ils se trouvent désormais à l'autre extrémité du spectre », a-t-il déclaré, ajoutant qu'il pensait que les changements apportés par l'entreprise avaient permis à d'autres plateformes d'assouplir leurs propres politiques.
X, Meta et YouTube et leurs gestions de la désinformation
À l’approche de 2024, X, Meta et YouTube ont supprimé ensemble 17 politiques protégeant contre la haine et la désinformation, selon un rapport de Free Press, une organisation à but non lucratif qui défend les droits civiques dans la technologie et les médias.
En juin, YouTube a annoncé que même s’il continuerait de réglementer les contenus trompeurs sur les élections en cours ou à venir, il cesserait de supprimer les contenus prétendant faussement que les élections de 2020 ou d’autres élections américaines précédentes ont été entachées de « fraudes, erreurs ou problèmes généralisés ». La plateforme a déclaré que cette politique visait à protéger la capacité de « débattre ouvertement des idées politiques, même celles qui sont controversées ou basées sur des hypothèses réfutées ».
Lehrich a déclaré que même si les entreprises technologiques veulent éviter de supprimer les contenus trompeurs, « il existe de nombreuses façons neutres en termes de contenu » pour les plateformes de réduire la propagation de la désinformation, depuis l'étiquetage des articles vieux de plusieurs mois jusqu'à rendre plus difficile le partage de contenu sans l'examiner. d'abord.
X, Meta et YouTube ont également licencié des milliers d'employés et de sous-traitants depuis 2020, dont certains incluent des modérateurs de contenu.
Le rétrécissement de ces équipes, que beaucoup attribuent à la pression politique, « prépare le terrain pour que les choses soient pires en 2024 qu’en 2020 », a déclaré Kate Starbird, experte en désinformation à l’Université de Washington.
Meta explique sur son site Internet qu'elle compte quelque 40 000 personnes dévouées à la sûreté et à la sécurité et qu'elle gère « le plus grand réseau indépendant de vérification des faits de toutes les plateformes ». Il supprime également fréquemment les réseaux de faux comptes de réseaux sociaux visant à semer la discorde et la méfiance. « Aucune entreprise technologique n’en fait ou n’investit autant que Meta pour protéger les élections en ligne – pas seulement pendant les périodes électorales mais à tout moment », indique le message.
Ivy Choi, porte-parole de YouTube, a déclaré que la plateforme était « fortement investie » dans la connexion des gens à du contenu de haute qualité sur YouTube, y compris pour les élections. Elle a souligné les panneaux de recommandation et d’information de la plateforme, qui fournissent aux utilisateurs des informations électorales fiables, et a déclaré que la plateforme supprimait les contenus qui induisaient les électeurs en erreur sur la manière de voter ou encourageaient l’ingérence dans le processus démocratique.
La montée en puissance de TikTok et d’autres plateformes moins réglementées telles que Telegram, Truth Social et Gab a également créé davantage de silos d’informations en ligne où des allégations sans fondement peuvent se propager. Certaines applications particulièrement populaires parmi les communautés de couleur et les immigrés, comme WhatsApp et WeChat, s'appuient sur des discussions privées, ce qui rend difficile pour les groupes extérieurs de voir la désinformation qui peut se propager.
« Je crains qu’en 2024, nous assistions à des faux récits recyclés et enracinés similaires, mais à des tactiques plus sophistiquées », a déclaré Roberta Braga, fondatrice et directrice exécutive du Digital Democracy Institute of the Americas. « Mais du côté positif, j'espère qu'il y aura plus de résilience sociale face à ces choses ».
« Si une campagne de désinformation est suffisamment efficace pour qu’un pourcentage suffisamment important de la population américaine ne croit pas que les résultats reflètent ce qui s’est réellement passé, alors le 6 janvier [date de l’assaut du Capitole par des partisans de Donald Trump] ressemblera probablement à un échauffement », a averti Laura Rosenberger, directrice du groupe de réflexion Alliance for Securing Democracy.
Face à ce défi, certains acteurs tentent de sensibiliser le public et de renforcer la résilience démocratique. C’est le cas d'un groupe d’étudiants du Minnesota qui se concentre sur la promotion et la sensibilisation des électeurs. Le groupe organise des séances d’information avec des responsables électoraux, des experts en désinformation et des journalistes, et encourage les jeunes à s’informer auprès de sources fiables et diversifiées : « Nous voulons que les gens soient conscients de ce qui se passe, qu’ils sachent comment vérifier les faits et qu’ils comprennent comment les médias sociaux peuvent influencer leur perception de la réalité ».
Source : Microsoft
Et vous ?
Quelle est votre opinion sur le développement de l’IA et son impact sur la désinformation ?
Pensez-vous que les réseaux sociaux devraient être plus responsables et régulés face à la diffusion des deepfakes et des fausses informations ?
Comment vous informez-vous sur les candidats et les enjeux des élections en général et de l’élection américaine de 2024 en particulier ? Craignez-vous une ingérence de l'IA dans les élections présidentielles de votre pays tandis que la technologie se perfectionne ? Dans quelle mesure ?
Quel rôle pensez-vous que les citoyens et les organisations civiles peuvent jouer pour renforcer la résilience démocratique face à la désinformation ?