« Aujourd'hui, les acteurs malveillants utilisent des campagnes de désinformation et des contenus deepfakes pour désinformer le public sur des événements, pour influencer la politique et les élections, pour contribuer à la fraude et pour manipuler les actionnaires dans le contexte d'une entreprise. De nombreuses organisations ont commencé à considérer les deepfakes comme un risque potentiel encore plus important que le vol d'identité (pour lequel les deepfakes peuvent également être utilisés), en particulier maintenant que la plupart des interactions se sont déplacées en ligne depuis la pandémie de COVID-19. Cette inquiétude est relayée par un récent rapport de l'University College London (UCL) qui classe la technologie des deepfakes parmi les plus grandes menaces auxquelles la société est confrontée aujourd'hui. Cela représente un risque pour les citoyens de l'UE. Europol, en tant que centre d'information criminelle pour les organismes chargés de l'application de la loi, continuera à jouer son rôle en soutenant les autorités chargées de l'application de la loi dans l'UE », souligne Europol dans une récente étude.
L’étude n’est d’ailleurs pas sans rappeler la publication d’un deepfake de l’ex-président des USA – Barack Obama. Le contenu avait été publié en ligne afin de tirer la sonnette d’alarme sur la désinformation due à la montée de l’intelligence artificielle.
Donald Trump aussi avait fait les frais de cette technologie. Une chaîne de TV américaine (Seattle TV) avait publié une vidéo montrant le visage du président américain transformé pour paraitre plus orange que la normale lors d’un discours télévisé, et avec une fin de vidéo qui le faisait paraitre plutôt stupide.
Le nombre de sites web et de blogs hébergeant de faux articles générés par l’intelligence artificielle a augmenté de 1150 % depuis avril 2023
C’est ce qui ressort d’une étude de Newsguard : le nombre de sites Web hébergeant de faux articles générés par des intelligences artificielles est en hausse de 1150,51 % depuis avril 2023, ce qui représente une augmentation mensuelle moyenne de 143,81 %.
Plus de 614 pages web différentes proposant des informations et des statistiques faussement produites par la technologie de l'IA continuent à fonctionner de manière très fonctionnelle et sans aucun obstacle. Ces pages ne font l'objet que d'une surveillance humaine minime, voire inexistante, et si l'on considère que ces chiffres ne concernaient que 49 sites web auparavant, il s'agit là d'un bond en avant considérable et inquiétant.
Cette recherche et de nombreuses autres études similaires mettent en lumière le fait que l'avènement des outils d'intelligence artificielle constitue un essor considérable pour ceux qui se livrent à la diffusion de fausses informations ainsi que pour ceux qui disposent de fermes de contenu pour cet acte illégal.
90 % du contenu en ligne pourra être généré par l’intelligence artificielle d’ici 2026
« Je pense que nous pourrions atteindre 90 % du contenu en ligne généré par l'IA d'ici 2025, donc cette technologie est exponentielle », déclare Nina Schick, conseillère et conférencière en intelligence artificielle.
Des observateurs penchent pour une norme mondiale en matière de filigranes visant à étiqueter les contenus générés par l’IA pour empêcher la désinformation et la manipulation
Certains groupes de personnes et des autorités gouvernementales pensent que l'ajout d'un filigrane aux contenus générés par les systèmes d'IA générative pourrait aider à lutter contre la fraude et la désinformation, notamment pendant les périodes d'élection.
En octobre dernier, le président américain Joe Biden a signé un décret qui met l'accent sur la mise en place d'un filigrane pour les outils d'IA générative. La vice-présidente Kamala Harris a déclaré que « l'administration encourageait les entreprises technologiques à développer de nouveaux outils pour aider les consommateurs à discerner si le contenu audio et visuel est généré par l'IA. » Mais pour le moment, il n'y a pas beaucoup de clarté sur l’implémentation d’une telle mesure.
Le gouvernement chinois va plus loin en établissant un processus national standard de filigrane requis pour tout contenu visuel dérivé de l'intelligence artificielle. En revanche, aucun des deux pays n'a abordé la question des contenus textuels. La loi de l'Union européenne sur l'IA (EU Artificial Intelligence Act) ne prévoit aucune exigence en matière de filigrane. Selon certains analystes, les initiatives actuelles en matière de réglementation de l'intelligence artificielle souffrent de nombreuses lacunes que les autorités doivent corriger afin de protéger les élections. En outre, selon certains critiques, une norme mondiale en matière de filigrane ne pourra pas empêcher l'utilisation des modèles d'IA à mauvais escient.
Source : Europol
Et vous ?
Est-il possible de se prémunir de toute la désinformation qui a cours en raison de la montée en puissance de l’intelligence artificielle ? Si oui, quels sont les artifices dont vous faites usage pour y parvenir ?
Voir aussi :
Les sites d'information générés par l'IA se multiplient, NewsGuard recense désormais 125 sites web d'actualités et d'informations générés par des outils d'IA
Les chatbots d'IA pourraient aggraver la désinformation en ligne, en permettant aux acteurs malveillants de créer des campagnes plus rentables, et plus difficiles à repérer, selon certains chercheurs
Le côté obscur de l'IA : les fermes de contenu utilisent les chatbots à mauvais escient en termes de désinformation
Un développeur dépense à peine 400 dollars pour construire un outil de désinformation basé sur la technologie d'IA d'OpenAI, l'IA a rendu bon marché la diffusion de propagande à grande échelle