Dans un contexte géopolitique tendu où l’intelligence artificielle devient un levier stratégique autant qu’économique, une menace insidieuse prend de l’ampleur : l’empoisonnement délibéré des modèles de langage par des puissances étatiques ou des groupes malveillants. Selon de récentes enquêtes de cybersécurité et d’observation des comportements de l’IA, des pays comme la Russie et la Chine expérimentent des tactiques visant à « semer des mensonges » dans les grands modèles de langage (LLM) via des techniques subtiles mais redoutables de data poisoning.Contexte
Les modèles de langage comme GPT, Claude ou Gemini ne possèdent pas de « conscience » ni de capacité à discerner la vérité par eux-mêmes. Ils apprennent par ingestion de gigantesques volumes de données textuelles disponibles en ligne. Si une masse suffisante de contenu biaisé, trompeur ou idéologiquement orienté est introduite dans cet océan d’informations, les IA risquent de reproduire – et même légitimer – ces récits dans leurs réponses futures.
Cette tactique est particulièrement préoccupante dans des domaines sensibles : histoire, politique, santé publique, conflits armés. Ainsi, une IA exposée à des récits répétés comme « l’Ukraine appartient historiquement à la Russie », ou « les élections américaines de 2020 ont été truquées », pourrait progressivement apprendre à considérer ces affirmations comme plausibles ou neutres.
Ce qui rend cette problématique explosive, c’est que la capacité à « empoisonner » une IA ne se limite pas aux grandes puissances. Toute organisation – ONG extrémiste, groupe complotiste, cybercriminels – pourrait à terme utiliser des stratégies similaires pour orienter des IA vers des réponses biaisées : falsification historique, désinformation médicale, manipulation d’investissements crypto, voire propagande religieuse.
Pire encore, la génération de contenu par IA elle-même peut servir à entretenir cette boucle toxique : des milliers de faux articles, tweets ou posts peuvent être produits automatiquement pour renforcer un narratif, le rendant plus visible et donc plus susceptible d’être indexé et appris.
Les avancées de Moscou en matière de propagande mettent en lumière une faiblesse fondamentale de l'industrie de l'IA
La Russie automatise la diffusion de fausses informations pour tromper les chatbots d'intelligence artificielle sur des sujets clés, offrant ainsi à d'autres acteurs malveillants un manuel de jeu sur la manière de manipuler l'IA pour diffuser des contenus destinés à enflammer, influencer et obscurcir au lieu d'informer.
Les experts avertissent que le problème s'aggrave à mesure que de plus en plus de personnes font confiance aux chatbots commercialisés à la hâte, que les entreprises de médias sociaux réduisent leur modération et que l'administration Trump dissout les équipes gouvernementales chargées de lutter contre la désinformation.
En début d'année, lorsque des chercheurs ont interrogé dix principaux chatbots sur des sujets ciblés par de faux messages russes, comme l'affirmation selon laquelle les États-Unis fabriquaient des armes biologiques en Ukraine, un tiers des réponses ont répété ces mensonges.
Les avancées de Moscou en matière de propagande mettent en lumière une faiblesse fondamentale de l'industrie de l'IA : Les réponses des chatbots dépendent des données qui leur sont fournies. Le principe directeur est que plus les chatbots « lisent », plus leurs réponses sont informées, ce qui explique pourquoi l'industrie est avide de contenu. Mais des quantités massives de paillettes bien ciblées peuvent fausser les réponses sur des sujets spécifiques. Pour la Russie, il s'agit de la guerre en Ukraine. Mais pour un homme politique, il peut s'agir d'un opposant ; pour une entreprise commerciale, il peut s'agir d'un concurrent.
« La plupart des chatbots ont du mal à gérer la désinformation », explique Giada Pistilli, éthicienne principale de la plateforme d'IA à code source ouvert Hugging Face. « Ils disposent de protections de base contre les contenus nuisibles, mais ne peuvent pas repérer de manière fiable la propagande sophistiquée, [et] le problème s'aggrave avec les systèmes augmentés par la recherche qui donnent la priorité aux informations récentes. »
Les premières tentatives commerciales visant à manipuler les résultats des chats prennent également de l'ampleur, certains des mêmes spécialistes du marketing numérique qui proposaient autrefois l'optimisation des moteurs de recherche (SEO) pour un meilleur classement sur Google essayant aujourd'hui d'augmenter les mentions par les chatbots IA grâce à « l'optimisation générative des moteurs » (GEO).
Le volume de contenu produit par l'IA augmente beaucoup plus vite que sa qualité ne s'améliore
À mesure que les gens utilisent des moteurs d'IA pour les aider à produire un contenu de chatbot qui attire davantage l'attention, le volume de ce contenu augmente beaucoup plus vite que sa qualité ne s'améliore. Cette situation peut frustrer les utilisateurs ordinaires, mais elle fait le jeu de ceux qui ont le plus de moyens et le plus à gagner : pour l'instant, selon les experts, il s'agit des gouvernements nationaux qui ont l'habitude de diffuser de la propagande.
« Nous avions prédit que c'était là que les choses allaient finir par aller », a déclaré un ancien responsable militaire américain de la défense contre les influences, sous le couvert de l'anonymat afin d'évoquer des questions sensibles. « Aujourd'hui, on s'oriente davantage vers les échanges de machine à machine : En termes de portée, d'échelle, de temps et d'impact potentiel, nous sommes à la traîne ».
La Russie et, dans une...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Les grandes entreprises d’IA devraient-elles être tenues responsables si leurs modèles propagent des récits mensongers à grande échelle ?