
Contexte
Les modèles de langage comme GPT, Claude ou Gemini ne possèdent pas de « conscience » ni de capacité à discerner la vérité par eux-mêmes. Ils apprennent par ingestion de gigantesques volumes de données textuelles disponibles en ligne. Si une masse suffisante de contenu biaisé, trompeur ou idéologiquement orienté est introduite dans cet océan d’informations, les IA risquent de reproduire – et même légitimer – ces récits dans leurs réponses futures.
Cette tactique est particulièrement préoccupante dans des domaines sensibles : histoire, politique, santé publique, conflits armés. Ainsi, une IA exposée à des récits répétés comme « l’Ukraine appartient historiquement à la Russie », ou « les élections américaines de 2020 ont été truquées », pourrait progressivement apprendre à considérer ces affirmations comme plausibles ou neutres.
Ce qui rend cette problématique explosive, c’est que la capacité à « empoisonner » une IA ne se limite pas aux grandes puissances. Toute organisation – ONG extrémiste, groupe complotiste, cybercriminels – pourrait à terme utiliser des stratégies similaires pour orienter des IA vers des réponses biaisées : falsification historique, désinformation médicale, manipulation d’investissements crypto, voire propagande religieuse.
Pire encore, la génération de contenu par IA elle-même peut servir à entretenir cette boucle toxique : des milliers de faux articles, tweets ou posts peuvent être produits automatiquement pour renforcer un narratif, le rendant plus visible et donc plus susceptible d’être indexé et appris.
Les avancées de Moscou en matière de propagande mettent en lumière une faiblesse fondamentale de l'industrie de l'IA
La Russie automatise la diffusion de fausses informations pour tromper les chatbots d'intelligence artificielle sur des sujets clés, offrant ainsi à d'autres acteurs malveillants un manuel de jeu sur la manière de manipuler l'IA pour diffuser des contenus destinés à enflammer, influencer et obscurcir au lieu d'informer.
Les experts avertissent que le problème s'aggrave à mesure que de plus en plus de personnes font confiance aux chatbots commercialisés à la hâte, que les entreprises de médias sociaux réduisent leur modération et que l'administration Trump dissout les équipes gouvernementales chargées de lutter contre la désinformation.
En début d'année, lorsque des chercheurs ont interrogé dix principaux chatbots sur des sujets ciblés par de faux messages russes, comme l'affirmation selon laquelle les États-Unis fabriquaient des armes biologiques en Ukraine, un tiers des réponses ont répété ces mensonges.
Les avancées de Moscou en matière de propagande mettent en lumière une faiblesse fondamentale de l'industrie de l'IA : Les réponses des chatbots dépendent des données qui leur sont fournies. Le principe directeur est que plus les chatbots « lisent », plus leurs réponses sont informées, ce qui explique pourquoi l'industrie est avide de contenu. Mais des quantités massives de paillettes bien ciblées peuvent fausser les réponses sur des sujets spécifiques. Pour la Russie, il s'agit de la guerre en Ukraine. Mais pour un homme politique, il peut s'agir d'un opposant ; pour une entreprise commerciale, il peut s'agir d'un concurrent.
« La plupart des chatbots ont du mal à gérer la désinformation », explique Giada Pistilli, éthicienne principale de la plateforme d'IA à code source ouvert Hugging Face. « Ils disposent de protections de base contre les contenus nuisibles, mais ne peuvent pas repérer de manière fiable la propagande sophistiquée, [et] le problème s'aggrave avec les systèmes augmentés par la recherche qui donnent la priorité aux informations récentes. »
Les premières tentatives commerciales visant à manipuler les résultats des chats prennent également de l'ampleur, certains des mêmes spécialistes du marketing numérique qui proposaient autrefois l'optimisation des moteurs de recherche (SEO) pour un meilleur classement sur Google essayant aujourd'hui d'augmenter les mentions par les chatbots IA grâce à « l'optimisation générative des moteurs » (GEO).
Le volume de contenu produit par l'IA augmente beaucoup plus vite que sa qualité ne s'améliore
À mesure que les gens utilisent des moteurs d'IA pour les aider à produire un contenu de chatbot qui attire davantage l'attention, le volume de ce contenu augmente beaucoup plus vite que sa qualité ne s'améliore. Cette situation peut frustrer les utilisateurs ordinaires, mais elle fait le jeu de ceux qui ont le plus de moyens et le plus à gagner : pour l'instant, selon les experts, il s'agit des gouvernements nationaux qui ont l'habitude de diffuser de la propagande.
« Nous avions prédit que c'était là que les choses allaient finir par aller », a déclaré un ancien responsable militaire américain de la défense contre les influences, sous le couvert de l'anonymat afin d'évoquer des questions sensibles. « Aujourd'hui, on s'oriente davantage vers les échanges de machine à machine : En termes de portée, d'échelle, de temps et d'impact potentiel, nous sommes à la traîne ».
La Russie et, dans une moindre mesure, la Chine ont exploité cet avantage en inondant la zone de fables. Mais n'importe qui pourrait faire la même chose, en consommant beaucoup moins de ressources que les précédentes fermes à trolls.
La Russie en est l'un des premiers bénéficiaires des contenus de sites destinés aux « crawlers »
L'un des premiers bénéficiaires est le long effort de la Russie pour convaincre l'Occident que l'Ukraine ne vaut pas la peine d'être protégée d'une invasion. En réponse aux questions posées aux plus grands chatbots, on trouve des récits démentis de « mercenaires » français et d'un inexistant instructeur de vol danois tués en Ukraine, ainsi que des descriptions crédules de vidéos mises en scène montrant de prétendus soldats ukrainiens brûlant le drapeau américain et le président Donald Trump en effigie.
De nombreuses versions de ces histoires apparaissent d'abord sur des médias contrôlés par le gouvernement russe, tels que Tass ou Russia Today, qui sont interdits dans l'Union européenne. Dans le cadre d'un processus parfois appelé blanchiment d'informations, les récits sont ensuite diffusés sur de nombreux sites de médias apparemment indépendants, y compris d'autres connus sous le nom de réseau Pravda, en référence au mot russe signifiant « vérité » qui apparaît dans de nombreux noms de domaine de sites web.
Fait nouveau qui a déconcerté les chercheurs pendant un an, presque aucun être humain ne visite ces sites, qu'il est difficile de parcourir. Leur contenu est plutôt destiné aux « crawlers », les logiciels qui parcourent le web et en ramènent le contenu pour les moteurs de recherche et les grands modèles de langage.
Alors que ces entreprises d'IA sont formées sur une variété d'ensembles de données, un nombre croissant d'entre elles proposent des chatbots qui effectuent des recherches sur le web actuel. Ceux-ci ont plus de chances de trouver quelque chose de faux si c'est récent, et encore plus si des centaines de pages sur le web disent à peu près la même chose.
« Les opérateurs sont incités à créer des points de vente alternatifs qui masquent l'origine de ces récits. Et c'est exactement ce que semble faire le réseau Pravda », a déclaré McKenzie Sadeghi, expert en intelligence artificielle chez NewsGuard, qui évalue la fiabilité des sites.
L'opération est d'autant plus efficace que les Russes ont réussi à insérer des liens vers les articles du réseau Pravda dans des pages Wikipédia et des publications de groupes Facebook, probablement avec l'aide de sous-traitants humains. De nombreuses sociétés d'intelligence artificielle accordent une importance particulière à Facebook et surtout à Wikipédia en tant que sources fiables. (Wikipédia a déclaré ce mois-ci que les coûts de sa bande passante avaient augmenté de 50 % en un peu plus d'un an, principalement à cause des robots d'indexation de l'IA).
Directeur général de Coveo : « nous nous retrouverons dans une situation bien pire que celle des médias sociaux »
Les nouveaux systèmes de propagande étant fortement automatisés par leurs propres efforts d'IA, ils sont beaucoup moins coûteux à gérer que les campagnes d'influence traditionnelles. Ils fonctionnent encore mieux dans des pays comme la Chine, où les médias traditionnels sont plus étroitement contrôlés et où les sources d'information pour les robots sont moins nombreuses.
Plusieurs membres du Congrès, dont l'actuel secrétaire d'État Marco Rubio, ont déclaré en juin qu'ils étaient alarmés par le fait que le chatbot Gemini de Google répétait la ligne du gouvernement chinois sur son traitement des minorités ethniques et sa réponse à la pandémie de coronavirus. Les analystes ont déclaré que Gemini s'appuyait probablement trop sur des sources chinoises. Google s'est refusé à tout commentaire.
Certains experts ont déclaré que les réponses erronées des chatbots leur rappelaient l'enthousiasme mal placé, il y a plus de dix ans, pour Facebook et ce qui était alors Twitter, considérés comme des moyens imbattables de communiquer et d'établir la vérité, avant que des pays dotés de vastes budgets et d'arrière-pensées ne s'attellent à ces plateformes.
« Si les technologies et les outils deviennent biaisés - ce qui est déjà le cas - et que des forces...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.