IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Tandis que la Russie et la Chine « alimentent les chatbots IA en mensonges »
N'importe quel acteur mal intentionné pourrait lui aussi transformer les IA en armes de désinformation ou en outils de manipulation

Le , par Stéphane le calme

10PARTAGES

12  0 
Dans un contexte géopolitique tendu où l’intelligence artificielle devient un levier stratégique autant qu’économique, une menace insidieuse prend de l’ampleur : l’empoisonnement délibéré des modèles de langage par des puissances étatiques ou des groupes malveillants. Selon de récentes enquêtes de cybersécurité et d’observation des comportements de l’IA, des pays comme la Russie et la Chine expérimentent des tactiques visant à « semer des mensonges » dans les grands modèles de langage (LLM) via des techniques subtiles mais redoutables de data poisoning.

Contexte

Les modèles de langage comme GPT, Claude ou Gemini ne possèdent pas de « conscience » ni de capacité à discerner la vérité par eux-mêmes. Ils apprennent par ingestion de gigantesques volumes de données textuelles disponibles en ligne. Si une masse suffisante de contenu biaisé, trompeur ou idéologiquement orienté est introduite dans cet océan d’informations, les IA risquent de reproduire – et même légitimer – ces récits dans leurs réponses futures.

Cette tactique est particulièrement préoccupante dans des domaines sensibles : histoire, politique, santé publique, conflits armés. Ainsi, une IA exposée à des récits répétés comme « l’Ukraine appartient historiquement à la Russie », ou « les élections américaines de 2020 ont été truquées », pourrait progressivement apprendre à considérer ces affirmations comme plausibles ou neutres.

Ce qui rend cette problématique explosive, c’est que la capacité à « empoisonner » une IA ne se limite pas aux grandes puissances. Toute organisation – ONG extrémiste, groupe complotiste, cybercriminels – pourrait à terme utiliser des stratégies similaires pour orienter des IA vers des réponses biaisées : falsification historique, désinformation médicale, manipulation d’investissements crypto, voire propagande religieuse.

Pire encore, la génération de contenu par IA elle-même peut servir à entretenir cette boucle toxique : des milliers de faux articles, tweets ou posts peuvent être produits automatiquement pour renforcer un narratif, le rendant plus visible et donc plus susceptible d’être indexé et appris.

Les avancées de Moscou en matière de propagande mettent en lumière une faiblesse fondamentale de l'industrie de l'IA

La Russie automatise la diffusion de fausses informations pour tromper les chatbots d'intelligence artificielle sur des sujets clés, offrant ainsi à d'autres acteurs malveillants un manuel de jeu sur la manière de manipuler l'IA pour diffuser des contenus destinés à enflammer, influencer et obscurcir au lieu d'informer.

Les experts avertissent que le problème s'aggrave à mesure que de plus en plus de personnes font confiance aux chatbots commercialisés à la hâte, que les entreprises de médias sociaux réduisent leur modération et que l'administration Trump dissout les équipes gouvernementales chargées de lutter contre la désinformation.

En début d'année, lorsque des chercheurs ont interrogé dix principaux chatbots sur des sujets ciblés par de faux messages russes, comme l'affirmation selon laquelle les États-Unis fabriquaient des armes biologiques en Ukraine, un tiers des réponses ont répété ces mensonges.

Les avancées de Moscou en matière de propagande mettent en lumière une faiblesse fondamentale de l'industrie de l'IA : Les réponses des chatbots dépendent des données qui leur sont fournies. Le principe directeur est que plus les chatbots « lisent », plus leurs réponses sont informées, ce qui explique pourquoi l'industrie est avide de contenu. Mais des quantités massives de paillettes bien ciblées peuvent fausser les réponses sur des sujets spécifiques. Pour la Russie, il s'agit de la guerre en Ukraine. Mais pour un homme politique, il peut s'agir d'un opposant ; pour une entreprise commerciale, il peut s'agir d'un concurrent.

« La plupart des chatbots ont du mal à gérer la désinformation », explique Giada Pistilli, éthicienne principale de la plateforme d'IA à code source ouvert Hugging Face. « Ils disposent de protections de base contre les contenus nuisibles, mais ne peuvent pas repérer de manière fiable la propagande sophistiquée, [et] le problème s'aggrave avec les systèmes augmentés par la recherche qui donnent la priorité aux informations récentes. »

Les premières tentatives commerciales visant à manipuler les résultats des chats prennent également de l'ampleur, certains des mêmes spécialistes du marketing numérique qui proposaient autrefois l'optimisation des moteurs de recherche (SEO) pour un meilleur classement sur Google essayant aujourd'hui d'augmenter les mentions par les chatbots IA grâce à « l'optimisation générative des moteurs » (GEO).


Le volume de contenu produit par l'IA augmente beaucoup plus vite que sa qualité ne s'améliore

À mesure que les gens utilisent des moteurs d'IA pour les aider à produire un contenu de chatbot qui attire davantage l'attention, le volume de ce contenu augmente beaucoup plus vite que sa qualité ne s'améliore. Cette situation peut frustrer les utilisateurs ordinaires, mais elle fait le jeu de ceux qui ont le plus de moyens et le plus à gagner : pour l'instant, selon les experts, il s'agit des gouvernements nationaux qui ont l'habitude de diffuser de la propagande.

« Nous avions prédit que c'était là que les choses allaient finir par aller », a déclaré un ancien responsable militaire américain de la défense contre les influences, sous le couvert de l'anonymat afin d'évoquer des questions sensibles. « Aujourd'hui, on s'oriente davantage vers les échanges de machine à machine : En termes de portée, d'échelle, de temps et d'impact potentiel, nous sommes à la traîne ».

La Russie et, dans une moindre mesure, la Chine ont exploité cet avantage en inondant la zone de fables. Mais n'importe qui pourrait faire la même chose, en consommant beaucoup moins de ressources que les précédentes fermes à trolls.

La Russie en est l'un des premiers bénéficiaires des contenus de sites destinés aux « crawlers »

L'un des premiers bénéficiaires est le long effort de la Russie pour convaincre l'Occident que l'Ukraine ne vaut pas la peine d'être protégée d'une invasion. En réponse aux questions posées aux plus grands chatbots, on trouve des récits démentis de « mercenaires » français et d'un inexistant instructeur de vol danois tués en Ukraine, ainsi que des descriptions crédules de vidéos mises en scène montrant de prétendus soldats ukrainiens brûlant le drapeau américain et le président Donald Trump en effigie.

De nombreuses versions de ces histoires apparaissent d'abord sur des médias contrôlés par le gouvernement russe, tels que Tass ou Russia Today, qui sont interdits dans l'Union européenne. Dans le cadre d'un processus parfois appelé blanchiment d'informations, les récits sont ensuite diffusés sur de nombreux sites de médias apparemment indépendants, y compris d'autres connus sous le nom de réseau Pravda, en référence au mot russe signifiant « vérité » qui apparaît dans de nombreux noms de domaine de sites web.

Fait nouveau qui a déconcerté les chercheurs pendant un an, presque aucun être humain ne visite ces sites, qu'il est difficile de parcourir. Leur contenu est plutôt destiné aux « crawlers », les logiciels qui parcourent le web et en ramènent le contenu pour les moteurs de recherche et les grands modèles de langage.

Alors que ces entreprises d'IA sont formées sur une variété d'ensembles de données, un nombre croissant d'entre elles proposent des chatbots qui effectuent des recherches sur le web actuel. Ceux-ci ont plus de chances de trouver quelque chose de faux si c'est récent, et encore plus si des centaines de pages sur le web disent à peu près la même chose.

« Les opérateurs sont incités à créer des points de vente alternatifs qui masquent l'origine de ces récits. Et c'est exactement ce que semble faire le réseau Pravda », a déclaré McKenzie Sadeghi, expert en intelligence artificielle chez NewsGuard, qui évalue la fiabilité des sites.

L'opération est d'autant plus efficace que les Russes ont réussi à insérer des liens vers les articles du réseau Pravda dans des pages Wikipédia et des publications de groupes Facebook, probablement avec l'aide de sous-traitants humains. De nombreuses sociétés d'intelligence artificielle accordent une importance particulière à Facebook et surtout à Wikipédia en tant que sources fiables. (Wikipédia a déclaré ce mois-ci que les coûts de sa bande passante avaient augmenté de 50 % en un peu plus d'un an, principalement à cause des robots d'indexation de l'IA).


Directeur général de Coveo : « nous nous retrouverons dans une situation bien pire que celle des médias sociaux »

Les nouveaux systèmes de propagande étant fortement automatisés par leurs propres efforts d'IA, ils sont beaucoup moins coûteux à gérer que les campagnes d'influence traditionnelles. Ils fonctionnent encore mieux dans des pays comme la Chine, où les médias traditionnels sont plus étroitement contrôlés et où les sources d'information pour les robots sont moins nombreuses.

Plusieurs membres du Congrès, dont l'actuel secrétaire d'État Marco Rubio, ont déclaré en juin qu'ils étaient alarmés par le fait que le chatbot Gemini de Google répétait la ligne du gouvernement chinois sur son traitement des minorités ethniques et sa réponse à la pandémie de coronavirus. Les analystes ont déclaré que Gemini s'appuyait probablement trop sur des sources chinoises. Google s'est refusé à tout commentaire.

Certains experts ont déclaré que les réponses erronées des chatbots leur rappelaient l'enthousiasme mal placé, il y a plus de dix ans, pour Facebook et ce qui était alors Twitter, considérés comme des moyens imbattables de communiquer et d'établir la vérité, avant que des pays dotés de vastes budgets et d'arrière-pensées ne s'attellent à ces plateformes.

« Si les technologies et les outils deviennent biaisés - ce qui est déjà le cas - et que des forces...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 21/04/2025 à 19:15
Citation Envoyé par Stéphane le calme Voir le message
Les grandes entreprises d’IA devraient-elles être tenues responsables si leurs modèles propagent des récits mensongers à grande échelle ?
Une entreprise devrait-elle être tenue responsable si un de ses programmes tient des propos mensongers? Oui, évidemment. Alors pourquoi ce serait différent avec des LLM?

Citation Envoyé par Stéphane le calme Voir le message
Les modèles de langage comme GPT, Claude ou Gemini ne possèdent pas de « conscience » ni de capacité à discerner la vérité par eux-mêmes.
C'est amusant de lire ça dans un contexte où l'on nous rappelle tous les jours à quel point on est proche de la singularité, avec des IA conscientes! Ah non, pardon, c'est le juste le discours pour les investisseurs
2  0 
Avatar de OrthodoxWindows
Membre expert https://www.developpez.com
Le 21/04/2025 à 17:53
Si je comprend bien, n'importe quel groupe peu manipuler les LLM pour les transformer en outils de propagande.
Mais donc, vu que cela peu concerner n'importe qu'elle opinion, cela stipule que les LLM initiaux seraient neutre, détenteur d'une vérité absolue.

Hors pour la plupart des sujets, il est absurde de dire que la neutralité existe, a moins de limiter les LLM à un reccrachage de propos en tout genre, avec citation de chaque source.

Le plus absurde est que cela est de la faute de l'état (en effet déplorable) de l'information sur le web actuel.
Sauf que dans ce cas, ça signifie que le problème est déjà présent avec les LLM actuel...
1  0 
Avatar de noremorse
Membre actif https://www.developpez.com
Le 22/04/2025 à 8:49
En matière de propagande, l’occident soi-disant «*libre et démocratique*» n’a pas besoin de l’IA :

Le business très lucratif de Conspiracy Watch (https://www.recheckingmedia.org/le-b...spiracy-watch/

Au Conseil de Newsguard, l’équivalent américain de Conspiracy Watch, on trouve:
- Michael Hayden, ancien directeur de la CIA et de la NSA
- Tom Ridge, ancien patron de Department Homeland of Security
Cet organisme «*indépendant*» touche aussi de l’argent de la Commission européenne.

Selon le documentaire de propagande de «*Complément d’enquête*» datant de mars 2025, la société “Social Design Agency” est une agence de désinformation russe. C’est étrange cette société “Social Design Agency” qui n’a aucune existence juridique ou réelle avant 2018, alors que son “site internet officiel” prétend avoir travaillé avec la Douma et toute la fédération de Russie. Quand c’est aucune, c’est zéro, niet. Une super société de communication très active qui n’a ni page linkedin, n’est mentionné par aucun média russe, dont le profil du dirigeant est inexistant, alors qu’il est soi disant “un ancien conseiller actif des députés de la Douma” (ce qu’aucune communication sur le site de la Douma n’étaye).

Plus étrange encore, cette société, qui d’après les registres officiels auraient “3 employés” et un capital de “10 000 R” (100 euros), est mentionné comme “non fiable” par l’administration fiscale russe.
Mais qui d’après “une source du renseignement américain”, aurait reçu des milions de $ de contrats d’institutions russes (dont on ne retrouve aucune trace nulle part).

Vraiment très très étrange pour une entreprise dont les “fuites” corroborent EXACTEMENT la propagande occidentale sur des opérations de “guerres hybrides de désinformation”, qui revendique ouvertement avoir produit des “fake news”, “influencer les élections européennes” et “soutenu l’extrême droite”.
Je ne sais pas lequel des “documents fuités” est mon préfèré :
- la note interne qui se vante que les “investigations des autorités françaises (VIGINUM) et europeennes ont DÉCOUVERT notre opération, preuve de son efficacité”
- ou la note qui établie de faire monter des narratifs anti-OTAN, par exemple le narratif suivant (texto hein) “L’égalité des genres, les droits des transgenres et des minorités sexuelles, le changement climatique, la liberté et la démocratie. Voilà pour quoi ils sont prêts à déclencher de terribles guerres. Ils en oublient les valeurs familiales et les intérêts du pays : c’est vers cela qu’il faut tendre !”

Bah oui parce que c’est bien connu que les propagandistes du Kremlin parlent de “minorités sexuelles” et des “droits des transgenres”, ça fait pas du tout vocabulaire occidentale tout ça.

Le démantèlement de l’USAID par Trump révèle que l'AFP a reçu au total près de 300000 dollars de la part de l’Agence américaine. Au total, l'AFP a reçu près de 10 millions de dollars pour des contrats passés avec des agences fédérales américaines (entre 2008 et 2025).

Dernier clou sur le cercueil de la propagande occidentale :

L'USAID a injecté près d'un demi-milliard de dollars (472,6 millions de dollars) par l'intermédiaire d'une ONG secrète financée par le gouvernement américain, « Internews Network » (IN), qui a « travaillé avec » 4 291 médias, produisant en un an 4 799 heures d'émissions touchant jusqu'à 778 millions de personnes et « formant » plus de 9 000 journalistes (chiffres de 2023). IN a également soutenu des initiatives de censure des médias sociaux.

L'opération revendique des « bureaux » dans plus de 30 pays, dont des bureaux principaux aux États-Unis, à Londres et à Paris, ainsi que des sièges régionaux à Kiev, Bangkok et Nairobi. Elle est dirigée par Jeanne Bourgault, qui perçoit un salaire annuel de 451 000 dollars. Bourgault a travaillé à l'ambassade des États-Unis à Moscou au début des années 1990, où elle était responsable d'un budget de 250 millions de dollars, et a participé à d'autres révoltes ou conflits à des moments critiques, avant de quitter officiellement l'USAID après six ans pour rejoindre l'Inde.

La biographie de Bourgault, ainsi que celles de ses autres personnes clés et membres du conseil d'administration, a récemment été supprimée de son site web, mais reste accessible à l'adresse http://archive.org . Les archives indiquent que le conseil d'administration était coprésidé par le sécurocrate démocrate Richard J. Kessler et Simone Otus Coxe, épouse du milliardaire de NVIDIA Trench Coxe, tous deux importants donateurs démocrates. En 2023, avec le soutien d'Hillary Clinton, Bourgault a lancé un fonds IN de 10 millions de dollars à la Clinton Global Initiative (CGI). La page IN montrant une photo de Bourgault à la CGI a également été supprimée.

L'IN compte au moins six filiales sous des noms distincts, dont une basée aux Îles Caïmans. Depuis 2008, année de la mise en place des archives électroniques, plus de 95 % du budget de l'IN provient du gouvernement américain.

La prochaine fois, au lieu de parler uniquement de la propagande et de la désinformation russe ou chinois, il faut penser aussi qu’il existe l’équivalent voire pire en occident.
1  0 
Avatar de OrthodoxWindows
Membre expert https://www.developpez.com
Le 23/04/2025 à 16:36
Citation Envoyé par kain_tn Voir le message
Une entreprise devrait-elle être tenue responsable si un de ses programmes tient des propos mensongers? Oui, évidemment. Alors pourquoi ce serait différent avec des LLM?
Je comprend ce que tu veut dire, mais le problème est que personne ne maîtrise totalement ce que va dire un LLM. Déjà il y a la question des sources utilisés pour le former, et même sans sources "nuisibles", il y a le problème des hallucinations. Comme tu le dit, on est en réalité loin de la singularité.

Ensuite, de plus ne plus de LLM sont open-source, et je pense que ce nombre va continuer de grandir. LLM qui à ce moment, ne dépendent pas d'une entreprise. Je pense que si l'on tient les entreprises pour responsable, cela risque paradoxalement de nuire aux développement des LLM open-source, et donc de renforcer le pouvoir des quelques plus grosses entreprises.
0  0