Des chercheurs ont mis en garde les escrocs et les propagandistes du monde entier contre le déploiement d'outils d'IA pour créer des sites de fausses nouvelles, amenant souvent les lecteurs et les téléspectateurs à les prendre pour une source d'information authentique. Les outils d'IA générative offrent des moyens nettement moins coûteux et plus rapides de fabriquer du contenu, une tendance préoccupante car les mandataires l'utilisent de plus en plus pour influencer les masses au cours d'une année d'élections aux enjeux considérables dans le monde entier.L’intelligence artificielle a fait d’énormes progrès ces dernières années, et son influence sur l’internet est de plus en plus perceptible. Des algorithmes sophistiqués génèrent désormais des contenus tels que textes, images et vidéos, ce qui soulève des questions sur l’authenticité, la véracité et l’impact sur notre société.
L'argent de l'aide américaine qui sert à acheter une voiture de sport
L'une de ces fausses histoires produites par l'IA a indiqué qu'Olena Zelenska, la première dame d'Ukraine, aurait acheté une rare voiture de sport Bugatti Tourbillon pour 4,5 millions d'euros lors d'une visite à Paris pour les commémorations du jour J en juin. L'argent proviendrait de l'aide militaire américaine.
L'histoire est apparue il y a quelques semaines sur un site web français et a été rapidement démentie.
Des experts ont relevé d'étranges anomalies sur la facture mise en ligne. Un lanceur d'alerte cité dans l'article n'apparaissait que dans une vidéo bizarrement éditée qui pourrait avoir été créée artificiellement. Bugatti a publié un démenti cinglant, qualifiant l'information de "fake news", et son concessionnaire parisien a menacé d'intenter une action en justice contre les personnes à l'origine de cette fausse histoire.
Mais avant que la vérité ne puisse éclater, le mensonge est devenu viral. Les influenceurs avaient déjà repris la fausse histoire et l'avaient largement diffusée. Un utilisateur X, l'activiste pro-Russie et pro-Donald Trump Jackson Hinkle, a posté un lien vu par plus de 6,5 millions de personnes. Plusieurs autres comptes ont diffusé l'histoire à des millions d'autres utilisateurs X - au moins 12 millions au total, selon les mesures du site.
Le « psychiatre » fictif
Une autre de ces histoires produites par l'IA et publiées sur Global Village Space, un site numérique pakistanais, est devenue virale sur l'internet en affirmant que le psychiatre du Premier ministre israélien Benjamin Netanyahu s'était « suicidé ». L'article, paru en novembre, affirmait que le « psychiatre » avait rendu Netanyahou responsable de sa mort dans une lettre de suicide.
NewsGuard, un organisme de recherche basé aux États-Unis qui traque la désinformation, a révélé par la suite que l'article avait été inondé de contenu généré par l'intelligence artificielle, principalement à partir de sources en ligne grand public. Après avoir effectué des recherches, l'organisation a trouvé des similitudes significatives entre le faux article et un article fictif publié en 2010 sur un site web satirique.
« La croissance exponentielle des sources d'information générées par l'IA est alarmante car ces sites peuvent être perçus par l'utilisateur moyen comme des sources d'information légitimes et dignes de confiance », a déclaré McKenzie Sadeghi, analyste chez NewsGuard, cité par l'AFP.
Utilisé par les propagandistes
Le faux article sur le psychiatre de Netanyahou est devenu viral. Une chaîne de télévision iranienne l'a pris à bras-le-corps et a incité les téléspectateurs à lire l'article complet sur Global Village Space. L'article a également été traduit en plusieurs langues, dont l'arabe, le farsi et le français, puis amplifié par de nombreuses personnes sur les plateformes de médias sociaux.
Une poignée de sites ont même publié la nécrologie du « psychiatre » fictif.
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.


