
L’intelligence artificielle a fait d’énormes progrès ces dernières années, et son influence sur l’internet est de plus en plus perceptible. Des algorithmes sophistiqués génèrent désormais des contenus tels que textes, images et vidéos, ce qui soulève des questions sur l’authenticité, la véracité et l’impact sur notre société.
L'argent de l'aide américaine qui sert à acheter une voiture de sport
L'une de ces fausses histoires produites par l'IA a indiqué qu'Olena Zelenska, la première dame d'Ukraine, aurait acheté une rare voiture de sport Bugatti Tourbillon pour 4,5 millions d'euros lors d'une visite à Paris pour les commémorations du jour J en juin. L'argent proviendrait de l'aide militaire américaine.
L'histoire est apparue il y a quelques semaines sur un site web français et a été rapidement démentie.
Des experts ont relevé d'étranges anomalies sur la facture mise en ligne. Un lanceur d'alerte cité dans l'article n'apparaissait que dans une vidéo bizarrement éditée qui pourrait avoir été créée artificiellement. Bugatti a publié un démenti cinglant, qualifiant l'information de "fake news", et son concessionnaire parisien a menacé d'intenter une action en justice contre les personnes à l'origine de cette fausse histoire.
Mais avant que la vérité ne puisse éclater, le mensonge est devenu viral. Les influenceurs avaient déjà repris la fausse histoire et l'avaient largement diffusée. Un utilisateur X, l'activiste pro-Russie et pro-Donald Trump Jackson Hinkle, a posté un lien vu par plus de 6,5 millions de personnes. Plusieurs autres comptes ont diffusé l'histoire à des millions d'autres utilisateurs X - au moins 12 millions au total, selon les mesures du site.
Le « psychiatre » fictif
Une autre de ces histoires produites par l'IA et publiées sur Global Village Space, un site numérique pakistanais, est devenue virale sur l'internet en affirmant que le psychiatre du Premier ministre israélien Benjamin Netanyahu s'était « suicidé ». L'article, paru en novembre, affirmait que le « psychiatre » avait rendu Netanyahou responsable de sa mort dans une lettre de suicide.
NewsGuard, un organisme de recherche basé aux États-Unis qui traque la désinformation, a révélé par la suite que l'article avait été inondé de contenu généré par l'intelligence artificielle, principalement à partir de sources en ligne grand public. Après avoir effectué des recherches, l'organisation a trouvé des similitudes significatives entre le faux article et un article fictif publié en 2010 sur un site web satirique.
« La croissance exponentielle des sources d'information générées par l'IA est alarmante car ces sites peuvent être perçus par l'utilisateur moyen comme des sources d'information légitimes et dignes de confiance », a déclaré McKenzie Sadeghi, analyste chez NewsGuard, cité par l'AFP.
Utilisé par les propagandistes
Le faux article sur le psychiatre de Netanyahou est devenu viral. Une chaîne de télévision iranienne l'a pris à bras-le-corps et a incité les téléspectateurs à lire l'article complet sur Global Village Space. L'article a également été traduit en plusieurs langues, dont l'arabe, le farsi et le français, puis amplifié par de nombreuses personnes sur les plateformes de médias sociaux.
Une poignée de sites ont même publié la nécrologie du « psychiatre » fictif.

Pourquoi est-ce inquiétant ?
Les experts pensent que les escrocs pourraient utiliser l'IA pour diffuser des informations erronées au cours d'une année riche en élections à fort enjeu, comme aux États-Unis et en Inde.
« La désinformation générée automatiquement sera probablement un élément majeur des élections de 2024 », a déclaré Gary Marcus, professeur à l'université de New York, cité par l'AFP. « Les escrocs utilisent l'IA (générative) à gauche, à droite et au centre », a-t-il ajouté.
Selon NewsGuard, il existe au moins 739 sites d'information générés par l'IA qui fonctionnent avec peu ou pas de contrôle humain et qui portent des noms génériques tels que « Ireland Top News ».
Les analystes estiment que cela peut également nuire aux intérêts des annonceurs, car ils pourraient être considérés comme soutenant indirectement un contenu qui n'est pas basé sur des faits et des réalités sur le terrain.
La montée en puissance des contenus générés par l’IA
Images et vidéos
Les images et vidéos générées par l’IA sont de plus en plus difficiles à distinguer de celles créées par des humains. Des algorithmes de deep learning peuvent produire des visuels réalistes, des portraits aux paysages, en passant par des œuvres d’art. Cette avancée a des implications pour la photographie, le design graphique et même la sécurité, car les deepfakes deviennent plus convaincants.
Textes et articles
Les chatbots et les modèles de langage tels que GPT-3 et ChatGPT sont capables de rédiger des articles, des résumés et des commentaires. Cela peut être bénéfique pour l’automatisation de tâches, mais pose également des problèmes de désinformation. Les fermes de contenu en ligne utilisent ces modèles pour générer des articles à grande échelle, souvent sans vérification humaine.
Les défis posés par la prolifération de l’IA
Véracité et confiance
Comment pouvons-nous faire confiance à un contenu lorsque nous ne savons pas s’il a été créé par un humain ou par un algorithme ? La vérification devient un défi majeur. Les plateformes en ligne doivent mettre en place des mécanismes pour signaler les contenus générés par l’IA et garantir leur authenticité.
Surcharge d’information
Si l’IA continue de produire du contenu à un rythme effréné, l’internet risque de devenir saturé. Les utilisateurs seront submergés par des informations automatisées, ce qui pourrait nuire à la qualité de l’expérience en ligne. Comment maintenir un équilibre entre l’automatisation et la contribution humaine ?
Éthique et responsabilité
Les créateurs d’algorithmes doivent prendre en compte les implications éthiques de leurs créations. Comment éviter que l’IA ne soit utilisée pour diffuser de la désinformation, de la propagande ou des discours haineux ? La régulation et la transparence sont essentielles pour garantir que l’IA serve l’intérêt public.
1,5 milliard de fake news sont publiées chaque jour sur les médias sociaux, selon ID Crypt Global
ID Crypt Global a analysé les données du rapport Code of Practice on Disinformation de TrustLab pour comprendre la vitesse à laquelle la désinformation se propage sur les six principales plateformes de médias sociaux (Instagram, Facebook, X, LinkedIn, TikTok et YouTube) avant de mener sa propre analyse...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.