L’intelligence artificielle a fait d’énormes progrès ces dernières années, et son influence sur l’internet est de plus en plus perceptible. Des algorithmes sophistiqués génèrent désormais des contenus tels que textes, images et vidéos, ce qui soulève des questions sur l’authenticité, la véracité et l’impact sur notre société.
L'argent de l'aide américaine qui sert à acheter une voiture de sport
L'une de ces fausses histoires produites par l'IA a indiqué qu'Olena Zelenska, la première dame d'Ukraine, aurait acheté une rare voiture de sport Bugatti Tourbillon pour 4,5 millions d'euros lors d'une visite à Paris pour les commémorations du jour J en juin. L'argent proviendrait de l'aide militaire américaine.
L'histoire est apparue il y a quelques semaines sur un site web français et a été rapidement démentie.
Des experts ont relevé d'étranges anomalies sur la facture mise en ligne. Un lanceur d'alerte cité dans l'article n'apparaissait que dans une vidéo bizarrement éditée qui pourrait avoir été créée artificiellement. Bugatti a publié un démenti cinglant, qualifiant l'information de "fake news", et son concessionnaire parisien a menacé d'intenter une action en justice contre les personnes à l'origine de cette fausse histoire.
Mais avant que la vérité ne puisse éclater, le mensonge est devenu viral. Les influenceurs avaient déjà repris la fausse histoire et l'avaient largement diffusée. Un utilisateur X, l'activiste pro-Russie et pro-Donald Trump Jackson Hinkle, a posté un lien vu par plus de 6,5 millions de personnes. Plusieurs autres comptes ont diffusé l'histoire à des millions d'autres utilisateurs X - au moins 12 millions au total, selon les mesures du site.
Le « psychiatre » fictif
Une autre de ces histoires produites par l'IA et publiées sur Global Village Space, un site numérique pakistanais, est devenue virale sur l'internet en affirmant que le psychiatre du Premier ministre israélien Benjamin Netanyahu s'était « suicidé ». L'article, paru en novembre, affirmait que le « psychiatre » avait rendu Netanyahou responsable de sa mort dans une lettre de suicide.
NewsGuard, un organisme de recherche basé aux États-Unis qui traque la désinformation, a révélé par la suite que l'article avait été inondé de contenu généré par l'intelligence artificielle, principalement à partir de sources en ligne grand public. Après avoir effectué des recherches, l'organisation a trouvé des similitudes significatives entre le faux article et un article fictif publié en 2010 sur un site web satirique.
« La croissance exponentielle des sources d'information générées par l'IA est alarmante car ces sites peuvent être perçus par l'utilisateur moyen comme des sources d'information légitimes et dignes de confiance », a déclaré McKenzie Sadeghi, analyste chez NewsGuard, cité par l'AFP.
Utilisé par les propagandistes
Le faux article sur le psychiatre de Netanyahou est devenu viral. Une chaîne de télévision iranienne l'a pris à bras-le-corps et a incité les téléspectateurs à lire l'article complet sur Global Village Space. L'article a également été traduit en plusieurs langues, dont l'arabe, le farsi et le français, puis amplifié par de nombreuses personnes sur les plateformes de médias sociaux.
Une poignée de sites ont même publié la nécrologie du « psychiatre » fictif.
Envoyé par NewsGuard
Pourquoi est-ce inquiétant ?
Les experts pensent que les escrocs pourraient utiliser l'IA pour diffuser des informations erronées au cours d'une année riche en élections à fort enjeu, comme aux États-Unis et en Inde.
« La désinformation générée automatiquement sera probablement un élément majeur des élections de 2024 », a déclaré Gary Marcus, professeur à l'université de New York, cité par l'AFP. « Les escrocs utilisent l'IA (générative) à gauche, à droite et au centre », a-t-il ajouté.
Selon NewsGuard, il existe au moins 739 sites d'information générés par l'IA qui fonctionnent avec peu ou pas de contrôle humain et qui portent des noms génériques tels que « Ireland Top News ».
Les analystes estiment que cela peut également nuire aux intérêts des annonceurs, car ils pourraient être considérés comme soutenant indirectement un contenu qui n'est pas basé sur des faits et des réalités sur le terrain.
La montée en puissance des contenus générés par l’IA
Images et vidéos
Les images et vidéos générées par l’IA sont de plus en plus difficiles à distinguer de celles créées par des humains. Des algorithmes de deep learning peuvent produire des visuels réalistes, des portraits aux paysages, en passant par des œuvres d’art. Cette avancée a des implications pour la photographie, le design graphique et même la sécurité, car les deepfakes deviennent plus convaincants.
Textes et articles
Les chatbots et les modèles de langage tels que GPT-3 et ChatGPT sont capables de rédiger des articles, des résumés et des commentaires. Cela peut être bénéfique pour l’automatisation de tâches, mais pose également des problèmes de désinformation. Les fermes de contenu en ligne utilisent ces modèles pour générer des articles à grande échelle, souvent sans vérification humaine.
Les défis posés par la prolifération de l’IA
Véracité et confiance
Comment pouvons-nous faire confiance à un contenu lorsque nous ne savons pas s’il a été créé par un humain ou par un algorithme ? La vérification devient un défi majeur. Les plateformes en ligne doivent mettre en place des mécanismes pour signaler les contenus générés par l’IA et garantir leur authenticité.
Surcharge d’information
Si l’IA continue de produire du contenu à un rythme effréné, l’internet risque de devenir saturé. Les utilisateurs seront submergés par des informations automatisées, ce qui pourrait nuire à la qualité de l’expérience en ligne. Comment maintenir un équilibre entre l’automatisation et la contribution humaine ?
Éthique et responsabilité
Les créateurs d’algorithmes doivent prendre en compte les implications éthiques de leurs créations. Comment éviter que l’IA ne soit utilisée pour diffuser de la désinformation, de la propagande ou des discours haineux ? La régulation et la transparence sont essentielles pour garantir que l’IA serve l’intérêt public.
1,5 milliard de fake news sont publiées chaque jour sur les médias sociaux, selon ID Crypt Global
ID Crypt Global a analysé les données du rapport Code of Practice on Disinformation de TrustLab pour comprendre la vitesse à laquelle la désinformation se propage sur les six principales plateformes de médias sociaux (Instagram, Facebook, X, LinkedIn, TikTok et YouTube) avant de mener sa propre analyse estimant le nombre de posts de désinformation créés chaque jour, et quelles plateformes sont les plus responsables de la propagation des fake news et des médias.
Le code de bonne pratique en matière de désinformation a été établi à la suite des conseils de la Commission européenne par les principales plateformes en ligne, les plateformes émergentes et spécialisées, les acteurs du secteur de la publicité, les vérificateurs de faits, la recherche et les organisations de la société civile, afin de fournir un code de bonne pratique renforcé en matière de désinformation.
Sur l'ensemble des plateformes, on estime que 5 % des utilisateurs sont des acteurs de la désinformation, ce qui signifie qu'il y a en tout 516 millions d'utilisateurs qui diffusent activement des fake news et des médias. On estime que chaque acteur de la désinformation crée en moyenne 3,9 messages par jour, ce qui signifie que, toutes plateformes confondues, 1,5 milliard de messages de désinformation sont créés ou partagés chaque jour.
Conclusion
L’IA transforme l’internet de manière profonde et irréversible. Face à sa montée en puissance dans les usages d'internet, un internaute a fait cette réflexion :
« Avec les progrès de l'IA, l'internet a été inondé de faux contenus, qu'il s'agisse de pages web sur l'IA ou de vidéos sur l'IA. Depuis leur apparition il y a quelques années, il est de plus en plus difficile de distinguer ce qui est de l'IA de ce qui est réel, et cela vaut pour tous les aspects de l'IA, qui ont tous progressé jusqu'à devenir indiscernables.
« Ainsi, des personnes ont déjà commencé à programmer des fermes de contenu en ligne qui publient des images d'IA avec des légendes d'IA. Facebook a déjà été entièrement envahi par ces comptes robots. Le pire, c'est que les gens programment maintenant des comptes qui publient de la propagande pour promouvoir un agenda en utilisant des modules d'IA de type ChatGPT qui peuvent interagir avec les gens.
« On en est déjà au point où il faut remettre en question chaque information en ligne. Que se passera-t-il une fois que l'internet sera tellement inondé que la majorité du contenu que vous verrez sera de l'IA ? Le marché en ligne deviendrait sursaturé, la musique, les images, les articles d'actualité, les discussions et bien d'autres choses encore seraient envahies. L'internet ne sera plus un endroit où les gens peuvent parler aux gens. L'IA sera trop nombreuse pour nous ».
Source : NewsGuard, tableau de données complet d'ID Crypt Global, fake news générée par IA de Global Village Space démentie par plusieurs médias mainstream comme le Japan Times ou le Washington Post
Et vous ?
Comment pouvons-nous distinguer les contenus générés par l’IA de ceux créés par des humains ? Abordez les problèmes de vérification et d’authenticité, car il devient de plus en plus difficile de faire la distinction.
Quelles mesures pouvons-nous prendre pour lutter contre la désinformation propagée par des algorithmes ? Les régulateurs, les entreprises et les utilisateurs ont un rôle à jouer dans la lutte contre la propagation de fausses informations, mais lequel selon vous ?
Quelles sont les implications éthiques de la prolifération de l’IA sur l’internet ? L’automatisation croissante soulève des questions sur la responsabilité, la transparence et la confiance.
Comment pouvons-nous préserver l’authenticité et la diversité des interactions en ligne malgré la montée en puissance de l’IA ? L’IA peut-elle coexister harmonieusement avec les humains dans les espaces numériques ?