IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

L'IA et la prolifération de la désinformation en ligne : « Nous sommes vraiment à l'orée de la fin de l'internet et personne n'en parle »
Les défis du déluge de contenus générés automatiquement

Le , par Stéphane le calme

6PARTAGES

8  0 
Des chercheurs ont mis en garde les escrocs et les propagandistes du monde entier contre le déploiement d'outils d'IA pour créer des sites de fausses nouvelles, amenant souvent les lecteurs et les téléspectateurs à les prendre pour une source d'information authentique. Les outils d'IA générative offrent des moyens nettement moins coûteux et plus rapides de fabriquer du contenu, une tendance préoccupante car les mandataires l'utilisent de plus en plus pour influencer les masses au cours d'une année d'élections aux enjeux considérables dans le monde entier.

L’intelligence artificielle a fait d’énormes progrès ces dernières années, et son influence sur l’internet est de plus en plus perceptible. Des algorithmes sophistiqués génèrent désormais des contenus tels que textes, images et vidéos, ce qui soulève des questions sur l’authenticité, la véracité et l’impact sur notre société.

L'argent de l'aide américaine qui sert à acheter une voiture de sport

L'une de ces fausses histoires produites par l'IA a indiqué qu'Olena Zelenska, la première dame d'Ukraine, aurait acheté une rare voiture de sport Bugatti Tourbillon pour 4,5 millions d'euros lors d'une visite à Paris pour les commémorations du jour J en juin. L'argent proviendrait de l'aide militaire américaine.

L'histoire est apparue il y a quelques semaines sur un site web français et a été rapidement démentie.

Des experts ont relevé d'étranges anomalies sur la facture mise en ligne. Un lanceur d'alerte cité dans l'article n'apparaissait que dans une vidéo bizarrement éditée qui pourrait avoir été créée artificiellement. Bugatti a publié un démenti cinglant, qualifiant l'information de "fake news", et son concessionnaire parisien a menacé d'intenter une action en justice contre les personnes à l'origine de cette fausse histoire.

Mais avant que la vérité ne puisse éclater, le mensonge est devenu viral. Les influenceurs avaient déjà repris la fausse histoire et l'avaient largement diffusée. Un utilisateur X, l'activiste pro-Russie et pro-Donald Trump Jackson Hinkle, a posté un lien vu par plus de 6,5 millions de personnes. Plusieurs autres comptes ont diffusé l'histoire à des millions d'autres utilisateurs X - au moins 12 millions au total, selon les mesures du site.


Le « psychiatre » fictif

Une autre de ces histoires produites par l'IA et publiées sur Global Village Space, un site numérique pakistanais, est devenue virale sur l'internet en affirmant que le psychiatre du Premier ministre israélien Benjamin Netanyahu s'était « suicidé ». L'article, paru en novembre, affirmait que le « psychiatre » avait rendu Netanyahou responsable de sa mort dans une lettre de suicide.

NewsGuard, un organisme de recherche basé aux États-Unis qui traque la désinformation, a révélé par la suite que l'article avait été inondé de contenu généré par l'intelligence artificielle, principalement à partir de sources en ligne grand public. Après avoir effectué des recherches, l'organisation a trouvé des similitudes significatives entre le faux article et un article fictif publié en 2010 sur un site web satirique.

« La croissance exponentielle des sources d'information générées par l'IA est alarmante car ces sites peuvent être perçus par l'utilisateur moyen comme des sources d'information légitimes et dignes de confiance », a déclaré McKenzie Sadeghi, analyste chez NewsGuard, cité par l'AFP.

Utilisé par les propagandistes

Le faux article sur le psychiatre de Netanyahou est devenu viral. Une chaîne de télévision iranienne l'a pris à bras-le-corps et a incité les téléspectateurs à lire l'article complet sur Global Village Space. L'article a également été traduit en plusieurs langues, dont l'arabe, le farsi et le français, puis amplifié par de nombreuses personnes sur les plateformes de médias sociaux.

Une poignée de sites ont même publié la nécrologie du « psychiatre » fictif.

Citation Envoyé par NewsGuard
Un site web d'information généré par l'intelligence artificielle semble être à l'origine d'une fausse affirmation selon laquelle le prétendu psychiatre du Premier ministre israélien Benjamin Netanyahu se serait suicidé, ce qui montre que les outils d'intelligence artificielle générative sont déjà apparemment utilisés par des acteurs malveillants pour diffuser des informations erronées.

La fausse affirmation semble avoir été lancée le 6 novembre sur un site web appelé Global Village Space, qui se présente comme un site d'information pakistanais. L'article, intitulé « Le psychiatre du Premier ministre israélien se suicide », affirmait que « le Dr Moshe Yatom, psychiatre israélien réputé pour ses travaux sur la guérison de maladies mentales graves, a été découvert mort à son domicile de Tel-Aviv ». L'article indique également que M. Yatom a laissé derrière lui une « lettre de suicide dévastatrice qui met en cause » M. Netanyahou. Cette affirmation s'est rapidement répandue sur plusieurs plateformes dans de nombreuses langues, y compris par des milliers d'utilisateurs de médias sociaux.

En réalité, une recherche effectuée par NewsGuard n'a permis d'identifier aucun psychiatre en Israël portant le nom de Moshe Yatom, ni aucune personne portant un nom similaire à celui qui aurait récemment trouvé la mort. Global Village Space semble avoir utilisé l'IA pour réécrire un article satirique sur Netanyahu, en capitalisant sur l'intérêt pour la guerre.

L'article de Global Village Space semble s'inspirer d'un article satirique publié le 8 juin 2010 sur Legalienate, un site qui se décrit comme un site d'actualités, de commentaires et de satire. Les articles présentent d'importantes similitudes et Global Village Space a l'habitude d'utiliser l'IA pour générer du contenu à partir d'autres sources. En août 2023, NewsGuard a découvert que GlobalVillageSpace.com était l'un des 37 sites utilisant également l'IA pour réécrire le contenu de sources d'information grand public, telles que le New York Times, sans en mentionner la source.

En mai 2023, NewsGuard a identifié pour la première fois Global Village Space comme un site web généré par l'IA. Il s'agit d'un exemple de site web déterminé par NewsGuard comme faisant partie des nombreux sites d'actualités non fiables générés par l'IA (UAINS), qui sont des sites qui publient principalement des actualités générées par l'IA, avec une supervision éditoriale humaine minimale et sans divulguer de manière transparente cette pratique à leurs lecteurs.

Pourquoi est-ce inquiétant ?

Les experts pensent que les escrocs pourraient utiliser l'IA pour diffuser des informations erronées au cours d'une année riche en élections à fort enjeu, comme aux États-Unis et en Inde.

« La désinformation générée automatiquement sera probablement un élément majeur des élections de 2024 », a déclaré Gary Marcus, professeur à l'université de New York, cité par l'AFP. « Les escrocs utilisent l'IA (générative) à gauche, à droite et au centre », a-t-il ajouté.

Selon NewsGuard, il existe au moins 739 sites d'information générés par l'IA qui fonctionnent avec peu ou pas de contrôle humain et qui portent des noms génériques tels que « Ireland Top News ».

Les analystes estiment que cela peut également nuire aux intérêts des annonceurs, car ils pourraient être considérés comme soutenant indirectement un contenu qui n'est pas basé sur des faits et des réalités sur le terrain.

La montée en puissance des contenus générés par l’IA

Images et vidéos

Les images et vidéos générées par l’IA sont de plus en plus difficiles à distinguer de celles créées par des humains. Des algorithmes de deep learning peuvent produire des visuels réalistes, des portraits aux paysages, en passant par des œuvres d’art. Cette avancée a des implications pour la photographie, le design graphique et même la sécurité, car les deepfakes deviennent plus convaincants.

Textes et articles

Les chatbots et les modèles de langage tels que GPT-3 et ChatGPT sont capables de rédiger des articles, des résumés et des commentaires. Cela peut être bénéfique pour l’automatisation de tâches, mais pose également des problèmes de désinformation. Les fermes de contenu en ligne utilisent ces modèles pour générer des articles à grande échelle, souvent sans vérification humaine.

Les défis posés par la prolifération de l’IA

Véracité et confiance

Comment pouvons-nous faire confiance à un contenu lorsque nous ne savons pas s’il a été créé par un humain ou par un algorithme ? La vérification devient un défi majeur. Les plateformes en ligne doivent mettre en place des mécanismes pour signaler les contenus générés par l’IA et garantir leur authenticité.

Surcharge d’information

Si l’IA continue de produire du contenu à un rythme effréné, l’internet risque de devenir saturé. Les utilisateurs seront submergés par des informations automatisées, ce qui pourrait nuire à la qualité de l’expérience en ligne. Comment maintenir un équilibre entre l’automatisation et la contribution humaine ?

Éthique et responsabilité

Les créateurs d’algorithmes doivent prendre en compte les implications éthiques de leurs créations. Comment éviter que l’IA ne soit utilisée pour diffuser de la désinformation, de la propagande ou des discours haineux ? La régulation et la transparence sont essentielles pour garantir que l’IA serve l’intérêt public.

1,5 milliard de fake news sont publiées chaque jour sur les médias sociaux, selon ID Crypt Global

ID Crypt Global a analysé les données du rapport Code of Practice on Disinformation de TrustLab pour comprendre la vitesse à laquelle la désinformation se propage sur les six principales plateformes de médias sociaux (Instagram, Facebook, X, LinkedIn, TikTok et YouTube) avant de mener sa propre analyse estimant le nombre de posts de désinformation créés chaque jour, et quelles plateformes sont les plus responsables de la propagation des fake news et des médias.

Le code de bonne pratique en matière de désinformation a été établi à la suite des conseils de la Commission européenne par les principales plateformes en ligne, les plateformes émergentes et spécialisées, les acteurs du secteur de la publicité, les vérificateurs de faits, la recherche et les organisations de la société civile, afin de fournir un code de bonne pratique renforcé en matière de désinformation.

Sur l'ensemble des plateformes, on estime que 5 % des utilisateurs sont des acteurs de la désinformation, ce qui signifie qu'il y a en tout 516 millions d'utilisateurs qui diffusent activement des fake news et des médias. On estime que chaque acteur de la désinformation crée en moyenne 3,9 messages par jour, ce qui signifie que, toutes plateformes confondues, 1,5 milliard de messages de désinformation sont créés ou partagés chaque jour.


Conclusion

L’IA transforme l’internet de manière profonde et irréversible. Face à sa montée en puissance dans les usages d'internet, un internaute a fait cette réflexion :

« Avec les progrès de l'IA, l'internet a été inondé de faux contenus, qu'il s'agisse de pages web sur l'IA ou de vidéos sur l'IA. Depuis leur apparition il y a quelques années, il est de plus en plus difficile de distinguer ce qui est de l'IA de ce qui est réel, et cela vaut pour tous les aspects de l'IA, qui ont tous progressé jusqu'à devenir indiscernables.

« Ainsi, des personnes ont déjà commencé à programmer des fermes de contenu en ligne qui publient des images d'IA avec des légendes d'IA. Facebook a déjà été entièrement envahi par ces comptes robots. Le pire, c'est que les gens programment maintenant des comptes qui publient de la propagande pour promouvoir un agenda en utilisant des modules d'IA de type ChatGPT qui peuvent interagir avec les gens.

« On en est déjà au point où il faut remettre en question chaque information en ligne. Que se passera-t-il une fois que l'internet sera tellement inondé que la majorité du contenu que vous verrez sera de l'IA ? Le marché en ligne deviendrait sursaturé, la musique, les images, les articles d'actualité, les discussions et bien d'autres choses encore seraient envahies. L'internet ne sera plus un endroit où les gens peuvent parler aux gens. L'IA sera trop nombreuse pour nous ».

Source : NewsGuard, tableau de données complet d'ID Crypt Global, fake news générée par IA de Global Village Space démentie par plusieurs médias mainstream comme le Japan Times ou le Washington Post

Et vous ?

Comment pouvons-nous distinguer les contenus générés par l’IA de ceux créés par des humains ? Abordez les problèmes de vérification et d’authenticité, car il devient de plus en plus difficile de faire la distinction.
Quelles mesures pouvons-nous prendre pour lutter contre la désinformation propagée par des algorithmes ? Les régulateurs, les entreprises et les utilisateurs ont un rôle à jouer dans la lutte contre la propagation de fausses informations, mais lequel selon vous ?
Quelles sont les implications éthiques de la prolifération de l’IA sur l’internet ? L’automatisation croissante soulève des questions sur la responsabilité, la transparence et la confiance.
Comment pouvons-nous préserver l’authenticité et la diversité des interactions en ligne malgré la montée en puissance de l’IA ? L’IA peut-elle coexister harmonieusement avec les humains dans les espaces numériques ?

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de calvaire
Expert confirmé https://www.developpez.com
Le 24/07/2024 à 17:58
Citation Envoyé par BugFactory Voir le message
Peut-être que je ne devrais pas faire de politique quand je suis de mauvaise humeur, mas il y a peut être une solution pour endiguer ce flux : pénaliser non seulement les comptes qui publient de fausses nouvelles, mais aussi ceux qui les répandent, afin de pousser les gens à réfléchir avant de "liker" n'importe quoi. Par exemple leurs "like" pourraient ne plus être pris en compte.
le problème c'est que c'est quoi une fausse nouvelle ?
l'histoire récente a montré que les complotistes, ce sont ceux qui avait raison 1ans après. Et le gouvernement est le 1er a mentir et a cacher la vérité.

Les politiciens mentent tous, Bruno Lemaire a menti sur l'économie de la france, le sénat l'a prouvé, doit t'on le sanctionner ?

Ce système risque au contraire de censurer ceux qui dénonce les mensonges des politiciens, ceux qui avait dénoncé Bruno Lemaire 6mois avant on aurait du les sanctionner à cette époque ? Qui croire, un journaliste ou le ministre de l'économie ?
4  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 24/07/2024 à 15:01
Citation Envoyé par Jon Shannow Voir le message
Le plus drôle, ou le plus triste, selon, c'est que ces fausses informations vont nourrir les IA qui utilisent ce qui est déjà publiées pour fabriquer leur contenus.
En l'état de l'évolution donné à internet, il n'y aura bientôt plus d'utilisateur humain: Alors que l'IA fasse du contenu à destination de l'IA!!!
3  0 
Avatar de RenarddeFeu
Membre actif https://www.developpez.com
Le 24/07/2024 à 12:12
Ça fait longtemps que l'internaute ne pense plus selon ce que la raison lui dicte, mais selon ce qu'il a envie de penser. Tu n'aimes pas la Chine ? Qu'à cela ne tienne ! Tu trouveras toute la (dés)information pour conforter tes biais.
1  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 24/07/2024 à 13:17
Le plus drôle, ou le plus triste, selon, c'est que ces fausses informations vont nourrir les IA qui utilisent ce qui est déjà publiées pour fabriquer leur contenus.
1  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 24/07/2024 à 14:59
Oui, nous sommes à la fin de l'internet et l'IA n'y est pour rien!!!

La fin de l'internet est tué par Google qui n'indexe plus les pages internet de manière neutre...

Je vous invite d'ailleurs à créer aujourd'hui un site internet et à avoir un compte de WebMaster auprès de Google. Vous aurez la surprise de constater que la majorité de vos pages, si ce n'est pas toutes, ne sont et ne seront jamais indexées par Google! Vous pouvez demander à Google de les référencer, vous pouvez le faire indéfiniment et vos pages seront indéfiniment pas référencées!!!

Sans le dire, Google devenu LE moteur de recherche de l'internet (les autres moteurs sont tout simplement insignifiants en parts de marché) applique maintenant un business model que la société cache sous couvert de l'image de l'indexeur d'nternet: Si vous voulez être visible sur internet et donc être indexé, il faudra se payer de la pub Google sinon vous n'existerez tout simplement plus!!!
2  1 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 25/07/2024 à 8:44
Citation Envoyé par calvaire Voir le message
le problème c'est que c'est quoi une fausse nouvelle ?
l'histoire récente a montré que les complotistes, ce sont ceux qui avait raison 1ans après.
De quoi parles-tu ? Les complotistes avaient raison sur quoi au juste ? (c'est une vraie question)
1  0 
Avatar de BugFactory
Membre chevronné https://www.developpez.com
Le 25/07/2024 à 11:12
Citation Envoyé par calvaire Voir le message
le problème c'est que c'est quoi une fausse nouvelle ?
Et bien, prenons un exemple au hasard :
Citation Envoyé par Stéphane le calme Voir le message
L'une de ces fausses histoires produites par l'IA a indiqué qu'Olena Zelenska, la première dame d'Ukraine, aurait acheté une rare voiture de sport Bugatti Tourbillon pour 4,5 millions d'euros lors d'une visite à Paris pour les commémorations du jour J en juin. L'argent proviendrait de l'aide militaire américain
Ce n'est pas une insinuation subtile impossible à vérifier. C'est un mensonge éhonté et grotesque, que le moindre effort de fact checking démonterait en une minute.

Alors qu'est-ce qui les rend crédibles ? La quantité industrielle de naïfs (et de bots) prêts à croire n'importe quoi. Un mensonge suffisamment répété devient la vérité.

L'idée est de faire du crowd sourcing de fact checking, en utilisant les réseaux sociaux. Voilà comment ça pourrait marcher. Quand une fausse nouvelle est identifiée, un algorithme pourrait suivre les like, et reconnaitre les comptes qui ont propagé la fausse nouvelle. Si un même compte est ainsi identifié pour de nombreuses fausses nouvelles, il est considéré comme peu crédible. A partir de là, ses like ne sont plus utilisés pour alimenter les canaux de recommandation, et ne sont plus comptabilisés dans le nombre de like de l'article d'origine. Ca empêcherait ainsi des mensonges de gagner de la crédibilité grâce à des like de mauvaise qualité. La difficulté est de définir le seuil à partir duquel un compte n'est plus considéré comme crédible, mais il y a des sociologues qui étudient les réseaux sociaux qui pourraient répondre à cette question mieux que moi.

Ce système plusieurs avantages.
- Tout d'abord, comme Calvaire l'a fait remarquer, il est parfois difficile de différencier le vrai du faux. Toutes les fausses nouvelles n'ont pas des chiffres bidonnés qu'on peut vérifier en 30s. Mais cette méthode n'a pas besoin d'identifier chaque fausse nouvelle avec exactitude, seulement d'en identifier un certain nombre. On ne traite que les mensonges grossiers et évidents, et ensuite l'algorithme identifiera lui-même les informations non crédibles
- Les comptes pénalisés ne perdent l'accès à aucune fonctionnalité, et peuvent toujours accéder aux articles de leur choix.
- Le système pourrait ignorer les activités les plus anciennes lorsqu'il détermine si un compte est crédible ou pas, et ainsi permettre à quelqu'un qui a pris l'habitude de s'informer d'être à nouveau considéré crédible. On évite ainsi s'ostraciser quelqu'un à vie pour une erreur de jeunesse.
- Une fois alimenté par un gros effort de fact checking initial, le système devient auto régulé, parce que les mensonges sont likés par des comptes peu crédibles, ne sont donc pas recommandés, et ne se propagent plus pour recevoir davantage de like.
- Si une véritable information est accusée à tort d'être un mensonge, ça n'aura pas de conséquence parce qu'il faut franchir un seuil avant de ne plus être considéré crédible. Cette information sera relayées par des comptes crédibles et sera donc recommandée.
- A ce stade, pour subvertir le système, il faut une fausse nouvelle capable de tromper experts, journalistes, et le public en grand nombre. Les IA n'en sont pas capables, et pour être dangereuses les campagnes de désinformations doivent produire un grand nombre de fausses nouvelles en peu de temps.
- Le problème des fausses nouvelles c'est qu'il suffit de 30s pour lancer une rumeur et des semaines pour les vérifier... A quelques exceptions prêts. En utilisant ces exceptions comme indicateur de qui est crédible ou non, on a rendu la fabrication de fausse nouvelle aussi difficile que leur vérification.
2  1 
Avatar de noremorse
Membre actif https://www.developpez.com
Le 06/09/2024 à 7:54
LOL, pendant que les banderistes ukrainiens perdent sur tout le front, les clowns usa reparlent encore de l’ingérence russe sans preuves solides comme en 2016 https://www.monde-diplomatique.fr/2017/12/MATE/58207
4  4 
Avatar de marc.collin
Membre émérite https://www.developpez.com
Le 08/09/2024 à 1:38
en quoi est-ce pire qu'israel?

Comment Israël a payé plusieurs millions de dollars pour inonder les internautes français de publicités anti-Hamas
https://www.liberation.fr/checknews/...K4TWNNICUMPW4/
0  0 
Avatar de Jules34
Membre émérite https://www.developpez.com
Le 01/08/2024 à 9:05
Quand le procès pour le fond Marianne va arriver en France, et il va arriver, la Macronie ne pourra plus se cacher derrière "l'ingérence" Russe. Le procès fait à l'auteur à l'origine de l'info fiction Zoé Sagan va également faire beaucoup de bruit.

D'une manière générale la Macronie et le patron, la parti démocrate américain sont en fait en ce moment en pleine panique. L'OTAN a déjà perdu en Ukraine, ils ont balancés des dizaines de milliards dont on sait déjà qu'ils ont été en grande partie détournés. Ils ont balancés des millards dans la "crise" COVID et le vernis tombe également. Ou sont les SMS de Von der Leyen qui ont conduit à la plus grande commande publique de vaccin auprès de nos "amis" américains ? Ils seront jugés.

Le fils à Biden (alcoolique et toxicomane) est déjà tombé (pour la corruption en Ukraine et son appétit pour le se*e, trucs communs entre ces dégénérés, tous copain avec Epstein, pour le coup c'est sur wikipédia) et des dossiers vont ressortir aussitôt qu'il ne sera plus en poste.

Mais c'est du complot ça madame !

Pourquoi sont ils tant pressés de passer des lois sur le contrôle des médias à votre avis ?

Ces gens sont tellement minables que même leur propres mensonges ne suffisent pas à les couvrir, ils sont pathétiques. Il se passe la même chose au USA, ils minimisent à fond dans les média mais les gens n'en peuvent plus de Biden et de son administration, on verra ce que donne les élections de novembre. Après tout, tout s'achète dans ce monde.

C'est tout un monde qui risque de s'effondrer d'ici la fin de l'année et les Russes n'y seront pour rien, ne leur en déplaise. Le plus facile pour eux est de faire passer leurs ennemis pour des fous, des complotistes et de crier au complot contre eux.

Quand vous avez des gens payés 15 000 euros par mois avec vos impôts qui vous expliquent que les punaises de lits c'est l'ingérence Russe, vous comprenez que le vrai ennemi c'est le gouvernement Macron, pas les autres.

Sur le fond de l'article, bien sur que les Russes paient pour avoir des médias chez nous, vous croyez qu'on fait quoi ? Les américains paient des millions pour avoir des relais de propagande pro européen rien qu'en Europe, c'est pareil dans le reste du monde. Rien de nouveau sous le soleil.
4  5