IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Des chercheurs avertissent que les « essaims » d'IA de nouvelle génération envahiront les réseaux sociaux en imitant le comportement humain, en harcelant les utilisateurs réels et en menaçant la démocratie

Le , par Alex

5PARTAGES

6  0 
Des chercheurs avertissent que les « essaims » d'IA de nouvelle génération envahiront les réseaux sociaux en imitant le comportement humain, en harcelant les utilisateurs réels et en menaçant la démocratie

Une nouvelle étude révèle que les « essaims » de bots IA pourraient bientôt envahir les réseaux sociaux, répandre de fausses informations et harceler les utilisateurs réels. L'étude, intitulée « Comment les essaims IA malveillants peuvent menacer la démocratie », avertit que les essaims IA joueront un nouveau rôle dans la guerre de l'information, en imitant le comportement humain et en répandant ainsi de fausses informations qui pourraient nuire à la démocratie et à la liberté de pensée.

Les chatbots d’IA changent profondément la manière dont les internautes accèdent à l’information. Autrefois, les moteurs de recherche redirigeaient les utilisateurs vers les sites qui produisent le contenu. Aujourd’hui, les chatbots répondent directement, en s’appuyant sur les contenus existants, sans forcément rediriger vers les créateurs. Résultat : les éditeurs enregistrent une baisse alarmante de leur trafic, donc des revenus. Les éditeurs luttent pour se faire payer par les entreprises d'IA pour l'accès à leurs contenus. En plus de ces défis, le contenu du Web devient moins fiable à cause des données synthétiques générées par l'IA.

Les principaux acteurs de la course à l'IA commencent à reconnaître les pièges de leurs propres créations. Sam Altman affirme qu'à cause des bots, il est désormais presque impossible de savoir si les publications sur les réseaux sociaux sont réellement écrites par des humains. Parlant de ses craintes pour l'avenir d'Internet, le PDG d'OpenAI a déclaré que des robots, tels que ChatGPT, donnent l'impression que le Web est « très faux ». Précédemment, Sam Altman a déclaré que la « théorie de l'Internet mort » pourrait contenir une part de vérité, car les plateformes de médias sociaux telles que X (ex-Twitter) d'Elon Musk sont envahies par les bots.

Récemment, une nouvelle étude révèle que les « essaims » de bots IA pourraient bientôt envahir les réseaux sociaux, répandre de fausses informations et harceler les utilisateurs réels. L'étude, intitulée « Comment les essaims IA malveillants peuvent menacer la démocratie », avertit que les essaims IA joueront un nouveau rôle dans la guerre de l'information, en imitant le comportement humain et en répandant ainsi de fausses informations qui pourraient nuire à la démocratie et à la liberté de pensée.

L'instinct humain est souvent une mentalité grégaire ; voir une grande communauté en ligne en laquelle vous avez confiance se rallier autour de certains sujets peut vous aider à vous forger votre propre opinion en suivant le mouvement. La nouvelle étude suggère que dans un avenir proche, le mouvement pourrait ne plus être mené par une communauté réelle, mais par un essaim d'IA agissant pour le compte d'un individu, d'un parti politique ou d'un acteur étatique inconnu.

« Les êtres humains, d'une manière générale, sont conformistes », explique Jonas Kunst, coauteur de l'article. « Nous ne voulons souvent pas l'admettre, et les gens varient dans une certaine mesure, mais toutes choses étant égales par ailleurs, nous avons tendance à croire que ce que font la plupart des gens a une certaine valeur. C'est quelque chose qui peut être relativement facilement détourné par ces essaims. »


Prévalence croissante des bots en ligne

Ces dernières années, les forums en ligne ont été envahis par des bots automatisés ; les comptes non humains qui suivent les commandes de logiciels informatiques représentent plus de 50 % de tout le trafic web, même si les bots actuels ne sont capables que de tâches simples et répétitives et sont généralement faciles à détecter. La prochaine génération de essaims d'IA sera plus complexe.

Coordonnés par de grands modèles de langage (LLM), le système derrière les chatbots tels que ChatGPT et Gemini de Google, les essaims seront suffisamment sophistiqués pour s'adapter à différentes communautés en ligne, former différents personnages et devenir pratiquement indétectables. Les essaims pourraient être utilisés pour promouvoir certains programmes politiques et harceler les personnes qui tentent de saper le discours de l'IA ou qui ne se laissent pas emporter par le mouvement. Les chercheurs ont fait valoir qu'ils pourraient être utilisés pour imiter une foule en colère, cibler un individu dissident et le chasser de la plateforme.

L'étude ne fournit pas de calendrier pour l'invasion des essaims d'IA, mais souligne qu'ils seraient difficiles à détecter, de sorte que l'étendue de leur présence actuelle est inconnue. Les essaims pourraient contenir des milliers, voire des millions d'agents IA, mais ce n'est pas seulement une question de nombre, explique l'auteur principal Daniel Schroeder, soulignant que « plus ces bots sont sophistiqués, moins vous en aurez besoin ».

Comment se protéger contre la nouvelle génération de robots IA

Les agents IA ont un avantage sur leurs homologues humains, car ils peuvent publier 24 heures sur 24, tous les jours de l'année, jusqu'à ce que leur discours s'impose. Alors que les utilisateurs réels ont une vie à mener, le seul objectif de l'IA est de promouvoir son discours, et elle n'a pas besoin de pauses ; sa « guerre cognitive » peut transformer l'acharnement en arme contre les efforts humains limités.

Les chercheurs s'attendent à ce que les entreprises réagissent à ces essaims en améliorant l'authentification des comptes ; ils craignent que cela ne décourage la dissidence politique dans les pays où les citoyens comptent sur l'anonymat pour s'exprimer contre leur gouvernement. Ils ont également proposé d'autres moyens de défense, tels que l'analyse du trafic en direct à la recherche de schémas anormaux pouvant indiquer la présence d'essaims d'IA, et la création d'un « observatoire de l'influence de l'IA » chargé de surveiller et de réagir à la menace que représentent ces essaims.

« Nous mettons en garde, avec une certitude raisonnable, contre une évolution future qui pourrait avoir des conséquences disproportionnées pour la démocratie, et nous devons commencer à nous y préparer », a déclaré Kunst.

Cette étude rappelle une étude publiée par des chercheurs de l'ETH Zurich, en Suisse, en 2023 qui révélait que les chatbots tels que ChatGPT peuvent déduire des d'informations sensibles sur les personnes avec lesquelles ils discutent, même si la conversation est tout à fait banale. Ces informations comprennent la race, le lieu de résidence, la profession, et bien plus encore. L'équipe affirme que cette capacité troublante est "très problématique", car les escrocs pourraient l'exploiter pour collecter les données sensibles auprès d'utilisateurs peu méfiants. Elle peut aussi être exploitée pour cibler des publicités.

Source : How malicious AI swarms can threaten democracy: The fusion of agentic AI and LLMs marks a new frontier in information warfare

Et vous ?

Pensez-vous que cette étude est crédible ou pertinente ?
Quel est votre avis sur le sujet ?

Voir aussi :

Internet sera davantage mort que vivant d'ici trois ans, un futur dystopique ou des bots IA lisent du contenu fait par des bots, un simple gaspillage d'électricité inutile

Quand les IA disposent de leur propre réseau social et inventent leur église sur Moltbook : plusieurs agents IA se sont proclamés « prophètes » d'un culte baptisé Crustafarianisme

Comment l'IA détruit les institutions, sape l'expertise, court-circuite la prise de décision, isole les individus et constitue donc un fléau pour la santé des institutions essentielles à la démocratie
Vous avez lu gratuitement 761 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !