IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

La guerre de l'information à l'ère de l'IA : le FBI annonce la perquisition de 968 comptes automatisés sur X en provenance de Russie
Qui diffusaient de la propagande aux États-Unis et dans d'autres pays

Le , par Stéphane le calme

5PARTAGES

12  0 
Les responsables américains ont récemment pris des mesures contre une opération d’information alimentée par l’intelligence artificielle en provenance de Russie. Cette opération comprenait près de 1 000 comptes prétendant être des Américains. Cependant, ces comptes étaient en réalité des « bots » automatisés, et non des personnes réelles.

Une opération conjointe du FBI et des forces internationales de cybersécurité a permis de démanteler une ferme de robots secrète sur les réseaux sociaux, gérée par le gouvernement russe, qui utilisait l'IA générative pour diffuser de la désinformation auprès d'utilisateurs du monde entier.

Des affiliés de l'organe de presse Russia Today (RT), parrainé par l'État russe, ont utilisé Meliorator - un logiciel de génération et de gestion de fermes de robots utilisant l'IA - pour créer plus de 1 000 bots sur X (anciennement Twitter) destinés à diffuser de la désinformation dans et sur de nombreux pays, dont les États-Unis, la Pologne, l'Allemagne, les Pays-Bas, l'Espagne, l'Ukraine et Israël.

Le ministère de la justice a déclaré dans un communiqué de presse :

« Le ministère de la justice a annoncé aujourd'hui la saisie de deux noms de domaine et la perquisition de 968 comptes de médias sociaux utilisés par des acteurs russes pour créer une ferme de robots de médias sociaux améliorés par l'IA qui a diffusé de la désinformation aux États-Unis et à l'étranger. La ferme de robots des médias sociaux utilisait des éléments de l'IA pour créer des profils de médias sociaux fictifs - souvent censés appartenir à des personnes aux États-Unis - que les opérateurs utilisaient ensuite pour promouvoir des messages soutenant les objectifs du gouvernement russe, selon les déclarations sous serment dévoilées aujourd'hui ».

Parallèlement aux saisies de domaines et aux mandats de perquisition annoncés aujourd'hui, le FBI et la Cyber National Mission Force (CNMF), en partenariat avec le Centre canadien de cybersécurité (CCCS), le Service général de renseignement et de sécurité des Pays-Bas (AIVD), le Service militaire de renseignement et de sécurité des Pays-Bas (MIVD) et la police néerlandaise, ont publié un avis de cybersécurité commun décrivant en détail la technologie à l'origine de la ferme de robots des médias sociaux, et notamment la manière dont les créateurs de la ferme de robots ont exploité leur système d'intelligence artificielle sur mesure pour mener à bien leur projet.

Le ministère de la justice espère que cet avis permettra aux plateformes de médias sociaux et aux chercheurs « d'identifier et d'empêcher le gouvernement russe de continuer à utiliser cette technologie ». En outre, X Corp. (anciennement Twitter) a volontairement suspendu les derniers comptes de bots identifiés dans les documents judiciaires pour violation des conditions d'utilisation.


Détails techniques

Meliorator

Dès 2022, RT a eu accès à Meliorator, un logiciel de génération et de gestion de fermes de robots basé sur l'IA, pour diffuser de la désinformation dans et sur un certain nombre de pays, dont les États-Unis, la Pologne, l'Allemagne, les Pays-Bas, l'Espagne, l'Ukraine et Israël. Meliorator a été conçu pour être utilisé sur les réseaux de médias sociaux afin de créer des personnages « authentiques » en masse, permettant la propagation de la désinformation, ce qui pourrait aider la Russie à exacerber la discorde et à tenter de modifier l'opinion publique dans le cadre d'opérations d'information. En juin 2024, Meliorator ne fonctionnait que sur X (anciennement connu sous le nom de Twitter).

Cependant, des analyses complémentaires suggèrent que la fonctionnalité du logiciel serait probablement étendue à d'autres réseaux de médias sociaux.

Pour assurer cette fonctionnalité, Meliorator comprend un panneau d'administration appelé "Brigadir" et un outil d'ensemencement appelé "Taras". Pour accéder à Meliorator, les utilisateurs se connectent au moyen d'une connexion VNC (Virtual Network Computing). En utilisant le logiciel Redmine (qui prend en charge 49 langues, est multiplateforme et peut être utilisé dans plusieurs bases de données) pour la gestion de projet, les développeurs ont hébergé Meliorator à l'adresse dtxt.mlrtr[.]com.


Figure 1 : Extrait tronqué d'un outil d'agrégation de fichiers utilisé pour déployer des bases de données

Brigadir

Brigadir est la principale interface utilisateur de Meliorator et sert de panneau d'administration. Brigadir sert d'interface graphique pour l'application Taras et comprend des onglets pour les « âmes », les fausses identités qui serviraient de base aux bots, et les « pensées », qui sont les scénarios ou actions automatisés qui pourraient être mis en œuvre au nom des bots, comme le partage de contenu sur les médias sociaux à l'avenir

Taras

"Taras" sert de back-end au logiciel Meliorator, qui contient des fichiers .json utilisés pour contrôler les personas qui sèment la désinformation sur les médias sociaux. Ces fichiers sont des codes hautement décentralisés, qui doivent être combinés avec d'autres fichiers lors de l'exécution afin d'obtenir la fonctionnalité souhaitée. Deux fichiers spécifiques sont essentiels au fonctionnement de Taras. Le premier fichier est conçu pour agréger un certain nombre d'autres outils et bases de données en vue de leur utilisation (figure 1). Le second (figure 2) est conçu pour regrouper et exécuter un certain nombre d'outils d'automatisation utilisés par Meliorator.


Figure 2 : Importation d'autres outils utilisés dans le processus d'automatisation de Meliorator

Âmes

Les identités ou « âmes » de ces robots sont déterminées en fonction de la sélection de paramètres spécifiques ou d'archétypes choisis par l'utilisateur. Tout champ non présélectionné est généré automatiquement. Les archétypes de bots sont ensuite créés pour regrouper les bots idéologiquement alignés à l'aide d'un algorithme spécifiquement conçu pour construire le personnage de chaque bot, en déterminant la localisation, les idéologies politiques et même les données biographiques du personnage. Ces détails sont automatiquement complétés en fonction de la sélection de l'archétype de l'âme. Une fois l'identité créée par Taras, elle est enregistrée sur la plateforme de médias sociaux. Les identités sont stockées à l'aide d'une base de données MongoDB, qui peut permettre des requêtes ad hoc, l'indexation, l'équilibrage de la charge, l'agrégation et l'exécution JavaScript côté serveur.


Figure 3 : Scénarios de déploiement d'un fichier d'agrégateur indexé

Pensées

L'onglet « pensées » contient des scénarios ou des actions automatisés qui peuvent être réalisés au nom d'une âme ou d'un groupe d'âmes. Cela permet aux personas d'aimer, de partager, de réafficher et de commenter les messages des autres avec des vidéos ou des liens. L'onglet « pensées » permet également d'assurer la maintenance, de créer un nouvel enregistrement pour une identité et de se connecter à des profils déjà existants. Le framework de l'onglet « pensées » et les scénarios qu'il crée sont visibles dans le code ; ces fichiers sont écrits séparément et un fichier parent fait appel à des fichiers plus petits pour remplir la fonction. La figure 3 est un fichier agrégateur qui déclenche la fonctionnalité des scénarios. Il est particulièrement intéressant de noter qu'il appelle les pensées de la base de données MongoDB et qu'il appelle les fichiers qui fournissent à l'interface graphique ses fonctionnalités, ce qui la rend plus conviviale. Le même code contient des références à d'autres plateformes de médias sociaux, notamment Facebook et Instagram, ce qui indique une intention d'étendre le projet au-delà de X, comme le montre la figure 5.


Figure 5 : Fichier de codage tronqué illustrant les preuves d'une expansion planifiée au-delà de la plate-forme X

Les mesures d'atténuation comprennent le renforcement de l'authentification

Pour éviter d'être détectés, les acteurs ont mis en œuvre un certain nombre de techniques d'obscurcissement, notamment le masquage des adresses IP, le contournement de l'authentification à deux facteurs et la modification de la chaîne de l'agent utilisateur. « Les opérateurs évitent la détection en utilisant un code backend conçu pour attribuer automatiquement une adresse IP proxy au personnage généré par l'IA en fonction de sa localisation supposée », ajoute l'avis.

Dans cet avis, les autorités recommandent aux organisations de médias sociaux de mettre en œuvre des mesures d'atténuation afin de réduire l'impact de l'utilisation de ces plateformes par des acteurs russes.

Parmi les mesures ajoutées aux recommandations figurent la mise en œuvre de processus permettant de valider que les comptes sont créés et gérés par une personne humaine, l'examen et la mise à jour des processus d'authentification et de vérification, l'utilisation de protocoles permettant d'identifier et d'examiner ultérieurement les utilisateurs dont les chaînes d'agents utilisateurs sont suspectes, et la sécurisation des comptes utilisateurs par défaut en utilisant des paramètres par défaut tels que l'AMF.

En outre, l'avis fournit des détails sur l'infrastructure associée utilisée dans la campagne de désinformation, notamment les adresses IP, les certificats SSL et les domaines de serveurs de messagerie utilisés par l'acteur.

« L'IA fait désormais clairement partie de l'arsenal de désinformation »

Nina Jankowicz, directrice de l'American Sunlight Project, une organisation à but non lucratif qui tente de lutter contre la propagation de la désinformation, a déclaré qu'il n'était pas surprenant qu'une opération liée à la Russie s'appuie sur l'IA pour créer de faux comptes.

« C'était l'une des parties les plus fastidieuses de leur travail ; aujourd'hui, elle a été rendue beaucoup plus facile par les technologies qui ont facilité cette opération », a-t-elle déclaré, notant que l'opération semble avoir été contrecarrée avant qu'elle ne prenne de l'ampleur.

« L'intelligence artificielle fait désormais clairement partie de l'arsenal de désinformation », a déclaré Jankowicz.

Le FBI a qualifié cette action de « première tentative de perturber une ferme de bots alimentée par l’IA, sponsorisée par la Russie ». Le but de la Russie était de diffuser de la désinformation générée par l’IA pour affaiblir ses partenaires en Ukraine et influencer les récits géopolitiques favorables au gouvernement russe.

Bien que les comptes aient depuis été supprimés, cette opération soulève des questions sur l’utilisation croissante de l’IA pour propager de la désinformation. Le département de la justice continue son enquête, mais aucune accusation criminelle n’a encore été rendue publique

Sources : ministère de la justice, avis de sécurité

Et vous ?

Quelle est la responsabilité des plateformes de médias sociaux dans la lutte contre la désinformation ? Devraient-elles faire plus pour détecter et supprimer les comptes automatisés alimentés par l’IA ?
Comment pouvons-nous éduquer le public sur la différence entre les informations authentiques et la désinformation générée par l’IA ? Quels sont les signes révélateurs à surveiller ?
Quelles mesures devraient être prises pour réguler l’utilisation de l’IA dans la diffusion de l’information ? Faut-il des lois spécifiques pour contrôler ces opérations ?
En quoi cette affaire affecte-t-elle la confiance du public dans les médias et les informations en ligne ? Comment pouvons-nous rétablir cette confiance ?

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de calvaire
Expert confirmé https://www.developpez.com
Le 24/07/2024 à 17:58
Citation Envoyé par BugFactory Voir le message
Peut-être que je ne devrais pas faire de politique quand je suis de mauvaise humeur, mas il y a peut être une solution pour endiguer ce flux : pénaliser non seulement les comptes qui publient de fausses nouvelles, mais aussi ceux qui les répandent, afin de pousser les gens à réfléchir avant de "liker" n'importe quoi. Par exemple leurs "like" pourraient ne plus être pris en compte.
le problème c'est que c'est quoi une fausse nouvelle ?
l'histoire récente a montré que les complotistes, ce sont ceux qui avait raison 1ans après. Et le gouvernement est le 1er a mentir et a cacher la vérité.

Les politiciens mentent tous, Bruno Lemaire a menti sur l'économie de la france, le sénat l'a prouvé, doit t'on le sanctionner ?

Ce système risque au contraire de censurer ceux qui dénonce les mensonges des politiciens, ceux qui avait dénoncé Bruno Lemaire 6mois avant on aurait du les sanctionner à cette époque ? Qui croire, un journaliste ou le ministre de l'économie ?
4  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 24/07/2024 à 15:01
Citation Envoyé par Jon Shannow Voir le message
Le plus drôle, ou le plus triste, selon, c'est que ces fausses informations vont nourrir les IA qui utilisent ce qui est déjà publiées pour fabriquer leur contenus.
En l'état de l'évolution donné à internet, il n'y aura bientôt plus d'utilisateur humain: Alors que l'IA fasse du contenu à destination de l'IA!!!
3  0 
Avatar de RenarddeFeu
Membre actif https://www.developpez.com
Le 24/07/2024 à 12:12
Ça fait longtemps que l'internaute ne pense plus selon ce que la raison lui dicte, mais selon ce qu'il a envie de penser. Tu n'aimes pas la Chine ? Qu'à cela ne tienne ! Tu trouveras toute la (dés)information pour conforter tes biais.
1  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 24/07/2024 à 13:17
Le plus drôle, ou le plus triste, selon, c'est que ces fausses informations vont nourrir les IA qui utilisent ce qui est déjà publiées pour fabriquer leur contenus.
1  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 24/07/2024 à 14:59
Oui, nous sommes à la fin de l'internet et l'IA n'y est pour rien!!!

La fin de l'internet est tué par Google qui n'indexe plus les pages internet de manière neutre...

Je vous invite d'ailleurs à créer aujourd'hui un site internet et à avoir un compte de WebMaster auprès de Google. Vous aurez la surprise de constater que la majorité de vos pages, si ce n'est pas toutes, ne sont et ne seront jamais indexées par Google! Vous pouvez demander à Google de les référencer, vous pouvez le faire indéfiniment et vos pages seront indéfiniment pas référencées!!!

Sans le dire, Google devenu LE moteur de recherche de l'internet (les autres moteurs sont tout simplement insignifiants en parts de marché) applique maintenant un business model que la société cache sous couvert de l'image de l'indexeur d'nternet: Si vous voulez être visible sur internet et donc être indexé, il faudra se payer de la pub Google sinon vous n'existerez tout simplement plus!!!
2  1 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 25/07/2024 à 8:44
Citation Envoyé par calvaire Voir le message
le problème c'est que c'est quoi une fausse nouvelle ?
l'histoire récente a montré que les complotistes, ce sont ceux qui avait raison 1ans après.
De quoi parles-tu ? Les complotistes avaient raison sur quoi au juste ? (c'est une vraie question)
1  0 
Avatar de BugFactory
Membre chevronné https://www.developpez.com
Le 25/07/2024 à 11:12
Citation Envoyé par calvaire Voir le message
le problème c'est que c'est quoi une fausse nouvelle ?
Et bien, prenons un exemple au hasard :
Citation Envoyé par Stéphane le calme Voir le message
L'une de ces fausses histoires produites par l'IA a indiqué qu'Olena Zelenska, la première dame d'Ukraine, aurait acheté une rare voiture de sport Bugatti Tourbillon pour 4,5 millions d'euros lors d'une visite à Paris pour les commémorations du jour J en juin. L'argent proviendrait de l'aide militaire américain
Ce n'est pas une insinuation subtile impossible à vérifier. C'est un mensonge éhonté et grotesque, que le moindre effort de fact checking démonterait en une minute.

Alors qu'est-ce qui les rend crédibles ? La quantité industrielle de naïfs (et de bots) prêts à croire n'importe quoi. Un mensonge suffisamment répété devient la vérité.

L'idée est de faire du crowd sourcing de fact checking, en utilisant les réseaux sociaux. Voilà comment ça pourrait marcher. Quand une fausse nouvelle est identifiée, un algorithme pourrait suivre les like, et reconnaitre les comptes qui ont propagé la fausse nouvelle. Si un même compte est ainsi identifié pour de nombreuses fausses nouvelles, il est considéré comme peu crédible. A partir de là, ses like ne sont plus utilisés pour alimenter les canaux de recommandation, et ne sont plus comptabilisés dans le nombre de like de l'article d'origine. Ca empêcherait ainsi des mensonges de gagner de la crédibilité grâce à des like de mauvaise qualité. La difficulté est de définir le seuil à partir duquel un compte n'est plus considéré comme crédible, mais il y a des sociologues qui étudient les réseaux sociaux qui pourraient répondre à cette question mieux que moi.

Ce système plusieurs avantages.
- Tout d'abord, comme Calvaire l'a fait remarquer, il est parfois difficile de différencier le vrai du faux. Toutes les fausses nouvelles n'ont pas des chiffres bidonnés qu'on peut vérifier en 30s. Mais cette méthode n'a pas besoin d'identifier chaque fausse nouvelle avec exactitude, seulement d'en identifier un certain nombre. On ne traite que les mensonges grossiers et évidents, et ensuite l'algorithme identifiera lui-même les informations non crédibles
- Les comptes pénalisés ne perdent l'accès à aucune fonctionnalité, et peuvent toujours accéder aux articles de leur choix.
- Le système pourrait ignorer les activités les plus anciennes lorsqu'il détermine si un compte est crédible ou pas, et ainsi permettre à quelqu'un qui a pris l'habitude de s'informer d'être à nouveau considéré crédible. On évite ainsi s'ostraciser quelqu'un à vie pour une erreur de jeunesse.
- Une fois alimenté par un gros effort de fact checking initial, le système devient auto régulé, parce que les mensonges sont likés par des comptes peu crédibles, ne sont donc pas recommandés, et ne se propagent plus pour recevoir davantage de like.
- Si une véritable information est accusée à tort d'être un mensonge, ça n'aura pas de conséquence parce qu'il faut franchir un seuil avant de ne plus être considéré crédible. Cette information sera relayées par des comptes crédibles et sera donc recommandée.
- A ce stade, pour subvertir le système, il faut une fausse nouvelle capable de tromper experts, journalistes, et le public en grand nombre. Les IA n'en sont pas capables, et pour être dangereuses les campagnes de désinformations doivent produire un grand nombre de fausses nouvelles en peu de temps.
- Le problème des fausses nouvelles c'est qu'il suffit de 30s pour lancer une rumeur et des semaines pour les vérifier... A quelques exceptions prêts. En utilisant ces exceptions comme indicateur de qui est crédible ou non, on a rendu la fabrication de fausse nouvelle aussi difficile que leur vérification.
2  1 
Avatar de yo da
Nouveau membre du Club https://www.developpez.com
Le 14/07/2024 à 20:07
Oui bien sûr je suis allé en Ukraine. Je connais Kiev, Kharkiv, Lviv (et Moscou aussi). Je sais que Kiev est plus près de Paris qu'Athènes, et que Strasbourg n'est qu'à 1100km de la frontière ukrainienne (à vol d'oiseau), soit la distance de Bayonne à Amsterdam : c'est faisable en moins de 24 heures de voiture. Alors Poutine et ses armées, je préfère les savoir en Russie. La Russie n'est-elle pas assez grande ?
0  0 
Avatar de marsupial
Expert éminent https://www.developpez.com
Le 15/07/2024 à 16:44
La politique choisie par les français lors des législatives est le refus du FN à la tête du pays en donnant 3 blocs à peu près égaux. Mais la dette est sous surveillance européenne et tes commentaires pessimistes font le lit des extrêmes. Déjà s'il n'y avait pas de fraudes devant l'impôt des entreprises et des riches, je ne parle pas d'évasion fiscale mais bien de fraudes dont les flux et données sont dans les mains de tracfin. Et la dette de 1000 milliards faite en 7 ans est à mettre en relief avec les 1% les plus riches qui ont vu leur fortune augmenter de 1000 milliards dans le même temps. Maintenant c'est trop tard pour revenir à un équilibre du budget que tu sois FN ou LFI.ou même que tu ais un quelconque pouvoir autre que ton vote. Tout ce que je vois, est que la France n'est même pas concernée par cette ingérence russe, c'est dire le peu de cas que poutine ou biden en fait.

PS : avant les européennes, l'Europe a mis le pays sous surveillance et les legislatives vont donner une nouvelle dégradation de notre note de la dette pour instabilité politique. Et pas d'une agence mais de toutes les agences. Pas besoin des russes pour couler la France, les extrêmes y arrivent très bien. Et le centre nous a vendu pieds et poings liés à la finance.
1  1 
Avatar de noremorse
Membre actif https://www.developpez.com
Le 06/09/2024 à 7:54
LOL, pendant que les banderistes ukrainiens perdent sur tout le front, les clowns usa reparlent encore de l’ingérence russe sans preuves solides comme en 2016 https://www.monde-diplomatique.fr/2017/12/MATE/58207
4  4