
mais la campagne suscite un tollé et est accusée de manipulation
Un groupe de propriétaires d'entreprises de Bathurst Street, à Toronto, a lancé la campagne « Protect Bathurst » pour protester contre un projet municipal d'aménagement de voies réservées aux bus dans le cadre du programme RapidTO. Dans le cadre de cette initiative, le groupe a utilisé l'IA pour générer de faux commentaires de « résidents inquiets ». L'objectif serait de donner l'illusion d'un soutien populaire plus large à leur cause. Cette affaire soulève des préoccupations éthiques quant à l'utilisation de l'IA pour influencer les décisions publiques. Elle met aussi en lumière les dangers liés aux deepfakes générés par l'IA.
Les autorités municipales de Toronto envisagent de mettre en place une voie dédiée aux bus pour améliorer la circulation et réduire les émissions. Le trajet se situe entre l'avenue Eglinton et le boulevard Lake Shore, dans le cadre du nouveau programme RapidTO de la ville. Toutefois, un groupe de commerçants de Bathurst Street s'insurge contre le projet, craignant que cela n'affecte négativement leur activité en limitant l'accès des clients automobilistes.
(Bathurst Street est une artère majeure de Toronto qui s'étend du nord au sud, reliant Eglinton Avenue West au Lake Shore Boulevard West.) Pour renforcer leur opposition et coordonner leurs actions, les commerçants protestataires se sont réunis au sein de campagne « Protect Bathurst ».
Mais le groupe semble quelque peu obscur. Protect Bathurst n'a pas de porte-parole ni d'informations de contact sur son site Web. La page est enregistrée au nom d'un consultant en marketing alimentaire employé par Summerhill Market et ressemble étrangement à Protect Dufferin, un autre groupe de « résidents concernés » défendant la même cause. De plus, le groupe semble utiliser des deepfakes générés par l'IA pour influencer l'opinion publique.
L'auteur et urbaniste Shawn Micallef a découvert que les personnes qui s'expriment dans les vidéos prétendument virales de la campagne semblent être générées par l'IA. Les faux personnages mis en scène dans les vidéos partagées par Protect Bathurst avertissent que la réduction des places de stationnement bloquerait les acheteurs en voiture et les personnes ayant des problèmes de mobilité. Ces vidéos ont été diffusées principalement sur Instagram.
Les défis posés par les deepfakes à l'ère de l'IA générative
Brad McMullen, le président de Summerhill Market, qui a ouvert un avant-poste sur Bathurst en 2019, a déclaré qu'il ne sait rien de l'utilisation de l'IA par la campagne. Une vidéo diffusée sur Instagram par le groupe est devenue virale et a suscité de nombreux commentaires. « Je suis choqué de voir qu'une fausse initiative utilise l'IA pour promouvoir sa campagne populaire. Il y a de moins en moins de choses vraies sur Internet », a écrit un internaute.
Dans un commentaire ajouté sous la vidéo par la suite, Protect Bathurst a écrit : « nous ne sommes pas des professionnels des relations publiques ou d'Instagram. Nous sommes juste des gens normaux qui ont utilisé cette vidéo générée par l'IA qui parle exactement de nos sentiments. Les sentiments des résidents, des propriétaires d'immeubles commerciaux, des propriétaires d'entreprises, des patients des cliniques médicales, dentaires et de bien-être ».
La situation soulève des questions éthiques sur l'utilisation de l'IA pour influencer l'opinion publique et les processus décisionnels municipaux. « Ils doivent être dénoncés dans la presse et les médias, et pas seulement sur Reddit. L'IA générative facilite la manipulation de masse », a écrit un utilisateur de Reddit. L'utilisation de l'IA par la campagne « Protect Bathurst » pose plusieurs problèmes éthiques, sociaux et politiques. Voici les principaux :
Manipulation de l'opinion publique
Créer de faux témoignages de citoyens avec des outils d'IA revient à simuler un mouvement populaire inexistant, une pratique appelée « astroturfing ». Cela fausse les perceptions du soutien ou de l'opposition publique, et nuit à la transparence démocratique. Les autorités peuvent croire qu'une large partie de la population s'oppose à une mesure, alors que ce n'est pas le cas. Cela peut conduire à des prises de décision basées sur de fausses données.
Par exemple, le 15 mai dernier, le Federal Bureau of Investigation (FBI) a mis en garde contre une campagne de deepfakes. Il a rapporté que des acteurs malveillants se sont fait passer pour de hauts fonctionnaires du gouvernement américain dans le cadre d'une campagne de messagerie textuelle et vocale, utilisant des textes de phishing et des messages audio générés par l'IA pour inciter d'autres fonctionnaires à donner accès à leurs comptes personnels.
Érosion de la confiance et désinformation
Les processus de participation citoyenne reposent sur la confiance. L’utilisation de commentaires générés par l'IA érode la confiance et peut pousser les autorités à accorder moins d'importance aux contributions citoyennes réelles. Ainsi, les vraies préoccupations des citoyens risquent d'être noyées ou discréditées. En outre, les commentaires générés par l'IA peuvent amplifier les infox et créer de la confusion, ou détourner le débat du fond du sujet.
Manque de responsabilité et d'imputabilité
Le contenu généré par l'IA peut être créé et diffusé de manière anonyme, ce qui complique l'identification des responsables en cas d'abus. Dans le cas de « Protect Bathurst », le manque de transparence (manque d'informations d'identification) illustre ce problème. Par ailleurs, ces contenus peuvent refléter des biais, ou manquer de subtilité dans l'expression des opinions. Cela peut donner l'impression d'une uniformité d'opinions qui ne correspond pas à la réalité.
Les vidéos deepfake deviennent étonnamment bonnes
Les préoccupations relatives aux deepfakes ont augmenté ces dernières années. Une étude publiée en mai 2024 montrait que les deepfakes se classent désormais au deuxième rang des incidents de sécurité de l'information les plus courants pour les entreprises britanniques et que plus d'un tiers des organisations en ont fait l'expérience. Pourtant, les développeurs d'IA ne cessent de sortir des modèles de pointe qui pourraient favoriser les deepfakes.
L'utilisation la plus connue des deepfakes est sans doute l'usurpation d'identité de Joe Biden, alors président des États-Unis, dans la période précédant les primaires présidentielles du New Hampshire en 2024. Le consultant politique Steve Kramer, en collaboration avec l'opposant démocrate Dean Phillips, a supervisé la création de l'audio, qui conseillait aux démocrates de ne pas se rendre aux urnes et qui a été envoyé aux électeurs quelques jours avant les primaires.
Steve Kramer a été condamné à une amende de 6 millions de dollars pour cet incident et fait l'objet également de poursuites pénales pour tentative de suppression d'électeurs en usurpant l'identité d'un candidat dans le New Hampshire. Mais l'utilisation de deepfake audio dans le cadre d'escroqueries financières plus courantes et de projets d'espionnage et de cybercriminalité plus sophistiqués a fortement augmenté depuis l'apparition de cette technologie.
En novembre 2024, un élève de la Lancaster Country Day School, en Pennsylvanie, a utilisé l'IA pour créer des images sexuellement explicites d'environ 50 camarades de classe. La diffusion des photos et l'inaction présumée des responsables de l'école ont suscité un tollé. L'incident a entraîné la démission du directeur de l'école et celle de la présidente du conseil scolaire, ainsi que l'annulation des cours et la fermeture temporaire de l'établissement.
En juin 202, le FBI a signalé qu'il a reçu de nombreuses plaintes de personnes utilisant des informations volées et des vidéos et voix truquées pour postuler à des emplois à distance. L'agence fédérale avait déclaré que les emplois à distance visés comprennent des postes dans le domaine de la technologie qui permettraient aux acteurs malveillants d'accéder aux informations confidentielles des entreprises et des clients après avoir été embauchés.
En Union européenne, Europol avertissait en avril 2022 que les deepfakes pourraient bientôt devenir un outil que les organisations cybercriminelles utiliseront régulièrement dans le cadre de la fraude aux PDG, pour altérer des preuves et pour créer de la pornographie non consensuelle.
Source : Protect Bathurst
Et vous ?


Voir aussi



Vous avez lu gratuitement 37 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.