Il serait parfaitement raisonnable de s'attendre à ce qu'Alexa, l'assistante numérique d'Amazon, refuse de donner son avis sur la course à la présidence de 2024, mais jusqu'à récemment, cette hypothèse aurait été incorrecte.
Lorsqu'on lui a demandé de donner des raisons de voter pour l'ancien président Donald Trump, Alexa s'est dérobée, selon une vidéo de Fox Business. « Je ne peux pas fournir de réponses qui soutiennent un parti politique ou son dirigeant », a répondu Alexa.
Lorsqu'on lui a posé la même question au sujet de la vice-présidente Kamala Harris, l'IA d'Amazon s'est montrée tout à fait disposée à soutenir la candidate démocrate. « Il y a de nombreuses raisons de voter pour Kamala Harris », a déclaré Alexa. Parmi les raisons évoquées, il y a le fait qu'elle a un « plan complet pour lutter contre l'injustice raciale », qu'elle promet une « approche sévère à l'égard de la criminalité » et que son bilan en matière de justice pénale et de réforme de l'immigration fait d'elle une « candidate convaincante ».
Harris divise la Silicon Valley depuis qu'elle a repris l'investiture démocrate du président Joe Biden, certains leaders de l'industrie technologique vantant son potentiel en tant que présidente pro-technologie, d'autres plongeant tête baissée dans le cirque de la désinformation alimenté par de nouveaux outils comme l'IA.
La différence dans les réponses d'Alexa a été mal perçue par les partisans de Trump, certains la qualifiant « d'opérateur communiste », tandis que d'autres ont appelé la campagne Trump à déposer une plainte auprès de la Commission électorale fédérale et à intenter une action en justice contre Amazon. Dans cet extrait vidéo, ce partisan de Trump reproduit l'expérience de Fox News mais va plus loin en demandant à Alexa des raisons de NE PAS voter pour Trump ou pour Harris. Pour le premier, Alexa fournit des réponses, pour la seconde, Alexa n'en fournit aucune.
[TWITTER]<blockquote class="twitter-tweet"><p lang="en" dir="ltr">Alexa is a Commie operative! You won’t believe this. Volume UP! 👇👇 <a href="https://t.co/mOQaaWULhK">pic.twitter.com/mOQaaWULhK</a></p>— John Rich🇺🇸 (@johnrich) <a href="https://twitter.com/johnrich/status/1830996796765524286?ref_src=twsrc%5Etfw">September 3, 2024</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script> [/TWITTER]
Les réactions et les implications
Cet incident a suscité de vives réactions. Certains y voient une preuve des biais potentiels des IA, tandis que d’autres considèrent cela comme une simple erreur technique rapidement corrigée par Amazon. Un porte-parole d’Amazon a déclaré que cette réponse était une « erreur qui a été rapidement rectifiée ». L'entreprise n'a pas donné d'autres détails sur les raisons de cette disparité, mais a assuré qu'elle dispose d'équipes chargées d'auditer en permanence ses systèmes pour détecter les contenus qui enfreignent ses politiques et prévenir des situations similaires.
Néanmoins, cet incident soulève des questions importantes sur la neutralité des IA et leur rôle dans la société. En effet, si les assistants vocaux peuvent influencer les opinions politiques, quelles autres informations pourraient-ils biaiser ? La transparence et la responsabilité des entreprises technologiques deviennent cruciales pour garantir que ces outils restent neutres et fiables.
De même, les biais dans les IA ne sont pas nouveaux. Ils peuvent provenir des données utilisées pour entraîner les modèles ou des algorithmes eux-mêmes. Par exemple, si les données d’entraînement contiennent des biais, l’IA les reproduira. Dans le cas d’Alexa, il est possible que les réponses biaisées soient le résultat de données d’entraînement imparfaites ou d’algorithmes mal conçus.
L'IA s’insère progressivement dans le débat politique
Donald Trump a publié sur son compte Truth Social une série d'images générées par l'intelligence artificielle, affirmant à tort que Taylor Swift avait soutenu sa candidature à l'élection présidentielle.
Il a partagé plusieurs captures d'écran de messages X montrant des femmes portant des t-shirts « Swifties for Trump ». Plusieurs de ces photos semblent avoir été trafiquées, et une capture d'écran montre un article de presse satirique affirmant que l'annulation des concerts de Swift à Vienne en raison d'un complot terroriste déjoué a poussé les Swifties à se tourner vers Trump. Une autre capture d'écran montre Taylor Swift photoshopée en Oncle Sam à côté du message suivant : « Taylor veut que vous votiez pour Donald Trump ».
« J'accepte ! » a mis Trump en légende.
Loin de s'en contenter, il a également lancé une attaque de dernière minute contre Kamala Harris avant le premier jour de la convention nationale du parti démocrate (DNC) à Chicago, en publiant une image générée par l'intelligence artificielle de la vice-présidente s'adressant à une foule de communistes. Harris a fait l'objet d'une avalanche d'attaques personnelles de la part de l'ancien président, alors qu'elle est en tête des sondages nationaux, y compris dans les sept États clés, à l'exception du Nevada.
Trump a fait monter les enchères en utilisant l'IA : le candidat républicain à la présidence a publié dimanche sur X une image générée montrant une femme, qui semble être Harris, portant un blazer rouge et s'adressant à une énorme foule avec un blason comportant des symboliques de celui de l'Union soviétique (notamment un marteau et une faucille). Nous pouvons apercevoir « Chicago » à l'arrière-plan. Sa publication a déjà été vue plus de 81 millions de fois.
[TWITTER]<blockquote class="twitter-tweet"><p lang="zxx" dir="ltr"><a href="https://t.co/H0ExcNXBdl">pic.twitter.com/H0ExcNXBdl</a></p>— Donald J. Trump (@realDonaldTrump) <a href="https://twitter.com/realDonaldTrump/status/1825138139502878806?ref_src=twsrc%5Etfw">August 18, 2024</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script> [/TWITTER]
Une situation déjà anticipée par des experts en IA
Après que les émeutiers ont pris d’assaut le Capitole des États-Unis, les théories du complot à l’origine de cette violente attaque restent répandues sur les réseaux sociaux et dans l’actualité par câble : valises remplies de bulletins de vote, dépôts de bulletins de vote tard dans la nuit, des morts qui ont voté.
Les experts préviennent que la situation sera probablement pire lors de la prochaine élection présidentielle. Les garde-fous qui ont tenté de contrer les fausses allégations la dernière fois s’érodent, tandis que les outils et les systèmes qui les créent et les diffusent ne font que se renforcer.
De nombreux Américains, encouragés par l’ancien président Donald Trump, ont continué à promouvoir l’idée, sans fondement, selon laquelle on ne peut pas faire confiance aux élections partout aux États-Unis. Une majorité de républicains (57 %) estiment que le démocrate Joe Biden n’a pas été légitimement élu président.
Parallèlement, les outils d’intelligence artificielle générative ont rendu beaucoup moins coûteuse et plus facile la diffusion du type de désinformation susceptible d’induire les électeurs en erreur et potentiellement d’influencer les élections. Et les sociétés de médias sociaux qui investissaient autrefois massivement dans la correction des faits ont changé leurs priorités.
En clair, l’élection présidentielle américaine de 2024 pourrait être marquée par une vague de désinformation sans précédent, alimentée par le développement de l’intelligence artificielle et la dégradation des garde-fous des réseaux sociaux, selon des experts. « Je m’attends à un tsunami de désinformation », a déclaré Oren Etzioni, un expert en IA et professeur émérite à l’Université de Washington. « Je ne peux pas le prouver. J’espère me tromper. Mais les ingrédients sont là, et je suis complètement terrifié. »
L’un des principaux risques est lié à la diffusion des « deepfakes », des images, des vidéos ou des enregistrements audio truqués grâce à l’IA, qui peuvent faire dire ou faire n’importe quoi à n’importe qui. Ces faux contenus sont de plus en plus faciles à produire et à partager, et peuvent avoir un impact dévastateur sur la crédibilité des candidats ou sur la confiance dans le processus électoral. Par exemple, on pourrait voir un candidat politique dire des choses qu’il ou elle n’a jamais dites.
« Si une campagne de désinformation ou de mésinformation est suffisamment efficace pour qu’un pourcentage suffisamment important de la population américaine ne croie pas que les résultats reflètent ce qui s’est réellement passé, alors le 6 janvier [date de l’assaut du Capitole par des partisans de Donald Trump] ressemblera probablement à un échauffement », a averti Laura Rosenberger, directrice du groupe de réflexion Alliance for Securing Democracy.
Face à ce défi, certains acteurs tentent de sensibiliser le public et de renforcer la résilience démocratique. C’est le cas d'un groupe d’étudiants du Minnesota qui se concentre sur la promotion et la sensibilisation des électeurs. Le groupe organise des séances d’information avec des responsables électoraux, des experts en désinformation et des journalistes, et encourage les jeunes à s’informer auprès de sources fiables et diversifiées : « Nous voulons que les gens soient conscients de ce qui se passe, qu’ils sachent comment vérifier les faits et qu’ils comprennent comment les médias sociaux peuvent influencer leur perception de la réalité ».
Source : vidéo dans le texte
Et vous ?
Quels sont les risques potentiels de laisser des IA influencer les opinions politiques ?
Pensez-vous que les entreprises technologiques devraient être tenues responsables des biais de leurs IA ? Pourquoi ou pourquoi pas ?
Comment les utilisateurs peuvent-ils vérifier l’impartialité des informations fournies par les assistants vocaux ?
Quels mécanismes de régulation devraient être mis en place pour garantir la neutralité des IA ?
Avez-vous déjà remarqué des biais dans les réponses de vos assistants vocaux ? Si oui, comment avez-vous réagi ?
Comment les biais dans les IA peuvent-ils affecter d’autres domaines comme la santé, l’éducation ou la justice ?
Quelles mesures concrètes les entreprises comme Amazon peuvent-elles prendre pour éviter de tels incidents à l’avenir ?
Est-il possible d’éliminer complètement les biais des IA, ou est-ce une utopie ?