
suscitant des craintes liées au partage d'informations sensibles avec l'IA
Le Premier ministre suédois, Ulf Kristersson, a admis qu'il consultait régulièrement des outils d'IA pour obtenir « un deuxième avis » dans le cadre de ses fonctions à la tête du pays. Il utilise des outils tels que ChatGPT et le service français LeChat. Il a ajouté que ses collègues utilisaient également l'IA dans leur travail quotidien. Sans surprise, il aurait sans doute mieux valu que cela reste confidentiel. Les experts ont souligné les biais de l'IA et les risques liés à cette pratique. Ils redoutent les dangers liés au partage d'informations sensibles et confidentielles avec des programmes d'IA détenus par des entreprises étrangères, ce qui met en péril la sécurité nationale.
« Je l'utilise moi-même assez souvent. Ne serait-ce que pour obtenir un deuxième avis. Qu'ont fait les autres ? Devrions-nous penser exactement le contraire ? Ce genre de questions », a déclaré le Premier ministre suédois Ulf Kristersson dans une récente interview au site suédois Dagens Industri. Cette révélation a suscité un grand débat. Cette admission a été mal reçue par une partie de la population suédoise, des médias et des experts en technologie.
Des experts dans le domaine ont exprimé leurs inquiétudes concernant les frasques d'Ulf Kristersson en matière d'IA. Certains experts dénoncent un usage irresponsable de technologies encore imparfaites dans un contexte aussi sensible que celui de la gouvernance. D'autres ont mis en garde contre ce qu'ils appellent une « fascination dangereuse » pour l’IA. En outre, des spécialistes en sécurité et en éthique numérique ont exprimé leurs inquiétudes.
« Plus il s'appuie sur l'IA pour des choses simples, plus le risque de confiance excessive dans le système est grand. C'est une pente glissante. Nous devons exiger que la fiabilité soit garantie. Nous n'avons pas voté pour ChatGPT », a déclaré Virginia Dignum, professeure d'intelligence artificielle responsable à l'université d'Umeå. Dans un éditorial, le journal Aftonbladet a accusé Ulf Kristersson d'être tombé dans « la psychose de l'IA des oligarques ».
Aux États-Unis, l'outil d'IA du DOGE interprète mal la loi, mais reste chargé de supprimer la moitié des réglementations américaines. Le plan prévoit la suppression de 100 000 réglementations pour économiser 1 500 milliards de dollars d'ici 2026.
« Il faut être très prudent », a suggéré Simone Fischer-Hübner, chercheuse en informatique à l'université de Karlstad, au journal Aftonbladet. Elle a mis en garde contre l'utilisation de ChatGPT pour traiter des informations sensibles, ce qui constituerait un risque majeur pour la sécurité nationale de la Suède.
Le porte-parole d'Ulf Kristersson, Tom Samuelsson, a déclaré par la suite que le Premier ministre ne prenait aucun risque dans son utilisation de l'IA. « Bien sûr, ce ne sont pas des informations sensibles sur le plan de la sécurité qui se retrouvent là. C'est plutôt utilisé comme une estimation approximative », a-t-il déclaré. Toutefois, cette clarification du gouvernement n'a pas suffi à faire taire les critiques contre le choix de ChatGPT comme « conseiller ».
Risques liés à l'utilisation de l'IA dans le cadre de la gouvernance
Malgré la sortie du porte-parole, les experts restent sceptiques quant aux mesures de sécurité. Ils soulignent plusieurs risques majeurs. D’abord, celui d’une dépendance excessive à des outils non transparents et potentiellement biaisés. Ensuite, ils s'interrogent sur la confidentialité des données : même si le gouvernement affirme que « les systèmes ne reçoivent pas d’informations sensibles », l’utilisation de ces plateformes reste difficile à contrôler.
Enfin, il y a un risque de perte de confiance démocratique : de nombreux citoyens rappellent que les responsables politiques sont élus pour exercer un jugement humain, non pour déléguer leur réflexion à des machines. La professeure Virginia Dignum, de l'université d'Umeå, rappelle que « l'IA n'était pas capable de donner un avis pertinent sur les idées politiques et que la technologie ne fait que refléter les opinions des personnes qui l'ont conçue ».
Jakob Ohlsson, consultant et « passionné d'IA », déplore un « amateurisme ». Selon Jakob Ohlsson, il est positif que le Premier ministre suédois s'intéresse aux nouvelles technologies, mais il a ajouté : « il intègre ses opinions politiques dans un modèle de langage qu'il ne comprend pas, appartenant à une entreprise qu'il ne contrôle pas, dont les serveurs sont situés dans un pays dont personne ne peut plus être tout à fait sûr de l'avenir démocratique ».
En réponse aux explications du porte-parole du Premier ministre suédois, Jakob Ohlsson a déclaré que ces précautions ne suffisent pas. « Un analyste compétent peut reconstituer la stratégie du gouvernement à partir de petits indices, qui finissent tous entre les mains d'entreprises technologiques américaines qui deviennent déjà plus puissantes que de nombreux États, dans un pays dont l'évolution politique future est tout sauf prévisible », a-t-il déclaré.
Dans un éditorial dans Aftonbladet, l'écrivain et conférencier Signe Krantz a mis en garde contre les comportements des IA. Il a écrit : « les chatbots préfèrent écrire ce qu'ils pensent que vous voulez entendre plutôt que ce que vous avez besoin d'entendre ». Il s'est également demandé pourquoi le Premier ministre utiliserait « des générateurs de nombres aléatoires » pour obtenir des conseils plutôt que « son équipe de plusieurs experts bien rémunérés ».
L'IA générative s’insère progressivement dans le débat politique
« Il peut falloir plus de temps à un expert pour corriger les erreurs de l'IA que pour faire le travail à partir de zéro. C'est tout aussi embarrassant chaque fois que quelqu'un prête son pouvoir de réflexion à l'IA. Lorsque le Premier ministre le fait aussi, c'est une autre affaire. Cela peut poser un risque pour la sécurité », a-t-il écrit. Et comme l'ont souligné de nombreux experts, l'IA ne fait que refléter les opinions de ses créateurs. Voici un exemple concret :
En septembre 2024, lorsqu'on a demandé à Alexa d'Amazon de donner des raisons de voter pour l'ancien président Donald Trump, Alexa s'est dérobée, selon une vidéo de Fox Business. « Je ne peux pas fournir de réponses qui soutiennent un parti politique ou son dirigeant », a répondu Alexa.
Lorsqu'on lui a posé la même question au sujet de Kamala Harris, l'IA d'Amazon s'est montrée tout à fait disposée à soutenir la candidate démocrate. « Il y a de nombreuses raisons de voter pour Kamala Harris », a déclaré Alexa. Parmi les raisons évoquées, il y a le fait qu'elle a un « plan complet pour lutter contre l'injustice raciale » et que son bilan en matière de justice pénale et de réforme de l'immigration fait d'elle une « candidate convaincante ».
L'incident a suscité de vives réactions. Certains y ont vu une preuve des biais de l'IA, tandis que d’autres l'ont considéré comme une simple erreur technique rapidement corrigée par Amazon. Un porte-parole d’Amazon a déclaré que cette réponse était une « erreur qui a été rapidement rectifiée ». Amazon n'a pas donné des détails sur les raisons de cette disparité, mais a assuré qu'il audite régulièrement ses systèmes afin de prévenir des situations similaires.
L'année dernière, Donald Trump a publié sur son compte Truth Social une série d'images générées par l'IA, affirmant à tort que la chanteuse Taylor Swift avait soutenu sa candidature à l'élection présidentielle. Il a partagé plusieurs captures d'écran de messages X (ex-Twitter) montrant des femmes portant des t-shirts « Swifties for Trump ». Cependant, plusieurs de ces photos semblent avoir été trafiquées, ce qui avait suscité un tollé dans la communauté.
Conclusion
L'utilisation de l'IA par le Premier ministre suédois suscite un grand débat. Sur le plan institutionnel, elle relance les discussions sur les limites de l’usage de l’IA en politique, notamment sur la sécurité des systèmes utilisés par les dirigeants. Elle soulève également des questions éthiques plus larges sur l’automatisation des décisions publiques. L'IA pourrait influencer les décisions des gouvernants en raison des biais contenus dans ses données d'entraînement.
Si cette pratique venait à se généraliser, elle pourrait modifier la manière dont les citoyens perçoivent la légitimité et l’autorité de leurs élus. Par ailleurs, l’affaire met en lumière un dilemme croissant : comment intégrer l’IA dans la sphère publique sans compromettre la responsabilité humaine ni affaiblir la démocratie ? Le cas suédois pourrait bien servir de déclencheur à un débat international sur l’usage de l’IA dans la politique et la gouvernance.
Et vous ?




Voir aussi



Vous avez lu gratuitement 3 141 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.