IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

« Nous n'avons pas voté pour ChatGPT » : le Premier ministre suédois critiqué pour avoir utilisé l'IA dans le cadre de ses fonctions,
Suscitant des craintes liées au partage d'informations sensibles avec l'IA

Le , par Mathis Lucas

31PARTAGES

3  0 
Le Premier ministre suédois, Ulf Kristersson, a admis qu'il consultait régulièrement des outils d'IA pour obtenir « un deuxième avis » dans le cadre de ses fonctions à la tête du pays. Il utilise des outils tels que ChatGPT et le service français LeChat. Il a ajouté que ses collègues utilisaient également l'IA dans leur travail quotidien. Sans surprise, il aurait sans doute mieux valu que cela reste confidentiel. Les experts ont souligné les biais de l'IA et les risques liés à cette pratique. Ils redoutent les dangers liés au partage d'informations sensibles et confidentielles avec des programmes d'IA détenus par des entreprises étrangères, ce qui met en péril la sécurité nationale.

« Je l'utilise moi-même assez souvent. Ne serait-ce que pour obtenir un deuxième avis. Qu'ont fait les autres ? Devrions-nous penser exactement le contraire ? Ce genre de questions », a déclaré le Premier ministre suédois Ulf Kristersson dans une récente interview au site suédois Dagens Industri. Cette révélation a suscité un grand débat. Cette admission a été mal reçue par une partie de la population suédoise, des médias et des experts en technologie.

Des experts dans le domaine ont exprimé leurs inquiétudes concernant les frasques d'Ulf Kristersson en matière d'IA. Certains experts dénoncent un usage irresponsable de technologies encore imparfaites dans un contexte aussi sensible que celui de la gouvernance. D'autres ont mis en garde contre ce qu'ils appellent une « fascination dangereuse » pour l’IA. En outre, des spécialistes en sécurité et en éthique numérique ont exprimé leurs inquiétudes.

« Plus il s'appuie sur l'IA pour des choses simples, plus le risque de confiance excessive dans le système est grand. C'est une pente glissante. Nous devons exiger que la fiabilité soit garantie. Nous n'avons pas voté pour ChatGPT », a déclaré Virginia Dignum, professeure d'intelligence artificielle responsable à l'université d'Umeå. Dans un éditorial, le journal Aftonbladet a accusé Ulf Kristersson d'être tombé dans « la psychose de l'IA des oligarques ».


Aux États-Unis, l'outil d'IA du DOGE interprète mal la loi, mais reste chargé de supprimer la moitié des réglementations américaines. Le plan prévoit la suppression de 100 000 réglementations pour économiser 1 500 milliards de dollars d'ici 2026.

« Il faut être très prudent », a suggéré Simone Fischer-Hübner, chercheuse en informatique à l'université de Karlstad, au journal Aftonbladet. Elle a mis en garde contre l'utilisation de ChatGPT pour traiter des informations sensibles, ce qui constituerait un risque majeur pour la sécurité nationale de la Suède.

Le porte-parole d'Ulf Kristersson, Tom Samuelsson, a déclaré par la suite que le Premier ministre ne prenait aucun risque dans son utilisation de l'IA. « Bien sûr, ce ne sont pas des informations sensibles sur le plan de la sécurité qui se retrouvent là. C'est plutôt utilisé comme une estimation approximative », a-t-il déclaré. Toutefois, cette clarification du gouvernement n'a pas suffi à faire taire les critiques contre le choix de ChatGPT comme « conseiller ».

Risques liés à l'utilisation de l'IA dans le cadre de la gouvernance

Malgré la sortie du porte-parole, les experts restent sceptiques quant aux mesures de sécurité. Ils soulignent plusieurs risques majeurs. D’abord, celui d’une dépendance excessive à des outils non transparents et potentiellement biaisés. Ensuite, ils s'interrogent sur la confidentialité des données : même si le gouvernement affirme que « les systèmes ne reçoivent pas d’informations sensibles », l’utilisation de ces plateformes reste difficile à contrôler.

Enfin, il y a un risque de perte de confiance démocratique : de nombreux citoyens rappellent que les responsables politiques sont élus pour exercer un jugement humain, non pour déléguer leur réflexion à des machines. La professeure Virginia Dignum, de l'université d'Umeå, rappelle que...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !