IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Des IA dans tous les ministères pour gérer le pays ? Le plan controversé d'un recruteur de la DOGE d'Elon Musk
Qui mène une campagne discrète de recrutement pour automatiser l'administration américaine

Le , par Stéphane le calme

85PARTAGES

5  0 
Un jeune entrepreneur qui a été l'un des premiers recruteurs connus du « Department of Government Efficiency » (DOGE) d'Elon Musk a une nouvelle mission connexe (et il recrute). Anthony Jancso, cofondateur d'AcclerateX, une startup spécialisée dans la technologie gouvernementale, recherche des professionnels de l'informatique pour travailler sur un projet visant à confier à l'intelligence artificielle des tâches qui incombent actuellement à des dizaines de milliers de fonctionnaires fédéraux.

Jancso, un ancien employé de Palantir, a écrit dans un Slack contenant environ 2000 anciens de Palantir qu'il recrutait pour un « projet orthogonal DOGE visant à concevoir des repères et à déployer des agents d'intelligence artificielle dans les flux de travail des agences fédérales », selon un message daté du 21 avril. Les agents sont des programmes capables d'effectuer un travail de manière autonome.


Contexte

Le Department of Government Efficiency (DOGE) vient de franchir une nouvelle étape dans sa course à la modernisation de l’État. Selon plusieurs sources internes, un recruteur du DOGE mène actuellement une opération de grande envergure pour déployer des agents d’intelligence artificielle à travers l’ensemble des agences fédérales. Objectif affiché : renforcer l’efficacité administrative.

Une situation qui intervient après que le DOGE a embauché un « jeune homme sans expérience gouvernementale » pour aider à réviser les réglementations fédérales au sein du ministère du logement et du développement urbain... à l'aide de l'IA.

L'IA à toutes les sauces

Au ministère du logement et du développement urbain, un étudiant de premier cycle a été chargé d'utiliser l'intelligence artificielle pour trouver les domaines dans lesquels les règlements du HUD peuvent aller au-delà de l'interprétation la plus stricte des lois sous-jacentes.

Il s'agit d'une tâche qui a du sens pour l'IA, qui peut synthétiser des informations à partir de documents volumineux bien plus rapidement qu'un être humain. Il existe un certain risque d'hallucination (plus précisément, de voir le modèle ressortir des citations qui n'existent pas en réalité), mais un être humain doit approuver ces recommandations de toute façon. C'est, d'une certaine manière, ce que l'IA générative fait de mieux à l'heure actuelle : effectuer un travail fastidieux de manière systématique.

Il y a cependant quelque chose de pernicieux à demander à un modèle d'IA d'aider à démanteler l'État administratif.

L'IA ne « sait » rien des réglementations et ne sait pas si elles sont conformes à la lecture la plus stricte possible des lois, ce sur quoi même des juristes très expérimentés ne seront pas d'accord. Elle a besoin d'être alimentée par une invite détaillant ce qu'elle doit rechercher, ce qui signifie que vous pouvez non seulement travailler avec les arbitres, mais aussi rédiger le règlement pour eux. Elle est aussi exceptionnellement désireuse de plaire, au point d'inventer des choses plutôt que de refuser de répondre.

Au moins, il s'agit d'un cas d'utilisation compréhensible. On ne peut pas en dire autant d'un autre effort d'IA associé à la DOGE.

Un des premiers recruteurs de la DOGE est à nouveau à la recherche d'ingénieurs, cette fois pour « concevoir des benchmarks et déployer des agents d'IA dans des flux de travail réels au sein d'agences fédérales ». Son objectif est de supprimer des dizaines de milliers de postes dans l'administration, en les remplaçant par des agents d'IA et en « libérant » des travailleurs pour des tâches prétendument « plus importantes ».

La DOGE n'a pas introduit l'IA au sein du gouvernement américain. Dans certains cas, elle a accéléré ou relancé des programmes d'IA qui lui étaient antérieurs. La General Services Administration travaillait déjà sur un chatbot interne depuis des mois ; la DOGE a simplement accéléré le calendrier de déploiement. Le département de la défense a conçu un logiciel pour aider à automatiser les réductions d'effectifs il y a plusieurs décennies ; les ingénieurs de la DOGE ont mis à jour AutoRIF à leurs propres fins.

Cependant, même ces projets préexistants témoignent des préoccupations que suscite l'utilisation de l'IA par DOGE. Le problème n'est pas l'intelligence artificielle en elle-même. C'est son déploiement à plein régime dans des contextes où les erreurs peuvent avoir des conséquences dévastatrices. C'est le manque de clarté quant aux données qui sont introduites, où et avec quelles garanties.

L'IA n'est ni un croquemitaine ni une panacée. Elle est bonne dans certains domaines et mauvaise dans d'autres. Mais la DOGE l'utilise comme un moyen...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de _toma_
Membre éclairé https://www.developpez.com
Le 10/05/2025 à 0:28
Beaucoup de choses me viennent en tête après la lecture de cet article.
Je vais essayer de faire bref et de ne pas trop m'étaler :
Nous ne sommes pas des machines.

Cette phrase a l'air bête mais je vous assure qu'elle est pleine de sens. On a l'impression que ce qu'on connaît a toujours été mais ce n'est pas le cas.

Penser que gouverner un pays ça se résume à gérer des comptes, licencier des gens pour rétablir une balance budgétaire ? Peut-être. Je sais pas. Mais en tout cas c'est pas ma vision.

Ce qui est sûr, c'est que refuser de penser notre société autrement que par un aspect économique, c'est dur. C'est refuser l'humain. Comment tu peux espérer construire une société en retirant l'humain de l'équation ?
Je suis pas naïf même si je suis en train de faire un discours de Bisounours. Je sais que notre société est complexe (une putain de planète entière quoi !). Mais une pensée me vient forcément en tête : on a passé quelques siècles (une paille dans notre histoire) a développer et perfectionner tout un tas de technologies qui étaient censées nous libérer de l'asservissement du travail. Pour quoi faire ? Je vous le donne en mille : vivre. Hé bah maintenant que c'est fait, on peut passer à autre chose et utiliser notre savoir faire pour faire évoluer collectivement notre société ? Chercher des réponses à nos problèmes plutôt que d'essayer de se les cacher parce que c'est plus rentable à court terme ?
Ha bah nan, c'est vrai, on peut pas. C'est plus simple et plus rentable d'ouvrir des conflits pour protéger ses intérêts que d'ouvrir le dialogue et ouvrir la voie à un projet commun*.

Finalement c'était pas moi l'antisocial.

* : malgré le ton je ne fais de leçon à personne, ce que je constate à l'échelle globale on le retrouve facilement dans notre quotidien.

PS : j'ai pris le temps de lire l'article, j'ai bien vu que c'était une "mise à jour logicielle", pas un nouveau décret de Trump.
0  0 
Avatar de JackIsJack
Membre éclairé https://www.developpez.com
Le 11/05/2025 à 8:51
Quand on atteint des niveaux d'organisation qui gère des dizaines de milliers de personnes, voire des centaines de milliers, et que l'on veut entreprendre de grands changements, alors ce genre de programme me semble adapté. Il est plus simple de ne rien entreprendre de grand, c'est sûr.

Et autre point, personnellement je préfère être viré par un algorithme 'aveugle' plutôt que par un humain qui ne m'apprécie pas mon travail. Question de goût !
0  0