IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Le DOGE d'Elon Musk recrute un étudiant sans diplôme et sans expérience pour l'aider à réécrire la réglementation sur le logement à l'aide de l'IA
Lui donnant accès à des bases de données confidentielles

Le , par Stéphane le calme

5PARTAGES

6  0 
Elon Musk a beau quitter Washington D.C., son initiative DOGE continue de sévir au sein du gouvernement, semant le chaos partout où elle passe. En voici un exemple : DOGE a embauché un « jeune homme sans expérience gouvernementale » pour aider à réviser les réglementations fédérales au sein du ministère du logement et du développement urbain. Cet homme, Christopher Sweet, n'a même pas encore obtenu son diplôme de premier cycle.

Contexte

Dans le détail, DOGE a donné à l’étudiant un accès en lecture à des bases de données critiques du HUD (bases sur le logement public et la vérification des revenus). Son rôle principal est de piloter un projet d’analyse algorithmique des règlements : le modèle d’IA parcourt le Code of Federal Regulations (eCFR) pour repérer des passages jugés excessifs par rapport aux lois qui sous-tendent ces règles.

En pratique, l’IA génère un rapport (sous forme de tableur) listant plus d’un millier d’entrées : pour chaque règlement visé, elle met en évidence le texte actuel, propose une formulation alternative et calcule des métriques (nombre de mots à supprimer, « taux de non-conformité » estimé, etc.). Ensuite, le personnel du HUD est invité à valider ou contester ces propositions : les équipes en charge du logement public (PIH) doivent examiner les suggestions de l’IA et expliquer tout désaccord, avant soumission finale au bureau du conseiller juridique de l’agence.


Embaucher de jeunes nerds de la technologie qui ne savent pas ce qu'ils font

Un jeune homme sans expérience gouvernementale qui n'a même pas encore obtenu son diplôme de premier cycle travaille pour le soi-disant Département de l'efficacité gouvernementale (DOGE) d'Elon Musk au sein du Département du logement et du développement urbain (HUD) et a été chargé d'utiliser l'intelligence artificielle pour réécrire les règles et réglementations de l'agence.

Christopher Sweet a été présenté aux employés du HUD comme étant originaire de San Francisco et plus récemment en troisième année à l'Université de Chicago, où il étudiait l'économie et la science des données, dans un courriel envoyé aux employés au début du mois d'avril.

« J'aimerais vous annoncer que Chris Sweet a rejoint l'équipe du HUD DOGE en tant qu'assistant spécial, bien qu'un meilleur titre pourrait être “analyste quantique en programmation informatique” », a écrit Scott Langmack, un employé du DOGE et directeur d'exploitation d'une société immobilière d'IA, dans un courriel largement partagé au sein de l'agence. « Avec des racines familiales brésiliennes, Chris parle couramment le portugais. Veuillez vous joindre à moi pour souhaiter la bienvenue à Chris au HUD ! »

Le rôle principal de Chris Sweet semble être de diriger un effort visant à tirer parti de l'intelligence artificielle pour examiner les réglementations du HUD, les comparer aux lois sur lesquelles elles sont basées et identifier les domaines dans lesquels les règles peuvent être assouplies ou supprimées complètement. Selon des sources au sein de l'agence, il a également reçu un accès en lecture à la base de données du HUD sur les logements publics, connue sous le nom de Centre d'information sur les logements publics et indiens, ainsi qu'à ses systèmes de vérification des revenus des entreprises.

Le recrutement de Sweet est tout à fait conforme au modus operandi général de DOGE, qui semble être le suivant : embaucher de jeunes nerds de la technologie qui ne savent pas ce qu'ils font, les lancer dans des activités juridiquement douteuses qui impliquent des processus gouvernementaux complexes, les regarder s'agiter et dire au public qu'ils font du bon travail.

Utilisation de l’IA dans le processus réglementaire

L’IA intervient ici à chaque étape de l’analyse des textes réglementaires. Les sources internes décrivent le processus suivant :
  • Indexation du eCFR : le modèle parcourt automatiquement le Code of Federal Regulations, qui compile les règlements fédéraux, afin d’identifier les dispositions susceptibles d’être révisées.
  • Comparaison avec la loi : chaque section réglementaire est comparée au texte législatif (loi-cadre) associé. L’IA cherche des cas de « sur-régulation » (overreach), c’est-à-dire des règles allant au-delà des objectifs de la loi sous-jacente.
  • Génération de suggestions : pour chaque paragraphe ciblé, le modèle propose un langage alternatif ou des suppressions de phrases jugées superflues. Par exemple, il suggère de supprimer des mots ou phrases pour alléger le texte réglementaire, et formule un nouveau libellé plus concis lorsque c’est pertinent.
  • Rapport automatisé : l’IA compile ces résultats dans un tableau structuré. Ce document indique le contenu original, la recommandation de l’IA et des indicateurs (nombre de mots supprimables, pourcentage de non-conformité estimé). WIRED a examiné un tel tableur : on y voit en colonnes le texte à ajuster, la suggestion de reformulation et divers calculs de conformité.
  • Revue humaine : les équipes du HUD (notamment le bureau du logement public et indien) doivent relire ces suggestions et « justifier leurs objections » pour les modifications rejetées. Le processus s’achève après examen par le conseiller juridique du HUD qui valide les changements finals

Cette collaboration IA–humain est présentée comme un moyen d’augmenter l’efficacité (« openAI programming quant analyst » selon un courriel interne). Elle repose vraisemblablement sur un grand modèle de langage (LLM) avancé (par exemple GPT-4 ou modèle équivalent), adapté par des ingénieurs pour traiter de longs documents légaux. Le modèle doit pouvoir « creuser » les textes officiels et générer du langage réglementaire pertinent. En l’état, nous ne disposons pas d’informations publiques sur le modèle exact utilisé, mais la méthode semble combiner récupération d’informations (indexation du CFR) et génération de texte. L’IA produit un brouillon de révisions qui sert de base, puis l’expertise humaine oriente le résultat final.


Analyse technique

Puissance des LLM

Les grands modèles de langage peuvent gérer des requêtes complexes. On imagine que DOGE a utilisé un système permettant de poser decs questions ciblées au CFR (par exemple « Quels règlements se rattachent au Public Housing Act ?») et d’obtenir des réponses synthétiques. Des analyses récentes montrent que les GPT peuvent aider les législateurs à naviguer dans des textes volumineux : par exemple, on a suggéré d’interroger un GPT sur des références spécifiques du CFR pour en extraire les dispositions pertinentes. Ces outils peuvent accélérer la recherche de texte clé et la compréhension d’un cadre réglementaire étendu.

Approches complémentaires

Au-delà des LLM, des méthodes plus structurées existent. Des chercheurs de l’université du Maryland (UMBC) ont développé une IA fondée sur un graphe de connaissances sémantique pour analyser le CFR. Leur approche stocke les concepts et relations du code (lois, réglementations, termes-clés) dans une base ontologique (OWL), permettant d’interroger automatiquement les règles en langage naturel. Cela montre qu’on peut coupler IA et technologies Web sémantiques pour faciliter l’accès aux textes juridiques.

Limites des modèles génératifs

Les LLM ont des inconvénients notables. Leur « fenêtre de contexte » est finie (ils peinent à gérer de très longs documents en une seule requête) et ils peuvent produire des résultats erronés (« hallucinations »). Sans instructions et validation appropriées, un GPT peut générer des informations incorrectes ou hors sujet. En l’absence de certitude juridique, toute suggestion de l’IA doit être soigneusement vérifiée par des experts. De plus, ces modèles sont basés sur des données d’entraînement hétérogènes : un biais dans les sources (ou dans le mode d’entraînement) pourrait orienter leurs recommandations (par exemple favoriser la déréglementation ou refléter des préjugés inconscients).

Données et sécurité

Techniquement, intégrer un LLM dans des flux de travail gouvernementaux soulève des questions pratiques. Comment assure-t-on la confidentialité des données d’entrée (documents règlementaires, informations sensibles) tout en utilisant un service d’IA souvent externe ? Dans le cas DOGE, l’étudiant a lu des bases de données du HUD contenant des informations personnelles (revenus des locataires, etc.). Il faut garantir que l’IA respecte les règles de sécurité du gouvernement (stockage privé, réseaux internes, etc.).

Outil d'évaluation

Enfin, commenter et mesurer la « non-conformité » qu’affiche l’outil dans le tableur pose question. Les indicateurs automatiques (pourcentages, mots à éliminer) sont probablement définis par le développeur. Sans transparence sur leur calcul, on ne sait pas exactement ce qu’ils signifient, ce qui peut affecter la confiance dans les résultats.

En résumé, sur le plan technologique le projet DOGE est faisable avec les moyens actuels : des logiciels existent pour indexer de gros volumes de texte légal et y appliquer des modèles de langage. Mais il exige un montage technique sophistiqué (intégration du CFR, prompts précis, interface d’export et de révision), et reste soumis aux faiblesses connues des IA génératives. Les professionnels de l'informatique pourront souligner qu’un outil ainsi conçu peut être utile pour éplucher rapidement des règlements, à condition d’être utilisé comme une aide à la décision plutôt que comme un arbitre final.

Cette initiative soulève aussi de nombreuses questions

L’algorithme employé et le processus exact de décision ne sont pas rendus publics. Les agents du HUD ne peuvent qu’espérer comprendre comment l’IA produit ses suggestions. Cela complique la contestation ou la révision indépendante de ses recommandations. De plus, faire retravailler les règlements en dehors du processus normal de consultation (APA) remet en cause la légitimité du résultat final. Un employé du HUD a d’ailleurs...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !