Un jeune entrepreneur qui a été l'un des premiers recruteurs connus du « Department of Government Efficiency » (DOGE) d'Elon Musk a une nouvelle mission connexe (et il recrute). Anthony Jancso, cofondateur d'AcclerateX, une startup spécialisée dans la technologie gouvernementale, recherche des professionnels de l'informatique pour travailler sur un projet visant à confier à l'intelligence artificielle des tâches qui incombent actuellement à des dizaines de milliers de fonctionnaires fédéraux.Jancso, un ancien employé de Palantir, a écrit dans un Slack contenant environ 2000 anciens de Palantir qu'il recrutait pour un « projet orthogonal DOGE visant à concevoir des repères et à déployer des agents d'intelligence artificielle dans les flux de travail des agences fédérales », selon un message daté du 21 avril. Les agents sont des programmes capables d'effectuer un travail de manière autonome.
Contexte
Le Department of Government Efficiency (DOGE) vient de franchir une nouvelle étape dans sa course à la modernisation de l’État. Selon plusieurs sources internes, un recruteur du DOGE mène actuellement une opération de grande envergure pour déployer des agents d’intelligence artificielle à travers l’ensemble des agences fédérales. Objectif affiché : renforcer l’efficacité administrative.
Une situation qui intervient après que le DOGE a embauché un « jeune homme sans expérience gouvernementale » pour aider à réviser les réglementations fédérales au sein du ministère du logement et du développement urbain... à l'aide de l'IA.
L'IA à toutes les sauces
Au ministère du logement et du développement urbain, un étudiant de premier cycle a été chargé d'utiliser l'intelligence artificielle pour trouver les domaines dans lesquels les règlements du HUD peuvent aller au-delà de l'interprétation la plus stricte des lois sous-jacentes.
Il s'agit d'une tâche qui a du sens pour l'IA, qui peut synthétiser des informations à partir de documents volumineux bien plus rapidement qu'un être humain. Il existe un certain risque d'hallucination (plus précisément, de voir le modèle ressortir des citations qui n'existent pas en réalité), mais un être humain doit approuver ces recommandations de toute façon. C'est, d'une certaine manière, ce que l'IA générative fait de mieux à l'heure actuelle : effectuer un travail fastidieux de manière systématique.
Il y a cependant quelque chose de pernicieux à demander à un modèle d'IA d'aider à démanteler l'État administratif.
L'IA ne « sait » rien des réglementations et ne sait pas si elles sont conformes à la lecture la plus stricte possible des lois, ce sur quoi même des juristes très expérimentés ne seront pas d'accord. Elle a besoin d'être alimentée par une invite détaillant ce qu'elle doit rechercher, ce qui signifie que vous pouvez non seulement travailler avec les arbitres, mais aussi rédiger le règlement pour eux. Elle est aussi exceptionnellement désireuse de plaire, au point d'inventer des choses plutôt que de refuser de répondre.
Au moins, il s'agit d'un cas d'utilisation compréhensible. On ne peut pas en dire autant d'un autre effort d'IA associé à la DOGE.
Un des premiers recruteurs de la DOGE est à nouveau à la recherche d'ingénieurs, cette fois pour « concevoir des benchmarks et déployer des agents d'IA dans des flux de travail réels au sein d'agences fédérales ». Son objectif est de supprimer des dizaines de milliers de postes dans l'administration, en les remplaçant par des agents d'IA et en « libérant » des travailleurs pour des tâches prétendument « plus importantes ».
La DOGE n'a pas introduit l'IA au sein du gouvernement américain. Dans certains cas, elle a accéléré ou relancé des programmes d'IA qui lui étaient antérieurs. La General Services Administration travaillait déjà sur un chatbot interne depuis des mois ; la DOGE a simplement accéléré le calendrier de déploiement. Le département de la défense a conçu un logiciel pour aider à automatiser les réductions d'effectifs il y a plusieurs décennies ; les ingénieurs de la DOGE ont mis à jour AutoRIF à leurs propres fins.
Cependant, même ces projets préexistants témoignent des préoccupations que suscite l'utilisation de l'IA par DOGE. Le problème n'est pas l'intelligence artificielle en elle-même. C'est son déploiement à plein régime dans des contextes où les erreurs peuvent avoir des conséquences dévastatrices. C'est le manque de clarté quant aux données qui sont introduites, où et avec quelles garanties.
L'IA n'est ni un croquemitaine ni une panacée. Elle est bonne dans certains domaines et mauvaise dans d'autres. Mais la DOGE l'utilise comme un moyen...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.