IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

La Maison-Blanche ordonne à chaque agence fédérale de recruter un responsable de l'IA pour superviser tous les outils d'IA qu'elle utilise,
Afin de s'assurer qu'ils sont sûrs et non discriminatoires

Le , par Mathis Lucas

6PARTAGES

4  0 
La Vice-présidente des États-Unis Kamala Harris vient d'annoncer de nouvelles exigences visant à réglementer l'utilisation de l'IA par les agences fédérales du pays. L'une des principales règles ordonne à chaque agence fédérale américaine de recruter un responsable de haut niveau pour superviser tous les systèmes d'IA qu'elle utilise. La Maison-Blanche veut s'assurer que l'utilisation de l'IA dans le service public reste sûre et non discriminatoire. La pertinence de la directive interroge, mais alors que l'IA s'infiltre de plus en plus dans les services publics, elle pose la question de savoir si les autres gouvernements du monde doivent suivre l'exemple des États-Unis.

La Maison-Blanche est consciente des risques liés à l'utilisation de l'IA dans les agences fédérales. Pour cette raison, elle a introduit jeudi de nouvelles règles pour régir leur utilisation. L'annonce de la Maison-Blanche stipule que les agences fédérales américaines doivent désormais démontrer que les outils d'IA qu'elles utilisent ne nuisent pas au public, ou cesser de les utiliser. « Lorsque les agences gouvernementales utiliseront des outils d'IA, nous leur demanderons désormais de vérifier que ces outils ne mettent pas en danger les droits et la sécurité du peuple américain », a déclaré la Vice-présidente des États-Unis Kamala Harris.

Ces changements entrent dans le cadre des nouvelles orientations du Bureau de la gestion et du budget (Office of Management and Budget - OMB) des États-Unis. D'ici au mois de décembre, chaque agence devra avoir mis en place un ensemble de mesures de protection concrètes, allant des contrôles de reconnaissance faciale dans les aéroports aux outils d'IA qui aident à contrôler le réseau électrique ou à déterminer les prêts hypothécaires et les assurances habitation. Notamment, chaque agence fédérale américaine se doit de nommer "un responsable de l'IA" chargé de superviser l'utilisation de la technologie dans l'agence.


En outre, la Maison-Blanche précise que les agences devront également soumettre à l'OMB un rapport annuel énumérant tous les systèmes d'IA qu'elles utilisent, les risques qui y sont associés et la manière dont elles prévoient d'atténuer ces risques. Les voyageurs seront autorisés à refuser les scanners de reconnaissance faciale lors des contrôles de sécurité dans les aéroports sans craindre de conséquences. Cette politique s'appuie sur le décret pris par le président Joe Biden lors du sommet mondial sur la sécurité de l'IA qui s'est tenu au Royaume-Uni en octobre dernier, ainsi que sur d'autres initiatives présentées par Harris.

« Nous avons demandé à toutes les agences fédérales de désigner un responsable de l'IA ayant l'expérience, l'expertise et l'autorité nécessaires pour superviser tous les systèmes d'IA utilisés par l'agence, et ce dans le but de s'assurer que la technologie est utilisée de manière responsable, en comprenant que nous devons avoir des hauts responsables dans notre gouvernement, qui sont spécifiquement chargés de superviser l'adoption et l'utilisation de l'IA », a déclaré Harris. Les règles, qui entreront en vigueur le 1er décembre, exigent aussi que les agences fédérales mettent en place des conseils de gouvernance de l'IA.

Le responsable de l'IA ne doit pas nécessairement être nommé par un homme politique, mais cela dépend de la structure de l'agence fédérale. Cela dit, les conseils de gouvernance doivent être créés avant l'été. Certaines agences ont déjà commencé à recruter des responsables de l'IA avant même l'annonce d'aujourd'hui. Le ministère de la Justice a annoncé la nomination de Jonathan Mayer en tant que premier responsable de l'IA (Chief AI Officer - CAIO) en février. Le ministère de la Justice a annoncé que Mayer dirigera une équipe d'experts en cybersécurité chargée de déterminer comment utiliser l'IA dans l'application de la loi.

Selon la présidente de l'OMB, Shalanda Young, le gouvernement américain prévoit d'embaucher 100 professionnels de l'IA d'ici l'été. Les responsables de l'IA et les comités de gouvernance des agences fédérales ont notamment pour mission de contrôler fréquemment leurs systèmes d'IA. Les agences fédérales doivent également vérifier que l'IA qu'elles déploient respecte des mesures de protection qui atténuent les risques de discrimination relatifs aux algorithmes et offrent au public une transparence sur la manière dont le gouvernement utilise l'IA. La fiche d'information de l'OMB donne plusieurs exemples, notamment :

  • à l'aéroport, les voyageurs auront la possibilité de refuser l'utilisation de la reconnaissance faciale de la TSA (Transportation Security Administration) sans retard ni perte de place dans la file d'attente ; de l'
  • lorsque l'IA est utilisée dans le système de santé fédéral pour soutenir des décisions de diagnostic critiques, un être humain supervise le processus afin de vérifier les résultats des outils et d'éviter les disparités dans l'accès aux soins de santé ;
  • lorsque l'IA est utilisée pour détecter les fraudes dans les services publics, les décisions ayant un impact sont supervisées par un être humain et les personnes concernées ont la possibilité de demander réparation pour les préjudices causés par l'IA.


« Si une agence ne peut pas offrir ces garanties, elle doit cesser d'utiliser le système d'IA, à moins que la direction de l'agence ne justifie pourquoi cela augmenterait les risques pour la sécurité ou les droits en général ou créerait un obstacle inacceptable aux opérations critiques de l'agence », peut-on lire dans la fiche d'information. Toujours d'après les nouvelles orientations de l'OMB, tous les modèles, codes et données d'IA appartenant au gouvernement doivent être rendus publics, à moins qu'ils ne présentent un risque pour les opérations du gouvernement. Les nouvelles exigences sont contraignantes pour les agences.

Les États-Unis n'ont toujours pas de lois réglementant l'IA. Le décret sur l'IA fournit des lignes directrices aux agences gouvernementales relevant du pouvoir exécutif sur la manière d'aborder la technologie. Bien que plusieurs projets de loi aient été déposés pour réglementer certains aspects de l'IA, il n'y a pas eu beaucoup de mouvement pour légiférer sur les technologies de l'IA. Le décret du président Joe Biden tente également de protéger les systèmes d'IA commerciaux les plus avancés fabriqués par des entreprises technologiques de premier plan. Il s'agit notamment des systèmes qui pilotent les chatbots d'IA générative.

Cependant, la directive de jeudi vise les outils d'IA que les agences gouvernementales utilisent depuis des années pour les aider à prendre des décisions en matière d'immigration, de logement, de protection de l'enfance et d'une série d'autres services. L'annonce des nouvelles règles a suscité de nombreuses réactions dans la communauté. « C'est probablement la bonne chose à faire, mais ce sera beaucoup plus difficile qu'il n'y paraît. Ces personnes vont avoir besoin de personnel, de financement et d'autorités claires, sinon elles ne sont que des noms qui sont mis en copie sur des courriels », lit-on dans les commentaires.

Source : communiqué de presse de la Maison-Blanche

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous des nouvelles règles encadrant l'utilisation de l'IA par les agences fédérales américaines ?
Ces nouvelles règles sont-elles pertinentes ? Peuvent-elles réellement aider à réduire les risques liés aux systèmes d'IA ?
Pensez-vous qu'il faudra la même chose dans votre pays ? Pensez-vous que votre entreprise a besoin ou pas d'un "chief AI officer" ?

Voir aussi

Qualité vs prix : Mistral 8x7B est le modèle d'IA le plus rapide et le plus accessible en matière de coût, tandis que GPT-4 Turbo et Claude 3 Opus fournissent des réponses de meilleure qualité

Les entreprises spécialisées dans l'intelligence artificielle (IA) devront commencer à communiquer leurs tests de sécurité au gouvernement américain

La Maison Blanche invite les développeurs à abandonner le C et le C++ pour passer à des langages comme le Rust jugés supérieurs pour sécuriser les espaces mémoire des logiciels

Une erreur dans cette actualité ? Signalez-nous-la !