IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

La Maison Blanche publie des directives à l'intention des agences fédérales contre l'IA « woke », après avoir interdit aux États locaux de réglementer l'IA
Une victoire pour les Big Tech de l'IA

Le , par Alex

0PARTAGES

6  0 
La Maison Blanche publie des directives à l'intention des agences fédérales contre l'IA « woke », après avoir interdit aux États locaux de réglementer l'IA, une victoire pour les Big Tech de l'IA

À la suite du nouveau décret de Donald Trump visant à neutraliser les lois étatiques qui limitent l'industrie de l'intelligence artificielle (IA), l'Office of Management and Budget (OMB) a publié des directives très attendues qui décrivent comment les agences fédérales doivent s'assurer que les modèles d'intelligence artificielle sont « impartiaux » lorsqu'ils sont achetés et déployés par le gouvernement. La note du directeur de l'OMB, Russell Vought, répond à certaines questions soulevées après que le président Donald Trump ait signé en juillet n décret visant à empêcher l'« IA woke » au sein du gouvernement fédéral.

En juillet, le président américain Donald Trump a signé trois décrets visant à renforcer son nouveau plan d'action en matière d'IA. L'un des décrets met en lumière les efforts du président pour influencer le comportement idéologique de l'IA. Il stipule que le gouvernement fédéral a l'interdiction d'acquérir « des modèles d'IA qui sacrifient la véracité et l'exactitude au profit d'agendas idéologiques », ce que l'administration Trump appelle « IA woke ». Cette directive pourrait impacter directement des chatbots populaires tels que Gemini de Google et ChatGPT d'OpenAI, car les républicains accusent ces chatbots d'être woke et de censurer les voix conservatrices.

Récemment, Donald Trump a signé un nouveau décret visant à neutraliser les lois étatiques qui limitent l'industrie de l'intelligence artificielle (IA), une victoire pour les entreprises technologiques qui ont fait pression contre la réglementation de cette technologie en plein essor. Ce décret accorde au ministre de la Justice un large pouvoir pour poursuivre les États et abroger les lois qui ne soutiennent pas la « domination mondiale des États-Unis en matière d'IA », mettant ainsi en péril des dizaines de lois sur la sécurité de l'IA et la protection des consommateurs.

À la suite de ce décret, l'Office of Management and Budget (OMB) a publié des directives très attendues qui décrivent comment les agences fédérales doivent s'assurer que les modèles d'intelligence artificielle sont « impartiaux » lorsqu'ils sont achetés et déployés par le gouvernement. La note du directeur de l'OMB, Russell Vought, répond à certaines questions soulevées après que le président Donald Trump ait signé en juillet n décret visant à empêcher l'« IA woke » au sein du gouvernement fédéral.

Ce décret, signé parallèlement à la publication du plan d'action de la Maison Blanche en matière d'IA, stipulait que le gouvernement fédéral avait l'obligation de ne pas acquérir de modèles « qui sacrifiaient la véracité et l'exactitude au profit d'agendas idéologiques ». Le décret ne fournissait pas de détails sur la manière dont les agences devaient évaluer les modèles et chargeait l'OMB de publier des directives.

La nouvelle note de service de sept pages répond à cette directive en décrivant comment les agences doivent aborder les exigences contractuelles pour les nouveaux partenariats, modifier les contrats existants et mettre à jour leurs politiques d'approvisionnement.


En vertu de cette directive, les agences sont tenues, pendant le processus d'approvisionnement, d'obtenir des « informations suffisantes » auprès des fournisseurs d'IA afin de s'assurer que les grands modèles de langage sont conformes aux deux « principes d'IA impartiale » de la Maison Blanche. Ces deux principes, inclus dans le décret, stipulent que l'IA doit être « à la recherche de la vérité », c'est-à-dire fondée sur l'exactitude historique, l'objectivité et la recherche scientifique, et qu'elle doit également faire preuve de « neutralité idéologique » en ne construisant pas de modèles basés sur des convictions partisanes.

L'OMB a reconnu que les produits d'IA sont souvent vendus aux agences par l'intermédiaire de revendeurs gouvernementaux et que les développeurs d'IA devront être disposés à collaborer avec les revendeurs pour le partage d'informations et d'éventuelles « interventions directes sur les produits ».

Il a été demandé aux agences d'éviter de demander des données techniques sensibles, telles que les pondérations spécifiques des modèles, et de ne rechercher que les « informations suffisantes » pour évaluer la gestion des risques. Cela inclut la politique d'utilisation acceptable du fournisseur, ainsi que des informations sur le modèle, le système ou les données qui peuvent se présenter sous la forme de résumés du processus de formation ou de scores d'évaluation du modèle. Les LLM peuvent également fournir des ressources sur les produits ou des guides pour les développeurs, et doivent créer un moyen pour les utilisateurs finaux de donner leur avis.

Dans certains cas, une agence peut également demander d'autres informations pour « améliorer la transparence des LLM », indique la note. Cela comprend des informations sur les activités du fournisseur avant et après la formation, les évaluations des biais des modèles et les modifications apportées par des tiers aux LLM ou à des outils de gouvernance spécifiques. Les agences doivent « identifier explicitement » ces facteurs pour l'éligibilité et la résiliation des contrats, précise la note. Lorsqu'il s'agit d'acquérir d'autres types d'IA générative, les agences sont tenues de suivre les directives de l'OMB afin de « communiquer les exigences en matière de documentation imposées pour l'acquisition ». Si une agence développe elle-même un LLM ou un petit modèle de langage, une documentation similaire est requise, précise l'OMB.

Cette note fait suite aux multiples séances d'écoute organisées cet automne par l'OMB afin de recueillir les avis des acteurs du secteur sur leurs approches en matière de transparence et de gestion des risques liés à l'IA. Ces derniers mois, les chercheurs dans ce domaine se sont interrogés sur la possibilité de prévenir les biais dans l'IA. Un article publié en septembre par l'Institut pour une IA centrée sur l'humain de l'université de Stanford affirme que « la véritable neutralité politique dans l'IA » est « théoriquement et pratiquement impossible ».

D'autres experts en technologie ont suggéré que la directive de Trump était un moyen pour l'administration de contrôler les informations disponibles via les outils d'IA. Matthew Mittelsteadt, chercheur au Cato Institute, a déclaré en juillet que la mesure du biais idéologique était la « plus grande erreur » de la directive et a suggéré qu'elle pourrait avoir des répercussions sur la concurrence étrangère.

« Non seulement l'« objectivité est difficile à définir d'un point de vue philosophique, mais les efforts visant à contenir techniquement les biais perçus n'ont pas encore porté leurs fruits », a-t-il déclaré dans un communiqué. « Si cette politique réussit à façonner les modèles américains, nous perdrons des clients internationaux qui ne voudront pas de modèles façonnés par les caprices d'un gouvernement étranger. »

Cette note de l'OMB intervient dans un contexte où l'administration Trump semble lutter contre la culture Woke. Un exemple, le secrétaire d'État américain Marco Rubio a récemment ordonné aux diplomates de revenir à la police Times New Roman au lieu de Calibri, annulant ainsi un changement introduit sous l'administration Biden. Le prédécesseur de Rubio, Antony Blinken, avait adopté Calibri en 2023, affirmant qu'elle était plus accessible aux personnes souffrant de handicaps visuels.

La décision administrative, fondée à l’origine sur l’accessibilité et la modernisation des documents officiels, devient un emblème de la lutte contre le « wokisme ». En effet, Rubio a déclaré qu'il s'agissait d'une mesure de diversité « inutile » et que Times New Roman était « plus formelle et professionnelle ». Les nouvelles modifications entreront en vigueur le 10 décembre et s'appliqueront aux documents externes et internes. Lucas de Groot, le designer néerlandais qui a créé la police Calibri, a déclaré à que ce changement était à la fois « triste et hilarant ».

Sources : Note de service de l'OMB, Etude de l'université de Stanford

Et vous ?

Pensez-vous que cette note est crédible ou pertinente ?
Quel est votre avis sur le sujet ?

Voir aussi :

Le décret de Trump visant à interdire les lois étatiques sur l'IA centralise le pouvoir réglementaire à Washington pour accélérer l'innovation, mais pourrait priver les citoyens de protections essentielles

L'industrie technologique a tenté de réduire les préjugés omniprésents de l'IA, mais Donald Trump veut maintenant mettre fin à ses efforts en matière d'"IA Woke"

OpenAI lance ChatGPT Gov : cette version de son chatbot spécialement conçue pour les agences gouvernementales américaines, devrait répondre à des exigences strictes en matière de sécurité et confidentialité
Vous avez lu gratuitement 207 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !