La Maison-Blanche a publié le 20 mars 2026 son cadre législatif national sur l'intelligence artificielle, un document de quatre pages qui entend fixer les règles du jeu pour les années à venir en effaçant celles que les États avaient commencé à construire. Derrière les six objectifs affichés se dessine une logique claire : laisser les mains libres à l'industrie, bloquer toute tentative de régulation décentralisée, et confier à la course technologique avec la Chine le soin de légitimer l'absence de garde-fous.Tout commence avec un décret exécutif signé par Donald Trump en décembre 2025, qui interdisait aux États fédérés de faire appliquer leurs propres réglementations en matière d'intelligence artificielle. Ce décret chargeait Michael Kratsios, conseiller scientifique de la présidence et directeur du bureau de la politique scientifique et technologique, ainsi que David Sacks, conseiller spécial pour l'IA et les cryptomonnaies, d'élaborer un cadre national. C'est ce texte qui a été rendu public le 20 mars 2026.
Le document se présente comme une feuille de route à l'attention du Congrès, articulée autour de sept grandes thématiques : la protection des mineurs, les effets de l'IA sur les communautés et les infrastructures énergétiques, la propriété intellectuelle, la censure gouvernementale, la gouvernance par organismes sectoriels, le développement des compétences, et enfin, point central, la primauté de la loi fédérale sur les réglementations des États.
Michael Kratsios a résumé l'ambition du texte dans un communiqué : ce cadre doit « libérer l'ingéniosité américaine pour remporter la course mondiale à l'IA, générant des percées qui créent des emplois, réduisent les coûts et améliorent la vie des Américains ». Une rhétorique de la compétition nationale qui reviendra comme un leitmotiv tout au long du document.
La préemption des lois étatiques : le cœur du réacteur
C'est sans doute l'aspect le plus structurant et le plus controversé du texte. La Maison-Blanche affirme que les États « ne devraient pas être autorisés à réguler le développement de l'IA, car il s'agit d'un phénomène intrinsèquement interétatique ayant des implications en matière de politique étrangère et de sécurité nationale ».
En pratique, cela signifie que les lois étatiques régissant la manière dont les modèles d'IA sont développés seraient invalidées. Les États ne pourraient pas imposer de contraintes sur l'utilisation de l'IA pour des activités qui seraient licites sans IA, ni tenir les développeurs responsables de l'utilisation abusive que des tiers font de leurs modèles. Le cadre prévoit néanmoins des exceptions : les États conserveraient leur compétence en matière de protection des mineurs, de lutte contre la fraude, de protection des consommateurs, de zonage des centres de données et d'achats publics d'IA.
Mais la frontière entre « développement de l'IA » (préempté) et « protection générale des consommateurs » (préservée) sera, selon les analystes juridiques du cabinet Nelson Mullins, « le combat central si ce texte devient loi ». Un flou qui n'est pas anodin : il laisse une marge d'interprétation considérable aux tribunaux fédéraux, que l'administration Trump contrôle davantage que les législatures des États démocrates.
Ce n'est d'ailleurs pas la première tentative. Le Congrès a déjà rejeté la préemption à deux reprises : une fois dans le cadre du One Big Beautiful Bill Act, supprimée par un vote sénatorial à 99 voix contre 1, et une fois dans la loi d'autorisation de la défense pour l'exercice 2026. En mars 2026, cinquante élus républicains avaient signé une lettre à l'administration qualifiant la réglementation étatique « d'effort pour empêcher l'adoption de mesures tenant l'industrie technologique responsable ». La résistance vient donc aussi de l'intérieur du camp présidentiel.
Six à sept objectifs, une seule logique
Au-delà de la préemption, le cadre aborde plusieurs autres chantiers.
Sur la protection des mineurs, la Maison-Blanche demande au Congrès de doter les parents d'outils plus robustes pour gérer la présence numérique de leurs enfants, et de créer des exigences de vérification d'âge respectueuses de la vie privée. Le texte invite le Congrès à s'appuyer sur des initiatives déjà engagées, comme le Take It Down Act du sénateur Ted Cruz, qui a criminalisé la diffusion de vidéos intimes non consenties générées par IA.
Sur les infrastructures énergétiques, le cadre appelle à simplifier les procédures d'autorisation pour les centres de données afin qu'ils puissent produire leur propre énergie sur site, une priorité pour une industrie dont la consommation électrique explose.
Sur la propriété intellectuelle, la position de l'administration est habile dans sa prudence calculée. Le texte indique que « l'administration estime que l'entraînement des modèles d'IA sur des œuvres protégées par le droit d'auteur ne viole pas la législation sur le droit d'auteur », mais reconnaît que des arguments contraires existent et préfère laisser les tribunaux trancher cette question. En d'autres termes : le gouvernement prend position...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.