L'intelligence artificielle (IA) est désormais au cœur des enjeux géopolitiques et économiques mondiaux. Face aux risques qu’elle engendre (désinformation, biais algorithmiques, automatisation des armes, surveillance de masse), de nombreux pays cherchent à établir des cadres de régulation internationaux.
D'ailleurs, Paris explique :
« Le développement rapide des technologies de l’IA entraîne un changement de paradigme majeur avec des conséquences diverses pour nos concitoyens et nos sociétés. Dans le prolongement du Pacte de Paris pour les peuples et la planète et du principe selon lequel les pays doivent concevoir eux-mêmes leurs stratégies en matière de transition, nous avons recensé les priorités et lancé des actions concrètes pour servir l’intérêt général et combler la fracture numérique en accélérant la réalisation des objectifs de développement durable ».
Pourtant, les États-Unis et le Royaume-Uni ont récemment refusé de signer une déclaration internationale visant à encadrer le développement et l’usage de l’IA, une décision qui soulève de nombreuses interrogations.
Un refus aux justifications floues
Dans une brève déclaration, le gouvernement britannique a indiqué qu'il n'avait pas été en mesure d'ajouter son nom à la déclaration en raison de préoccupations liées à la sécurité nationale et à la « gouvernance mondiale ».
Auparavant, le vice-président américain JD Vance avait déclaré aux délégués réunis à Paris qu'une réglementation trop stricte de l'intelligence artificielle (IA) pourrait « tuer une industrie transformatrice au moment même où elle prend son essor ». Vance a déclaré aux dirigeants mondiaux que l'IA était « une opportunité que l'administration Trump ne gaspillera pas » et a déclaré que les « politiques d'IA favorables à la croissance » devraient être prioritaires par rapport à la sécurité.
Ses commentaires semblent le mettre en porte-à-faux avec le président français Emmanuel Macron, qui a défendu la nécessité d'une réglementation plus poussée. « Nous avons besoin de ces règles pour que l'IA progresse », a déclaré Macron lors du sommet.
Le Royaume-Uni a déjà défendu l'idée de la sécurité de l'IA, le premier ministre de l'époque, Rishi Sunak, ayant organisé le premier sommet mondial sur la sécurité de l'IA en novembre 2023.
Andrew Dudfield, responsable de l'IA au sein de l'organisation de vérification des faits Full Fact, a déclaré que la décision du gouvernement de ne pas signer le communiqué de Paris mettait cela en péril : « En refusant de signer la déclaration d'action internationale sur l'IA adoptée aujourd'hui, le gouvernement britannique risque d'entamer sa crédibilité durement acquise en tant que leader mondial de l'innovation en matière d'IA sûre, éthique et digne de confiance », a-t-il déclaré.
Toutefois, l'UKAI, un organisme professionnel représentant les entreprises du secteur dans tout le pays, a déclaré que c'était la bonne décision.
« Si l'UKAI reconnaît qu'il est important d'être respectueux de l'environnement, nous nous demandons comment trouver un équilibre entre cette responsabilité et les besoins croissants de l'industrie de l'IA en matière d'énergie », a déclaré son directeur général, Tim Flagg. « L'UKAI accueille avec prudence le refus du gouvernement de signer cette déclaration comme une indication qu'il explorera les solutions plus pragmatiques que l'UKAI a appelées de ses vœux - en conservant les possibilités de travailler en étroite collaboration avec nos partenaires américains », a-t-il ajouté.
L’argument officiel mis en avant par Londres et Washington est la crainte que des réglementations trop strictes ne freinent l’innovation et la compétitivité des entreprises technologiques. Cette position semble toutefois contradictoire avec les discours tenus par ces mêmes gouvernements lors de sommets internationaux, où ils insistent sur la nécessité de contrôler les dérives potentielles de l’IA.
Une posture qui sert les intérêts nationaux ?
Ce refus s’inscrit dans une tendance plus large : les États-Unis et le Royaume-Uni, qui font partis des leaders dans le domaine de l’IA, cherchent à imposer leurs propres normes plutôt que de se soumettre à des accords multilatéraux. Cette stratégie rappelle les tensions sur la régulation du numérique, où les géants américains de la tech ont souvent résisté aux tentatives d’encadrement, notamment par l’Union européenne.
En évitant de s’engager dans un cadre international, ces pays conservent une marge de manœuvre qui leur permet de privilégier leurs propres intérêts économiques et sécuritaires. La protection des industries locales et la domination technologique semblent ainsi primer sur les considérations éthiques et humanitaires.
« L'administration Trump veillera à ce que les systèmes d'IA les plus puissants soient construits aux États-Unis, avec des puces conçues et fabriquées aux États-Unis », a déclaré Vance devant un parterre de dirigeants mondiaux et de cadres du secteur de la technologie lors du sommet. « L'Amérique veut s'associer avec vous tous... mais pour créer ce type de confiance, nous avons besoin de régimes réglementaires internationaux qui favorisent la création de la technologie de l'IA plutôt que de l'étrangler. »
La déclaration du sommet appelle à « veiller à ce que l'IA soit ouverte, inclusive, transparente, éthique, sûre et digne de confiance, en tenant compte des cadres internationaux pour tous ».
Bien que les engagements ne soient pas contraignants, les États-Unis et le Royaume-Uni avaient signé des déclarations similaires lors des précédentes éditions du sommet sur l'IA.
Outre les objections de la nouvelle administration américaine, « America First », à l'égard du communiqué, une personne proche du gouvernement britannique a suggéré que la formulation était « trop restrictive ».
Le durcissement de la position américaine intervient alors que la concurrence avec la Chine s'intensifie sur les développements autour de l'IA : la fabrication de puces, les modèles dits fondateurs et les chatbots d'IA, ainsi que l'énergie nécessaire pour alimenter les supercalculateurs.
L'arrivée récente d'un nouveau modèle d'IA à prix réduit de DeepSeek, un laboratoire de recherche chinois peu connu, a choqué les groupes de la Silicon Valley tels qu'OpenAI, qui pensaient détenir un avantage considérable.
L'Europe veut éviter de devenir trop dépendante des États-Unis ou de la Chine
Dans le même temps, l'Europe cherche à s'imposer dans le secteur de l'IA pour éviter de devenir trop dépendante des États-Unis ou de la Chine. Lors du sommet de deux jours organisé par le président français Emmanuel Macron, les dirigeants et les entreprises européens ont dévoilé environ 200 milliards d'euros d'investissements prévus dans des centres de données et des clusters informatiques pour soutenir les efforts de la région en matière d'IA.
Mardi, Vance a déclaré aux dirigeants réunis que les États-Unis ne renonceraient pas à leur avance en matière d'IA, tout en mettant en garde les pays contre la signature d'accords sur l'IA avec des « régimes autoritaires », dans une allusion à peine voilée à la Chine.
S'associer avec eux signifie enchaîner votre nation à un maître autoritaire qui cherche à s'infiltrer, à creuser et à s'emparer de votre infrastructure d'information« , a déclaré Vance, en faisant référence à la télévision en circuit fermé et à la 5G comme exemples précédents où « une technologie bon marché [...] a été fortement subventionnée et exportée par des régimes autoritaires ».
Parmi les priorités énoncées dans la déclaration commune signée par des pays tels que la Chine, l'Inde et l'Allemagne, figure le « renforcement de la coopération internationale afin de promouvoir la coordination de la gouvernance internationale ».
Cette formulation a rebuté les États-Unis, qui n'étaient pas d'accord sur la terminologie relative au multilatéralisme et à la collaboration internationale, a déclaré un fonctionnaire de l'un des pays signataires du document.
Les États-Unis craignaient également que Current AI, la fondation lancée par la France lors du sommet, ne soit utilisée pour acheminer de l'argent vers les pays francophones, a déclaré le fonctionnaire.
Le discours de Vance était « un virage à 180 degrés par rapport à ce que nous avons vu avec l'administration Biden », a déclaré Keegan McBride, conférencier à l'Oxford Internet Institute, qui étudie la géopolitique de l'IA.
Le sommet de Macron a été l'occasion de proposer des alternatives à l'effort de développement des technologies d'IA mené par les États-Unis. Après le lancement des puissants modèles ouverts de DeepSeek, les Européens ont eu l'impression d'avoir une chance éphémère d'être compétitifs dans le domaine de l'IA, a déclaré Frederike Kaltheuner, responsable de la gouvernance mondiale et de l'UE à l'AI Now Institute, un institut de recherche sur l'IA.
« Vance a tout simplement versé de l'eau sur le feu. Il s'est dit : "Oui, c'est mignon. Mais devinez quoi ? Vous savez que ce n'est pas vous qui décidez ici. C'est nous" », a déclaré McBride.
Les conséquences d’un tel refus
Le refus du Royaume-Uni et des États-Unis affaiblit considérablement les efforts de coopération internationale sur l’IA. Sans l’engagement des principales puissances technologiques, la déclaration perd une grande partie de sa portée. D’autres pays pourraient être tentés d’adopter une approche unilatérale, conduisant à une fragmentation des régulations et à des déséquilibres dans l’adoption des standards de sécurité.
Par ailleurs, cette décision pourrait nuire à la crédibilité de ces nations lorsqu’elles plaident pour des garde-fous sur des sujets connexes, comme la cybersécurité ou la lutte contre les deepfakes. Leur refus d’adhérer à une initiative collective pourrait être perçu comme une forme d’hypocrisie politique.
Alors que la Chine et l’Union européenne avancent sur leurs propres régulations, le choix du Royaume-Uni et des États-Unis illustre la bataille pour le leadership sur l’IA. La question demeure : ces pays parviendront-ils à imposer leurs propres règles sans coordination internationale, ou devront-ils inévitablement revenir à la table des négociations ?
Source : communiqué de l’Élysée
Et vous ?
Peut-on vraiment espérer une régulation efficace de l’IA sans l’implication des grandes puissances technologiques ?
Le refus du Royaume-Uni et des États-Unis traduit-il une méfiance envers les instances internationales ou simplement une volonté de préserver leur souveraineté technologique ?
Quelles seraient les conséquences d’une régulation fragmentée de l’IA entre différentes régions du monde (UE, Chine, USA) ?
Le respect d’une réglementation internationale freinerait-il réellement l’innovation ou favoriserait-il au contraire une IA plus sûre et durable ?
Les entreprises technologiques doivent-elles être soumises à des règles communes ou chaque pays devrait-il définir ses propres standards ?