
et la possibilité de bloquer ou réduire à distance les fonctionnalités d'une puce IA
Face aux risques potentiels de l’intelligence artificielle (IA), des chercheurs de l’Université de Cambridge ont suggéré d’intégrer des interrupteurs d’arrêt d’urgence et des blocages à distance, similaires à ceux développés pour empêcher le lancement non autorisé d’armes nucléaires, dans le matériel qui l’alimente. Ils ont également recommandé de suivre les ventes de puces IA dans le monde. Leur étude a été soutenue par des voix de nombreuses institutions académiques, dont OpenAI.
L’étude met en évidence plusieurs façons dont les décideurs politiques pourraient aborder la réglementation du matériel IA. Le document, dans lequel s'expriment de nombreuses institutions universitaires et plusieurs représentants d'OpenAI, défend l'idée que la réglementation du matériel sur lequel reposent ces modèles pourrait être le meilleur moyen d'en empêcher l'utilisation abusive.
L'entraînement des modèles les plus prolifiques, dont on pense qu'ils dépassent un trillion de paramètres, nécessite une immense infrastructure physique : des dizaines de milliers de GPU ou d'accélérateurs et des semaines, voire des mois, de temps de traitement. Selon les chercheurs, il est donc difficile de dissimuler l'existence et les performances relatives de ces ressources.
De plus, les puces les plus avancées utilisées pour entraîner ces modèles sont produites par un nombre relativement restreint d'entreprises, comme Nvidia, AMD et Intel, ce qui permet aux responsables politiques de restreindre la vente de ces biens aux personnes ou aux pays concernés.
Ces facteurs, ainsi que d'autres comme les contraintes de la chaîne d'approvisionnement dans la fabrication des semi-conducteurs, offrent aux décideurs politiques les moyens de mieux comprendre comment et où l'infrastructure de l'IA est déployée, qui est autorisé ou non à y accéder, et d'appliquer des sanctions en cas d'utilisation abusive, affirme le document.
La puissance de calcul et la gouvernance de l'intelligence artificielle
Ci-dessous, un extrait du document.
La puissance de calcul, ou "compute", est cruciale pour le développement et le déploiement des capacités d'intelligence artificielle (IA). C'est pourquoi les gouvernements et les entreprises ont commencé à utiliser l'informatique comme moyen de gouverner l'IA. Par exemple, les gouvernements investissent dans la capacité de calcul nationale, contrôlent le flux de calcul vers les pays concurrents et subventionnent l'accès au calcul pour certains secteurs.
Toutefois, ces efforts ne font qu'effleurer la manière dont l'informatique peut être utilisée pour régir le développement et le déploiement de l'IA. Par rapport à d'autres intrants clés de l'IA (données et algorithmes), le calcul informatique pertinent pour l'IA est un point d'intervention particulièrement efficace : il est détectable, excluable et quantifiable, et il est produit par une chaîne d'approvisionnement extrêmement concentrée.
Ces caractéristiques, ainsi que l'importance singulière de l'informatique pour les modèles d'IA de pointe, suggèrent que la gouvernance de l'informatique peut contribuer à la réalisation d'objectifs politiques communs, tels que la garantie de la sécurité et de l'utilisation bénéfique de l'IA. Plus précisément, les décideurs politiques pourraient utiliser l'informatique pour faciliter la visibilité réglementaire de l'IA, allouer des ressources pour promouvoir des résultats bénéfiques et appliquer des restrictions contre le développement et l'utilisation irresponsables ou malveillants de l'IA.
Toutefois, si les politiques et les technologies informatiques ont le potentiel de contribuer à ces domaines, leur degré de préparation à la mise en œuvre varie considérablement.
Certaines idées font actuellement l'objet de projets pilotes, tandis que d'autres sont entravées par la nécessité d'une recherche fondamentale. En outre, les approches naïves ou mal conçues de la gouvernance informatique comportent des risques importants dans des domaines tels que la protection de la vie privée, les impacts économiques et la centralisation du pouvoir. Nous terminons en suggérant des garde-fous pour minimiser ces risques liés à la gouvernance informatique.
Contrôler l'infrastructure : un registre mondial des ventes de puces d'IA
Le document met en évidence de nombreuses façons dont les décideurs politiques pourraient aborder la réglementation du matériel d'IA. Nombre de ces suggestions, notamment celles visant à améliorer la visibilité et à limiter la vente d'accélérateurs d'IA, sont déjà mises en œuvre au niveau national.
L'année dernière, le président américain Joe Biden a présenté un décret visant à identifier les entreprises qui développent de grands modèles d'IA à double usage, ainsi que les fournisseurs d'infrastructures capables de les former. Pour mémoire, le terme "double usage" désigne les technologies qui peuvent servir à la fois à des applications civiles et militaires.
Plus récemment, le ministère américain du commerce a proposé une réglementation qui obligerait les fournisseurs américains de services cloud à mettre en œuvre des politiques plus strictes en matière de « connaissance du client » afin d'empêcher les personnes ou les pays concernés de contourner les restrictions à l'exportation.
Ce type de visibilité est précieux, notent les chercheurs, précisant tout de même que, bien qu'utiles, l'application de ces exigences en matière de rapports risque de porter atteinte à la vie privée des clients et même d'entraîner la fuite de données sensibles.
Entre-temps, sur le front commercial, le ministère du commerce a continué à renforcer les restrictions, limitant les performances des accélérateurs vendus à la Chine. Toutefois, si ces efforts ont permis à des pays comme la Chine de mettre plus difficilement la main sur des puces américaines, ils sont loin d'être parfaits.
Pour remédier à ces limites, les chercheurs ont proposé de mettre en place un registre mondial des ventes de puces d'IA qui permettrait de les suivre tout au long de leur cycle de vie, même après qu'elles ont quitté leur pays d'origine. Selon eux, un tel registre pourrait intégrer un identifiant unique dans chaque puce, ce qui permettrait de lutter contre la contrebande de composants.
Un interrupteur d'arrêt d'urgence
À l'extrémité du spectre, des chercheurs ont suggéré que des interrupteurs d'arrêt soient intégrés dans le silicium pour empêcher leur utilisation dans des applications malveillantes.
Application à distance basée sur le matériel
Dans les situations où les systèmes d'IA présentent des risques catastrophiques, il pourrait être utile pour les régulateurs de vérifier qu'un ensemble de puces d'IA est exploité de manière légitime ou de désactiver leur fonctionnement (ou un sous-ensemble de celui-ci) s'ils enfreignent les règles.
Dans les situations où les systèmes d'IA présentent des risques catastrophiques, il pourrait être utile pour les régulateurs de vérifier qu'un ensemble de puces d'IA est exploité de manière légitime ou de désactiver leur fonctionnement (ou un sous-ensemble de celui-ci) s'ils enfreignent les règles.
Les puces d'IA modifiées pourraient être en mesure de prendre en charge de telles actions, en permettant d'attester à distance auprès d'un régulateur qu'elles fonctionnent de manière légitime, et de cesser de fonctionner si ce n'est pas le cas. L'application à distance au niveau de la puce pourrait s'appuyer sur la technologie cryptographique existante. L'une des applications potentielles de cette technologie consiste à visibilité (a posteriori) des charges de travail, mais elle peut également être utilisée pour l'application automatique de règles
Envisager des contrôles des exportations de puces d'IA. L'utilisation des méthodes traditionnelles d'application entraîne des coûts administratifs élevés et gonfle la portée des contrôles, car ceux-ci doivent se concentrer sur les personnes qui accèdent aux puces, plutôt que sur l'usage qui en est fait. Si des mécanismes d'autorisation à distance sont utilisés, ces contrôles à l'exportation pourraient être "numérisés". Des coprocesseurs
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.