IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Face aux risques potentiels de l'IA, des scientifiques proposent d'intégrer des interrupteurs d'arrêt d'urgence
Et la possibilité de bloquer ou réduire à distance les fonctionnalités d'une puce IA

Le , par Stéphane le calme

1PARTAGES

6  0 
Face aux risques potentiels de l’intelligence artificielle (IA), des chercheurs de l’Université de Cambridge ont suggéré d’intégrer des interrupteurs d’arrêt d’urgence et des blocages à distance, similaires à ceux développés pour empêcher le lancement non autorisé d’armes nucléaires, dans le matériel qui l’alimente. Ils ont également recommandé de suivre les ventes de puces IA dans le monde. Leur étude a été soutenue par des voix de nombreuses institutions académiques, dont OpenAI.

L’étude met en évidence plusieurs façons dont les décideurs politiques pourraient aborder la réglementation du matériel IA. Le document, dans lequel s'expriment de nombreuses institutions universitaires et plusieurs représentants d'OpenAI, défend l'idée que la réglementation du matériel sur lequel reposent ces modèles pourrait être le meilleur moyen d'en empêcher l'utilisation abusive.

L'entraînement des modèles les plus prolifiques, dont on pense qu'ils dépassent un trillion de paramètres, nécessite une immense infrastructure physique : des dizaines de milliers de GPU ou d'accélérateurs et des semaines, voire des mois, de temps de traitement. Selon les chercheurs, il est donc difficile de dissimuler l'existence et les performances relatives de ces ressources.

De plus, les puces les plus avancées utilisées pour entraîner ces modèles sont produites par un nombre relativement restreint d'entreprises, comme Nvidia, AMD et Intel, ce qui permet aux responsables politiques de restreindre la vente de ces biens aux personnes ou aux pays concernés.

Ces facteurs, ainsi que d'autres comme les contraintes de la chaîne d'approvisionnement dans la fabrication des semi-conducteurs, offrent aux décideurs politiques les moyens de mieux comprendre comment et où l'infrastructure de l'IA est déployée, qui est autorisé ou non à y accéder, et d'appliquer des sanctions en cas d'utilisation abusive, affirme le document.


La puissance de calcul et la gouvernance de l'intelligence artificielle

Ci-dessous, un extrait du document.

La puissance de calcul, ou "compute", est cruciale pour le développement et le déploiement des capacités d'intelligence artificielle (IA). C'est pourquoi les gouvernements et les entreprises ont commencé à utiliser l'informatique comme moyen de gouverner l'IA. Par exemple, les gouvernements investissent dans la capacité de calcul nationale, contrôlent le flux de calcul vers les pays concurrents et subventionnent l'accès au calcul pour certains secteurs.

Toutefois, ces efforts ne font qu'effleurer la manière dont l'informatique peut être utilisée pour régir le développement et le déploiement de l'IA. Par rapport à d'autres intrants clés de l'IA (données et algorithmes), le calcul informatique pertinent pour l'IA est un point d'intervention particulièrement efficace : il est détectable, excluable et quantifiable, et il est produit par une chaîne d'approvisionnement extrêmement concentrée.

Ces caractéristiques, ainsi que l'importance singulière de l'informatique pour les modèles d'IA de pointe, suggèrent que la gouvernance de l'informatique peut contribuer à la réalisation d'objectifs politiques communs, tels que la garantie de la sécurité et de l'utilisation bénéfique de l'IA. Plus précisément, les décideurs politiques pourraient utiliser l'informatique pour faciliter la visibilité réglementaire de l'IA, allouer des ressources pour promouvoir des résultats bénéfiques et appliquer des restrictions contre le développement et l'utilisation irresponsables ou malveillants de l'IA.

Toutefois, si les politiques et les technologies informatiques ont le potentiel de contribuer à ces domaines, leur degré de préparation à la mise en œuvre varie considérablement.

Certaines idées font actuellement l'objet de projets pilotes, tandis que d'autres sont entravées par la nécessité d'une recherche fondamentale. En outre, les approches naïves ou mal conçues de la gouvernance informatique comportent des risques importants dans des domaines tels que la protection de la vie privée, les impacts économiques et la centralisation du pouvoir. Nous terminons en suggérant des garde-fous pour minimiser ces risques liés à la gouvernance informatique.


Contrôler l'infrastructure : un registre mondial des ventes de puces d'IA

Le document met en évidence de nombreuses façons dont les décideurs politiques pourraient aborder la réglementation du matériel d'IA. Nombre de ces suggestions, notamment celles visant à améliorer la visibilité et à limiter la vente d'accélérateurs d'IA, sont déjà mises en œuvre au niveau national.

L'année dernière, le président américain Joe Biden a présenté un décret visant à identifier les entreprises qui développent de grands modèles d'IA à double usage, ainsi que les fournisseurs d'infrastructures capables de les former. Pour mémoire, le terme "double usage" désigne les technologies qui peuvent servir à la fois à des applications civiles et militaires.

Plus récemment, le ministère américain du commerce a proposé une réglementation qui obligerait les fournisseurs américains de services cloud à mettre en œuvre des politiques plus strictes en matière de « connaissance du client » afin d'empêcher les personnes ou les pays concernés de contourner les restrictions à l'exportation.

Ce type de visibilité est précieux, notent les chercheurs, précisant tout de même que, bien qu'utiles, l'application de ces exigences en matière de rapports risque de porter atteinte à la vie privée des clients et même d'entraîner la fuite de données sensibles.

Entre-temps, sur le front commercial, le ministère du commerce a continué à renforcer les restrictions, limitant les performances des accélérateurs vendus à la Chine. Toutefois, si ces efforts ont permis à des pays comme la Chine de mettre plus difficilement la main sur des puces américaines, ils sont loin d'être parfaits.

Pour remédier à ces limites, les chercheurs ont proposé de mettre en place un registre mondial des ventes de puces d'IA qui permettrait de les suivre tout au long de leur cycle de vie, même après qu'elles ont quitté leur pays d'origine. Selon eux, un tel registre pourrait intégrer un identifiant unique dans chaque puce, ce qui permettrait de lutter contre la contrebande de composants.


Un interrupteur d'arrêt d'urgence

À l'extrémité du spectre, des chercheurs ont suggéré que des interrupteurs d'arrêt soient intégrés dans le silicium pour empêcher leur utilisation dans des applications malveillantes.

Application à distance basée sur le matériel

Dans les situations où les systèmes d'IA présentent des risques catastrophiques, il pourrait être utile pour les régulateurs de vérifier qu'un ensemble de puces d'IA est exploité de manière légitime ou de désactiver leur fonctionnement (ou un sous-ensemble de celui-ci) s'ils enfreignent les règles.
Ils sembles suggérer que les accélérateurs pourraient s'auto-désactiver ou être désactivés à distance par des autorités :

Les puces d'IA modifiées pourraient être en mesure de prendre en charge de telles actions, en permettant d'attester à distance auprès d'un régulateur qu'elles fonctionnent de manière légitime, et de cesser de fonctionner si ce n'est pas le cas. L'application à distance au niveau de la puce pourrait s'appuyer sur la technologie cryptographique existante. L'une des applications potentielles de cette technologie consiste à visibilité (a posteriori) des charges de travail, mais elle peut également être utilisée pour l'application automatique de règles
Les chercheurs sont plus clairs ailleurs dans leur étude, proposant que la fonctionnalité du processeur puisse être désactivée ou réduite à distance par les régulateurs grâce à l'octroi de licences numériques :

Envisager des contrôles des exportations de puces d'IA. L'utilisation des méthodes traditionnelles d'application entraîne des coûts administratifs élevés et gonfle la portée des contrôles, car ceux-ci doivent se concentrer sur les personnes qui accèdent aux puces, plutôt que sur l'usage qui en est fait. Si des mécanismes d'autorisation à distance sont utilisés, ces contrôles à l'exportation pourraient être "numérisés". Des coprocesseurs spécialisés installés sur la puce pourraient détenir un "certificat" numérique signé par cryptographie, et les mises à jour de la politique relative aux cas d'utilisation pourraient être fournies à distance par le biais de mises à jour du micrologiciel. L'autorisation de la licence sur puce pourrait être renouvelée périodiquement par le régulateur, tandis que le producteur de la puce pourrait l'administrer. Une licence expirée ou illégitime empêcherait la puce de fonctionner, ou de réduire ses performances.
En théorie, cela pourrait permettre aux organismes de surveillance de réagir plus rapidement aux abus de technologies sensibles en coupant l'accès aux puces à distance, mais les auteurs avertissent que cela n'est pas sans risque. En effet, s'il n'est pas mis en œuvre correctement, un tel interrupteur pourrait devenir une cible à exploiter pour les cybercriminels.

Une autre proposition consisterait à demander à plusieurs parties d'approuver des tâches d'entraînement à l'IA potentiellement risquées avant qu'elles puissent être déployées à grande échelle. « Les armes nucléaires utilisent des mécanismes similaires appelés liens d'action permissifs », écrivent-ils.

Dans le cas des armes nucléaires, ces verrous de sécurité sont conçus pour empêcher une seule personne d'agir de manière malhonnête et de lancer une première frappe. Pour l'IA, cependant, l'idée est que si une personne ou une entreprise souhaite entraîner un modèle au-delà d'un certain seuil sur le cloud, elle doit d'abord obtenir l'autorisation de le faire.

Bien qu'il s'agisse d'un outil puissant, les chercheurs observent que cela pourrait se retourner contre eux en empêchant le développement de l'IA souhaitable. L'argument semble être que si l'utilisation d'armes nucléaires a un résultat assez clair, l'IA n'est pas toujours aussi noire et blanche.

Mais si cela vous semble un peu trop dystopique, l'article consacre une section entière à la réaffectation des ressources de l'IA pour l'amélioration de la société dans son ensemble. L'idée est que les décideurs politiques pourraient s'unir pour rendre l'informatique de l'IA plus accessible aux groupes peu susceptibles de l'utiliser à des fins malveillantes, un concept décrit comme « l'allocation ».

Conclusion

Les chercheurs reconnaissent que leurs propositions soulèvent des questions éthiques et juridiques, notamment sur la responsabilité, la souveraineté et la confiance. Ils appellent à un dialogue plus large entre les parties prenantes, y compris les gouvernements, les entreprises, les universités et la société civile, pour élaborer des normes et des principes communs pour le développement et l’utilisation de l’IA. Ils espèrent que leur étude contribuera à sensibiliser et à stimuler le débat sur un sujet crucial pour l’avenir de l’humanité.

Source : rapport des chercheurs

Et vous ?

Que pensez-vous des propositions des chercheurs pour réguler le matériel IA ? Cela vous semble-t-il réalisable ou non ? Pourquoi ?
Quelles sont les propositions qui vous marquent le plus ? Dans quelle mesure ?
Quels sont les avantages et les inconvénients des interrupteurs d’arrêt d’urgence et des blocages à distance pour l’IA ?
Quels sont les risques et les opportunités de la course aux armements dans le domaine de l’IA ?
Comment assurer le respect de la vie privée, de la souveraineté et de la confiance dans le commerce et l’utilisation du matériel IA ?
Quels sont les principes et les normes qui devraient guider le développement et l’application de l’IA ?

Une erreur dans cette actualité ? Signalez-nous-la !