IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Face aux risques potentiels de l'IA, des scientifiques proposent d'intégrer des interrupteurs d'arrêt d'urgence
Et la possibilité de bloquer ou réduire à distance les fonctionnalités d'une puce IA

Le , par Stéphane le calme

113PARTAGES

6  0 
Face aux risques potentiels de l’intelligence artificielle (IA), des chercheurs de l’Université de Cambridge ont suggéré d’intégrer des interrupteurs d’arrêt d’urgence et des blocages à distance, similaires à ceux développés pour empêcher le lancement non autorisé d’armes nucléaires, dans le matériel qui l’alimente. Ils ont également recommandé de suivre les ventes de puces IA dans le monde. Leur étude a été soutenue par des voix de nombreuses institutions académiques, dont OpenAI.

L’étude met en évidence plusieurs façons dont les décideurs politiques pourraient aborder la réglementation du matériel IA. Le document, dans lequel s'expriment de nombreuses institutions universitaires et plusieurs représentants d'OpenAI, défend l'idée que la réglementation du matériel sur lequel reposent ces modèles pourrait être le meilleur moyen d'en empêcher l'utilisation abusive.

L'entraînement des modèles les plus prolifiques, dont on pense qu'ils dépassent un trillion de paramètres, nécessite une immense infrastructure physique : des dizaines de milliers de GPU ou d'accélérateurs et des semaines, voire des mois, de temps de traitement. Selon les chercheurs, il est donc difficile de dissimuler l'existence et les performances relatives de ces ressources.

De plus, les puces les plus avancées utilisées pour entraîner ces modèles sont produites par un nombre relativement restreint d'entreprises, comme Nvidia, AMD et Intel, ce qui permet aux responsables politiques de restreindre la vente de ces biens aux personnes ou aux pays concernés.

Ces facteurs, ainsi que d'autres comme les contraintes de la chaîne d'approvisionnement dans la fabrication des semi-conducteurs, offrent aux décideurs politiques les moyens de mieux comprendre comment et où l'infrastructure de l'IA est déployée, qui est autorisé ou non à y accéder, et d'appliquer des sanctions en cas d'utilisation abusive, affirme le document.


La puissance de calcul et la gouvernance de l'intelligence artificielle

Ci-dessous, un extrait du document.

La puissance de calcul, ou "compute", est cruciale pour le développement et le déploiement des capacités d'intelligence artificielle (IA). C'est pourquoi les gouvernements et les entreprises ont commencé à utiliser l'informatique comme moyen de gouverner l'IA. Par exemple, les gouvernements investissent dans la capacité de calcul nationale, contrôlent le flux de calcul vers les pays concurrents et subventionnent l'accès au calcul pour certains secteurs.

Toutefois, ces efforts ne font qu'effleurer la manière dont l'informatique peut être utilisée pour régir le développement et le déploiement de l'IA. Par rapport à d'autres intrants clés de l'IA (données et algorithmes), le calcul informatique pertinent pour l'IA est un point d'intervention particulièrement efficace : il est détectable, excluable et quantifiable, et il est produit par une chaîne d'approvisionnement extrêmement concentrée.

Ces caractéristiques, ainsi que l'importance singulière de l'informatique pour les modèles d'IA de pointe, suggèrent que la gouvernance de l'informatique peut contribuer à la réalisation d'objectifs politiques communs, tels que la garantie de la sécurité et de l'utilisation bénéfique de l'IA. Plus précisément, les décideurs politiques pourraient utiliser l'informatique pour faciliter la visibilité réglementaire de l'IA, allouer des ressources pour promouvoir des résultats bénéfiques et appliquer des restrictions contre le développement et l'utilisation irresponsables ou malveillants de l'IA.

Toutefois, si les politiques et les technologies informatiques ont le potentiel de contribuer à ces domaines, leur degré de préparation à la mise en œuvre varie considérablement.

Certaines idées font actuellement l'objet de projets pilotes, tandis que d'autres sont entravées par la nécessité d'une recherche fondamentale. En outre, les approches naïves ou mal conçues de la gouvernance informatique comportent des risques importants dans des domaines tels que la protection de la vie privée, les impacts économiques et la centralisation du pouvoir. Nous terminons en suggérant des garde-fous pour minimiser ces risques liés à la gouvernance informatique.


Contrôler l'infrastructure : un registre mondial des ventes de puces d'IA

Le document met en évidence de nombreuses façons dont les décideurs politiques pourraient aborder la réglementation du matériel d'IA. Nombre de ces suggestions, notamment celles visant à améliorer la visibilité et à limiter la vente d'accélérateurs d'IA, sont déjà mises en œuvre au niveau national.

L'année dernière, le président américain Joe Biden a présenté un décret visant à identifier les entreprises qui développent de...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !