IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Connor Leahy, expert en sécurité de l'IA, demande à la Chambre des Lords de plafonner la puissance de calcul
Pour prévenir la création d'une IA qui menacerait la survie de l'espèce humaine

Le , par Mathis Lucas

0PARTAGES

3  0 
Connor Leahy, expert en IA et PDG de la startup d'IA Conjecture, a fait des propositions qualifiées de surprenantes pour prévenir la menace existentielle que l'IA fait planer sur l'humanité. L'une de ses recommandations politiques consiste à plafonner la puissance de calcul à laquelle les entreprises et les startups d'IA peuvent avoir accès pour créer et entraîner des systèmes d'IA. Il explique que cela devrait empêcher la naissance d'un système d'IA de type Skynet qui pourrait échapper au contrôle de ses créateurs et menacer la survie de l'humanité. Cependant, sa proposition est controversée, certains l'accusant de vouloir nuire à l'innovation et consolider la position des grandes entreprises d'IA.

Dans un post sur X.com la semaine dernière, Leahy a déclaré avoir récemment été invité à la Chambre des Lords du Royaume-Uni pour discuter de la question. Leahy fait partie de ceux-là qui pensent que l'IA représente une menace existentielle pour l'humanité et que l'apparition d'une intelligence générale artificielle (IGA) pourrait signifier la fin de l'histoire humaine. D'autres PDG influents de la sphère technologique - dont Sam Altman d'OpenAI, Mustafa Suleyman d'InflectionAI, qui développent les systèmes d'IA les plus perfectionnés - se disent également préoccupés par les progrès rapides dans le domaine de l'IA. Ils appellent à une réglementation stricte.

« J'ai eu beaucoup de plaisir à m'adresser à la Chambre des Lords au sujet du risque d'extinction lié à l'IA. Ils ont été attentifs et ont établi des parallèles entre notre situation actuelle et les efforts de non-prolifération nucléaire déployés pendant la guerre froide. Cela m'a certainement donné matière à réflexion et à espoir », a écrit Leahy dans un long message sur X.com. Bien que Leahy, cofondateur et PDG de la startup d'IA Conjecture, appartienne au même bord que les dirigeants susmentionnés, ses propos semblent beaucoup plus alarmants et ses propositions à la Chambre des Lords vont bien au-delà d'une simple réglementation. Leahy a notamment écrit :

« L'IA est en phase exponentielle, les choses évoluent très, très rapidement. Comme nous l'avons appris avec la Covid, il n'y a que deux moments pour réagir dans une exponentielle : trop tôt ou trop tard. Je pense qu'il devrait y avoir un moratoire complet sur le développement de l'IA utilisant des niveaux de puissance de calcul sans précédent. Chaque fois que l'on teste une nouvelle IA, on ne sait pas ce qui va surgir de l'autre côté. Un jour, ce sera la roulette russe, et si vous vous retrouvez à jouer à la roulette russe, j'ai une recommandation à vous faire : arrêtez. Mais les entreprises de l'IGA ne s'arrêtent pas. Et c'est là que le gouvernement entre en jeu ».



Leahy a déclaré que ses collaborateurs et lui se tiennent prêts à collaborer avec la Chambre des Lords du Royaume-Uni pour élaborer un cadre idéal au développement de l'IA et qui éliminerait les risques existentiels pour l'humanité. Lorsque l'auditoire lui a demandé à quoi ressembleraient exactement ses recommandations pour faire face aux risques de l'IA, Leahy a répondu en énumérant les points suivants :

  1. responsabilité des développeurs et des utilisateurs : responsabilité stricte pour les dommages causés par les systèmes d'IA qui s'applique non seulement à l'utilisateur, mais aussi au développeur. Si vous développez un système de clonage de la voix et qu'il est utilisé par des criminels pour commettre des délits, vous devriez également être responsable ;
  2. plafonnement de la puissance de calcul : les entreprises ne peuvent pas dépasser une quantité prédéterminée de puissance de calcul lorsqu'elles entraînent leurs IA. Plus la puissance de calcul utilisée pour alimenter ces systèmes d'IA est importante, plus ils deviennent performants et dangereux. Nous recommandons de fixer ce plafond à un yottaFLOPS (1024 FLOP, soit environ la taille de ChatGPT) ;
  3. un "Kill Switch" mondial pour l'IA: cette proposition vise la mise en place d'un cadre où les gouvernements construisent l'infrastructure pour pouvoir arrêter les déploiements de systèmes d'IA puissants et les entraînements si nécessaire, et la testent régulièrement avec des scénarios critiques.


Les propositions de Leahy ont été vivement critiquées dans la communauté. Il est accusé de vouloir nuire à l'innovation et à la concurrence, mais également de vouloir restreindre l'accès à certains types de composants informatiques. « Ce type veut littéralement rendre illégale la possession d'une GPU de jeu. Qu'est-ce que c'est que ce cirque ? Il avait l'air raisonnable jusqu'à il y a environ six mois, maintenant il a juste l'air complètement fou », a écrit un critique. D'autres affirment que l'idée selon laquelle la responsabilité des développeurs sera engagée si leurs systèmes d'IA sont utilisés à mauvais escient est une "erreur" qu'il ne faut surtout pas commettre.

« C'est une erreur monumentale. Et je suis pour une réglementation aussi stricte que possible. C'est comme si quelqu'un s’était tué avec un couteau et que la justice affirme que l'entreprise qui a fabriqué le couteau a une part de responsabilité dans l'affaire. Un tel jugement est un non-sens complet et personne n'aurait plus rien inventé depuis fort longtemps », peut-on lire dans les commentaires. Un autre critique a écrit : « des normes absurdes. Nous devons faire honte à l'homme des cavernes qui a découvert le feu pour tout le mal qu'il a fait. Ces propositions relèvent plus des travaux d'un gourou que d'un soi-disant expert en IA ».

« Pour paraphraser, nous devrions laisser d'autres pays, comme la Russie et la Chine, dominer ce qui deviendra la technologie la plus importante de notre époque et peut-être même la plus importante de tous les temps. Si vous n'aimez pas la vitesse à laquelle tout le monde court, le fait de vous ralentir signifie que vous perdez, cela ne ralentit pas la course. La dangerosité de ses propositions réside dans le fait que cela donne du zèle à des législateurs qui ne comprennent rien à la technologie dont ils parlent. Dans ces conditions, nous verrons bientôt des "crédits de calcul", à l'instar des crédits de carbone de l'escroquerie verte », a écrit un critique.

Par ailleurs, l'on considère que la limitation de la puissance de calcul proposée par Leahy est un problème qui pourrait se résoudre tout seul à long terme. Des initiatives ont révélé que des petits modèles de langages peuvent afficher des performances qui égalent parfois celles des grands modèles de langage. Selon certains rapports, les petits modèles peuvent donner de bons résultats s'ils sont entraînés à l'aide de données provenant de grands modèles. Selon certains critiques, une fois que nous aurons de grands modèles, libres ou non, il sera beaucoup moins coûteux de faire de la recherche et de ne pas avoir besoin d'autant de puissance de calculs.

« Ils ne sont pas du tout bien intentionnés. Comme Altman, il veut créer des obstacles réglementaires trop importants pour les nouveaux venus. Si les dispositions de Leahy sont adoptées, en particulier le partage de la responsabilité entre le développeur de l'IA et les criminels qui utilisent l'IA à des fins criminelles, le Royaume-Uni sera tout simplement exclu de la course à la technologie. Les entreprises qui souhaitent utiliser l'IA iront tout simplement voir ailleurs, et un autre pays reprendra la technologie. Cela ne contribuera pas du tout à limiter l'IA à l'échelle mondiale, mais cela contribuera grandement à limiter l'économie », a écrit un critique.

En ce qui concerne l'interrupteur d'arrêt d'urgence, Leahy a déclaré : « le problème fondamental de l'IGA n'est pas qu'elle soit maléfique ou qu'elle présente un aspect spécifiquement dangereux qu'il faut éliminer. C'est le fait qu'elle soit compétente. Si vous ne pouvez pas contrôler une IA compétente, de niveau humain, alors elle est par définition dangereuse ». Altman a proposé de créer un organisme international chargé de contrôler les projets d'IA à l'instar de l'Agence internationale de l'énergie atomique qui régit l'énergie nucléaire. Cette nouvelle entité serait chargée d'évaluer et de restreindre tout effort d'IA au-delà d'une certaine capacité.

Les législateurs britanniques craignent que la prochaine itération des modèles d'IA, en dessous du niveau de l'IGA, puisse être manipulée par des acteurs malhonnêtes pour produire des menaces sérieuses telles que des armes biologiques. L'IA open source, où les modèles qui sous-tendent la technologie sont librement accessibles et modifiables, est une préoccupation connexe. Ils affirment qu'ils travaillent également à la lutte contre les risques à plus court terme, tels que la désinformation et les violations des droits d'auteur. Mais des critiques, comme Yann LeCun, responsable de l'IA chez Meta, estiment que la clameur autour de l'IA est exagérée.

Selon l'un de ces contre-arguments, le bruit est un stratagème cynique pour réglementer et cloisonner le marché et consolider la position des grands acteurs comme le développeur OpenAI de ChatGPT, Google et Microsoft. D'autres affirment que le fait de se concentrer sur les risques existentiels ne tient pas compte des conséquences immédiates des systèmes d'IA, comme l'utilisation sans autorisation des œuvres protégées par le droit d'auteur pour construire des modèles d'IA et le recours à des travailleurs faiblement rémunérés pour effectuer certaines des tâches de construction des modèles. Selon eux, ces problèmes sont plus urgents à régler.

Source : Connor Leahy

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous des propositions de Connor Leahy ?
Ses propositions permettront de résoudre les problèmes qu'il évoque ?
Sont-elles réalistes ? Que pensez-vous des critiques à l'égard des propositions ?
Quels pourraient être les impacts des propositions de Leahy sur l'IA si elles étaient adoptées ?
Que pensez-vous des appels à la mise en place d'un moratoire dans le développement de l'IA ?
Quelle en serait l'utilité ? Pensez-vous que l'IA ou l'IGA représente une menace existentielle pour l'humanité ?
Faut-il réglementer l'IA ? Si oui, quelles pourraient être les dispositions importantes de cette réglementation ?

Voir aussi

Elon Musk et un groupe d'experts en IA demandent à tous les laboratoires d'IA d'interrompre la formation de systèmes d'IA plus puissants que le GPT-4, citant des risques pour la société

Le PDG d'OpenAI, Sam Altman, déclare au Congrès américain qu'il craint que l'IA ne soit "nuisible" au monde, il ajoute qu'une réglementation de l'IA est urgente afin d'éviter une catastrophe

Le responsable de l'IA chez Meta affirme que l'intelligence artificielle n'est pas encore aussi intelligente qu'un chien et rejette l'idée selon laquelle les robots allaient s'emparer du monde

Une erreur dans cette actualité ? Signalez-nous-la !