IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Le chercheur en IA Max Tegmark estime qu'il faut mettre un terme aux progrès de l'IA et empêcher la création des AGI
En veillant à ce que l'IA ne devienne qu'un outil et non une superintelligence

Le , par Jade Emy

4PARTAGES

13  0 
Max Tegmark, physicien et chercheur en apprentissage automatique, affirme qu'il faut mettre un terme aux progrès de la technologie de l'IA et ne construire que des IA qui ne soient que des outils et non des intelligences artificielles générales (AGI) ou des superintelligences. Il ajoute qu'il n'y a pas autant de temps que nous le pensions pour réfléchir à tout cela.

Max Tegmark est un physicien suédo-américain, chercheur en apprentissage automatique et auteur. Il est surtout connu pour son livre Life 3.0, qui décrit ce à quoi le monde pourrait ressembler à mesure que l'intelligence artificielle continue de s'améliorer. Tegmark est professeur au Massachusetts Institute of Technology (MIT) et président du Future of Life Institute. Dans son livre, Tegmark soutient que les risques de l'IA ne proviennent pas de la malveillance ou d'un comportement conscient en soi, mais plutôt d'un mauvais alignement des objectifs de l'IA sur ceux des humains.

En effet, l’IA est une avancée technologique majeure qui a le potentiel de transformer les industries, de remodeler les emplois et de stimuler la productivité économique. Cependant, elle n’est pas sans risque. En 2023, pour contrer les effets négatifs de l’IA, Max Tegmark a organisé une lettre ouverte. Cette lettre appelait à une pause de six mois dans les expériences d’IA et a été signée par des milliers de personnalités du secteur technologique, dont Elon Musk et Steve Wozniak, cofondateur d’Apple. Selon Tegmark, le développement incontrôlé de l’IA par quelques entreprises met en péril l’avenir de la société.

Il a souligné que l’IA promet de nombreux avantages incroyables, mais le développement irréfléchi et non contrôlé de systèmes de plus en plus puissants, sans aucune surveillance, met en danger notre économie, notre société et nos vies. Il a appelé à l’urgence de normes de sécurité en matière d’IA pour éviter que cela ne se transforme pas en une course au sommet. La réglementation est essentielle pour garantir la sécurité de l’innovation, afin qu’une poignée d’entreprises spécialisées dans l’IA ne mette pas en péril notre avenir commun.

Dans la ligné de ses propos, récemment, Max Tegmark a affirmé qu'il faut mettre un terme aux progrès de la technologie de l'IA et ne construire que des IA qui ne soient que des outils et non des intelligences artificielles générales (AGI) ou des superintelligences.

Citation Envoyé par Max Tegmark
Utiliser l'IA pour améliorer l'éducation, utiliser l'IA pour guérir le cancer, etc., c'est ce que j'appelle l'IA outil : l'IA que l'on peut, si l'on est sage, fabriquer de manière à ce qu'elle devienne notre outil et que nous n'ayons jamais à nous inquiéter d'en perdre le contrôle.

Il y a aussi, indépendamment de cela, la quête de l'AGI, la superintelligence. En fait, il s'agit de la nouvelle espèce dont Alan Turing nous avait prévenus que nous perdrions le contrôle. Et même s'il semble tout à fait insensé que nous nous précipitions pour la construire, c'est l'objectif commercial déclaré d'OpenAI, de Google DeepMind, d'Anthropic et d'autres entreprises. Vous pouvez lire sur le site web d'Anthropic que leur objectif est de rendre tout travail humain obsolète, en gros. Et nous avons entendu dire que de nombreuses personnes, dont le PDG d'Anthropic, Dario Amodei, pensent que cela se produira dans deux ans.

Nous n'avons donc pas autant de temps que nous le pensions pour réfléchir à tout cela. Pour moi, la solution à tout cela est vraiment très, très évidente et nous saute aux yeux. C'est la même solution que nous, en tant que société, avons adoptée à maintes reprises pour toutes les autres technologies. Nous avons inventé toutes sortes de biotechnologies et nous avons tracé une ligne. Nous avons dit, d'un point de vue moral, la pénicilline c'est bien, les armes biologiques non, le clonage humain non.

Pour toute autre technologie, nous aurons une FDA ou une FAA ou une sorte de normes de sécurité qui devront être respectées avant que la technologie ne soit diffusée dans le monde. C'est le cas pour tous les domaines, à l'exception de l'IA, à l'heure actuelle en Amérique.
Le point de vue de Max Tegmark est intéressant, et il est en général rejoint par les chercheurs en IA. Un chercheur en sécurité de l'IA, le Dr Roman V. Yampolskiy, soutenu par Elon Musk, a averti que l'IA ne peut actuellement être contrôlée en toute sécurité, mettant en garde contre le développement de cette technologie sans preuve de son contrôle. Yampolskiy propose des solutions, notamment classer les IA comme contrôlables ou incontrôlables et envisager des moratoires ou des interdictions partielles. Il souligne l'importance de poursuivre la recherche sur la sécurité de l'IA pour minimiser les risques tout en maximisant les avantages potentiels.

Dans le même ordre d'idée, le PDG d'Arm craint également que les humains ne perdent le contrôle de l'IA. Il met en avant l'importance d'avoir un moyen de neutraliser ou d'arrêter le système. Il souligne la nécessité d'un moyen de neutralisation ou d'arrêt du système. Ces avis confirment que l'AGI pourrait être soit une prospérité sans précédent, soit une catastrophe existentielle, et la prudence et la prévoyance sont nécessaires pour guider nos pas dans ce domaine complexe.

Et vous ?

Pensez-vous que ces déclarations sont crédibles ou pertinentes ?
Quel est votre avis sur le sujet ?

Voir aussi :

Des scientifiques espèrent accélérer le développement de l'AGI avec un réseau de supercalculateurs dont le premier nœud sera bientôt déployé, mais le projet suscite le scepticisme et plusieurs préoccupations

Selon un groupe de chercheurs en IA, les LLM actuels ne mèneront pas à l'AGI, mais les robots dotés d'une IA qui se développent dans le monde 3D pourraient le faire

Le gouvernement US doit agir «rapidement et de manière décisive» pour éviter les risques de sécurité nationale découlant de l'IA qui pourrait provoquer une « extinction à la hauteur de la menace »

Exode chez OpenAI : près de la moitié du personnel chargé de la sécurité de l'AGI a quitté l'entreprise. Sam Altman, qui a réclamé une réglementation de l'IA, s'y oppose lorsqu'elle est implémentée

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Fluxgraveon
Membre habitué https://www.developpez.com
Le 13/11/2024 à 9:16
Ces avis confirment que l'AGI pourrait être soit une prospérité sans précédent, soit une catastrophe existentielle,
N'est-ce pas ce a quoi est confronté l'espèce humaine actuellement ?
Mais en quoi est-ce un choix ?

Ma théorie c'est de la merde
Hmm, ça c'est un peu le problème avec les théories ...
#liminai_colossus:
1  0 
Avatar de floyer
Membre éclairé https://www.developpez.com
Le 13/11/2024 à 13:31
Je ne vois pas comment un ASIC peut aider à la sécurité… ou plutôt, des tâches touchant de près ou de loin à la sécurité (MMU, TPM…) sont déjà intégré dans nos PC. Il faut des ASIC qui ne soient pas complètement contrôlé par nos PC (façon TPM où ll n’y a pas d’interface pour extraire les clés secrètes), mais pour faire quoi ?

Non, la bonne approche est le développement de logiciels sûrs façon seL4. Cela coûte 7 fois le prix (pour une année de développement, 6 pour les éléments de preuve)… en espérant que l’IA change favorablement ce ratio !
1  0 
Avatar de Zeeraptor
Membre régulier https://www.developpez.com
Le 13/11/2024 à 22:55
Un "bitaxe" a 150 euros éclate les meilleurs cartes graphiques pour le bitcoin

Les ASICs peuvent être vus comme des coprocesseurs ultra rapides...

Peut être qu'en cybersécurité ils peuvent avoir un rôle...C'est juste une idée

L' "inline_assembly" n'existe pas pour rien....Les ASICs non plus

Portions critiques du code
0  0 
Avatar de floyer
Membre éclairé https://www.developpez.com
Le 13/11/2024 à 23:36
L'inline_assembly n'existe que pour gagner en vitesse (en supposant que tu optimises mieux que le compilateur), ou pour coder des choses que le langage support ne sait pas gérer (masquage des interruptions (STI/CLI), commutation de tâche, instructions SIMD (SSE)). On ne gagne pas vraiment en sécurité.

Un ASIC sera une réponse pour des choses plus simple que ce que tu gèrerait avec un CPU, mais tu souhaites de la vitesse et ou de l'éfficacité énergétique. Cela va te permettre de créer un parefeu matériel par exemple - c'est une fonction de sécurité. Reste à voir si une implémentation matérielle peut filtrer les mails et PJ (sans compter le problème de mises à jour dès qu'un nouveau type de PJ autorisé doit être supporté).

Mais ce n'est pas parce que c'est une bonne option dans certains cas que cela résout tous les autres problèmes.

Je pense que l'on gagnera probablement plus en sécurité avec la généralisation de logiciel sans débordement de mémoire (Rust, C#, Ada...). Et le Graal ce sont les approches formelles (Spark de AdaCore, autre avec seL4...)
0  0 
Avatar de Zeeraptor
Membre régulier https://www.developpez.com
Le 14/11/2024 à 0:15
En banalisant...encapsuler sans fuite mémoire?

Il faut peut être aussi de la puissance brute pour 'descrambler'
0  0 
Avatar de Zeeraptor
Membre régulier https://www.developpez.com
Le 12/11/2024 à 17:49
Imaginons que l'IA soit un jour capable de programmer des virus en assembleur,pour plusieurs architectures
0  1 
Avatar de Zeeraptor
Membre régulier https://www.developpez.com
Le 12/11/2024 à 18:00
Les systèmes FPGA pourraient nous aider a être plus rapide que L'IA

Des systèmes de securite sur base FPGA...voir ASIC

On peut faire l'analogie avec le trading haute fréquence
0  1 
Avatar de Zeeraptor
Membre régulier https://www.developpez.com
Le 13/11/2024 à 1:50
Première ligne de défense : ASIC

2 : FPGA

3 : Microprocesseur

4 :Si watchdog microprocesseur = 1 , étape 5

5 : broyer le réseau comme un fusible pour éviter que le virus ne s’étende

Ma théorie c'est de la merde
0  1