
En opposition à d’autres d’avis que cette perspective relève de l’illusion
De nombreux chercheurs en intelligence artificielle considèrent que le développement futur d'une IA super intelligence a un risque non négligeable de provoquer l'extinction de l'humanité. Dans les chiffres, près de 58 % des chercheurs sont d’avis qu’il y a 5 % de chances que cette perspective se réalise. Néanmoins, les mêmes données soulignent le fait qu’une bonne partie des intervenants de cette filière est en désaccord avec la perspective que l’IA provoque l’extinction de l’homme.
Ces résultats proviennent d'une enquête menée auprès de 2700 chercheurs en IA qui ont récemment publié des travaux dans le cadre de six des principales conférences sur l'IA. Le sondage demandait aux participants de faire part de leurs réflexions sur les échéances possibles des futures étapes technologiques de l'IA, ainsi que sur les conséquences sociétales, bonnes ou mauvaises, de ces réalisations.
Par rapport aux réponses de la version 2022 de la même enquête, de nombreux chercheurs en intelligence artificielle ont prédit que l'IA atteindrait certaines étapes plus tôt que prévu. Les chercheurs interrogés prédisent qu'au cours de la prochaine décennie, les systèmes d'IA auront au moins 50 % de chances de réussir la plupart des 39 échantillons de tâches listés dans l’enquête : écriture de nouvelles chansons, codage d'un site complet de traitement des paiements à partir de zéro, etc. D'autres tâches, telles que l'installation physique du câblage électrique dans une nouvelle maison ou la résolution de mystères mathématiques de longue date, devraient prendre plus de temps.
Le développement possible d'une intelligence artificielle capable de surpasser les humains dans toutes les tâches a 50 % de chances de se produire d'ici 2047, tandis que la possibilité que tous les emplois humains deviennent entièrement automatisables a 50 % de chances de se produire d'ici 2116. Ces estimations sont en avance de 13 ans et de 48 ans par rapport à celles de l'enquête de l'année dernière.
Il existe en sus des inquiétudes plus immédiates non liées à l’éventualité de l’atteinte du stade d'IA super intelligente. Une grande majorité de chercheurs en IA - 70 % ou plus - ont qualifié de très préoccupants ou d'extrêmement préoccupants les scénarios alimentés par l'IA impliquant des deepfakes, la manipulation de l'opinion publique, des armes artificielles, le contrôle autoritaire des populations et l'aggravation de l'inégalité économique. L’enquête met en sus en avant les dangers de l'IA qui contribue à la désinformation sur des questions existentielles telles que le changement climatique ou la détérioration de la gouvernance démocratique.
Le responsable de l’intelligence artificielle de Meta rejette l’idée que l’intelligence artificielle va s’emparer du monde
Yann LeCun, responsable scientifique au sein de la division dédiée à l'IA chez Meta, a eu l'occasion de revenir sur le débat brulant sur les dangers potentiels de l'IA. Lors de l'interview, LeCun n'a pas adopté une position alarmiste de la vision future de l'IA. Contrairement à d'autres PDG et acteurs influents du domaine de l'IA qui pensent que l'IA représente un danger existentiel pour l'humanité, LeCun pense que l'IA n'est pas du tout intelligente, ce qui en fait une technologie totalement inoffensive. Le chercheur a affirmé que le niveau d'intelligence de l'IA se situe probablement en dessous de celui d'un chien.
En effet, interrogé sur les limites actuelles de l'IA, LeCun s'est concentré sur l'IA générative formée sur de grands modèles de langage (LLM), affirmant qu'elle n'est pas très intelligente, parce qu'elle est uniquement guidée par le langage. « Ces systèmes sont encore très limités, ils n'ont aucune compréhension de la réalité sous-jacente du monde réel parce qu'ils sont uniquement formés sur du texte, des quantités massives de texte. Cependant, la plupart des connaissances humaines n'ont rien à voir avec le langage. Cette partie de l'expérience humaine n'est donc pas prise en compte par les systèmes d'intelligence artificielle », a déclaré le chercheur.
« Les développements en cours montrent qu’il manque quelque chose de vraiment important afin d'atteindre non seulement une intelligence de niveau humain, mais même une intelligence de chien. En fait, les experts en intelligence artificielle n'ont aucune idée de la manière de reproduire cette capacité avec des machines à ce jour. Tant que nous n'y parviendrons pas, ces systèmes d'intelligence artificielle n'auront pas une intelligence de niveau humaine ni une intelligence canine ou féline », déclare LeCun.
Yann Lecun rejette en sus l'idée que les robots vont s'emparer du monde. « Une crainte popularisée par les fictions scientifiques est que si les robots sont plus intelligents que nous, ils voudront s'emparer du monde. Il n'y a pas de corrélation entre le fait d'être intelligent et le fait de vouloir s'emparer du monde », souligne LeCun.
Source : enquête
Et vous ?


Voir aussi :





Vous avez lu gratuitement 4 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.