IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Il y a 5 % de chances que l'IA super intelligente provoque l'extinction de l'homme, d'après certains scientifiques
En opposition à d'autres d'avis que cette perspective relève de l'illusion

Le , par Patrick Ruiz

8PARTAGES

6  0 
De nombreux chercheurs en intelligence artificielle considèrent que le développement futur d'une IA super intelligence a un risque non négligeable de provoquer l'extinction de l'humanité. Dans les chiffres, près de 58 % des chercheurs sont d’avis qu’il y a 5 % de chances que cette perspective se réalise. Néanmoins, les mêmes données soulignent le fait qu’une bonne partie des intervenants de cette filière est en désaccord avec la perspective que l’IA provoque l’extinction de l’homme.

Ces résultats proviennent d'une enquête menée auprès de 2700 chercheurs en IA qui ont récemment publié des travaux dans le cadre de six des principales conférences sur l'IA. Le sondage demandait aux participants de faire part de leurs réflexions sur les échéances possibles des futures étapes technologiques de l'IA, ainsi que sur les conséquences sociétales, bonnes ou mauvaises, de ces réalisations.


Par rapport aux réponses de la version 2022 de la même enquête, de nombreux chercheurs en intelligence artificielle ont prédit que l'IA atteindrait certaines étapes plus tôt que prévu. Les chercheurs interrogés prédisent qu'au cours de la prochaine décennie, les systèmes d'IA auront au moins 50 % de chances de réussir la plupart des 39 échantillons de tâches listés dans l’enquête : écriture de nouvelles chansons, codage d'un site complet de traitement des paiements à partir de zéro, etc. D'autres tâches, telles que l'installation physique du câblage électrique dans une nouvelle maison ou la résolution de mystères mathématiques de longue date, devraient prendre plus de temps.

Le développement possible d'une intelligence artificielle capable de surpasser les humains dans toutes les tâches a 50 % de chances de se produire d'ici 2047, tandis que la possibilité que tous les emplois humains deviennent entièrement automatisables a 50 % de chances de se produire d'ici 2116. Ces estimations sont en avance de 13 ans et de 48 ans par rapport à celles de l'enquête de l'année dernière.

Il existe en sus des inquiétudes plus immédiates non liées à l’éventualité de l’atteinte du stade d'IA super intelligente. Une grande majorité de chercheurs en IA - 70 % ou plus - ont qualifié de très préoccupants ou d'extrêmement préoccupants les scénarios alimentés par l'IA impliquant des deepfakes, la manipulation de l'opinion publique, des armes artificielles, le contrôle autoritaire des populations et l'aggravation de l'inégalité économique. L’enquête met en sus en avant les dangers de l'IA qui contribue à la désinformation sur des questions existentielles telles que le changement climatique ou la détérioration de la gouvernance démocratique.


Le responsable de l’intelligence artificielle de Meta rejette l’idée que l’intelligence artificielle va s’emparer du monde

Yann LeCun, responsable scientifique au sein de la division dédiée à l'IA chez Meta, a eu l'occasion de revenir sur le débat brulant sur les dangers potentiels de l'IA. Lors de l'interview, LeCun n'a pas adopté une position alarmiste de la vision future de l'IA. Contrairement à d'autres PDG et acteurs influents du domaine de l'IA qui pensent que l'IA représente un danger existentiel pour l'humanité, LeCun pense que l'IA n'est pas du tout intelligente, ce qui en fait une technologie totalement inoffensive. Le chercheur a affirmé que le niveau d'intelligence de l'IA se situe probablement en dessous de celui d'un chien.

En effet, interrogé sur les limites actuelles de l'IA, LeCun s'est concentré sur l'IA générative formée sur de grands modèles de langage (LLM), affirmant qu'elle n'est pas très intelligente, parce qu'elle est uniquement guidée par le langage. « Ces systèmes sont encore très limités, ils n'ont aucune compréhension de la réalité sous-jacente du monde réel parce qu'ils sont uniquement formés sur du texte, des quantités massives de texte. Cependant, la plupart des connaissances humaines n'ont rien à voir avec le langage. Cette partie de l'expérience humaine n'est donc pas prise en compte par les systèmes d'intelligence artificielle », a déclaré le chercheur.


« Les développements en cours montrent qu’il manque quelque chose de vraiment important afin d'atteindre non seulement une intelligence de niveau humain, mais même une intelligence de chien. En fait, les experts en intelligence artificielle n'ont aucune idée de la manière de reproduire cette capacité avec des machines à ce jour. Tant que nous n'y parviendrons pas, ces systèmes d'intelligence artificielle n'auront pas une intelligence de niveau humaine ni une intelligence canine ou féline », déclare LeCun.

Yann Lecun rejette en sus l'idée que les robots vont s'emparer du monde. « Une crainte popularisée par les fictions scientifiques est que si les robots sont plus intelligents que nous, ils voudront s'emparer du monde. Il n'y a pas de corrélation entre le fait d'être intelligent et le fait de vouloir s'emparer du monde », souligne LeCun.

Source : enquête

Et vous ?

Quel est votre avis sur le débat sur les dangers potentiels de l'IA ?

Quelle appréciation faites-vous de la position de l’expert français Yann Lecun sur le sujet ?

Voir aussi :

« L'IA est susceptible de devenir plus intelligente que les Hommes contre lesquels elle pourra donc se retourner et les exterminer », préviennent des chercheurs sur une possible future apocalypse

Pour Bill Gates, l'IA est l'avancée technologique la plus importante depuis des décennies, il vient de publier une lettre de 7 pages sur l'IA et ses prédictions pour son avenir

« Le développement de l'IA sans réglementation induit une menace existentielle pour l'humanité », d'après Elon Musk dont une société développe des puces à insérer dans le cerveau pour contrer l'IA

« Les appels à suspendre le développement des systèmes d'IA ne résoudront pas les défis liés à leur mise sur pied », d'après Bill Gates qui entrevoit l'échec d'un consensus à l'échelle mondiale

Le PDG d'OpenAI estime que l'approche actuelle de l'IA va bientôt atteindre ses limites, la mise à l'échelle des modèles LLM cessera d'apporter des améliorations à l'IA, selon lui

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de der§en
Membre éprouvé https://www.developpez.com
Le 05/01/2024 à 10:04
Faut-il comprendre que les 95% restant, c’est l’homme qui s’auto-détruira tout seul comme un c… ?

1  0 
Avatar de doublex
Membre confirmé https://www.developpez.com
Le 17/12/2024 à 0:49
Déjà à l'époque...

https://www.developpez.net/forums/d1...e/#post7820383
1  0 
Avatar de virginieh
Membre expérimenté https://www.developpez.com
Le 05/01/2024 à 10:50
Citation Envoyé par der§en Voir le message
Faut-il comprendre que les 95% restant, c’est l’homme qui s’auto-détruira tout seul comme un c… ?

Oui l'IA a énormément fait baisser la probabilité que ça arrive quand même avant elle était bien plus élevée.
0  0 
Avatar de phil995511
Membre éprouvé https://www.developpez.com
Le 18/12/2024 à 16:19
A quand les IA borderlines et / ou schizophrènes ?
0  0