IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

« L'IA peut finir par dominer les humains », d'après Geoffrey Hinton, l'un des pionniers de l'apprentissage profond
Qui cite des facteurs algorithmiques qui définissent sa limite d'évolution

Le , par Patrick Ruiz

0PARTAGES

8  0 
Geoffrey Hinton a quitté Google à mi-parcours de l’année qui tire à son terme dans le but d’être libre de parler des dangers de l’intelligence artificielle. Depuis lors, il multiplie les sorties à ce sujet et reste constant sur sa position selon laquelle l’IA fait peser une menace sur l’humanité. C’est une redite de prises de position d’observateurs comme Elon Musk selon lesquels ce n’est qu’une question de temps avant que l’intelligence artificielle ne surpasse les humains en tout. Et certains facteurs d’ordre algorithmique permettraient de soutenir cette affirmation. C’est en tout cas ce que met en avant Geoffrey Hinton pour déboucher sur la notion de « principe d’évolution. »

« Ce que nous avons fait, c'est concevoir l'algorithme d'apprentissage. C'est un peu comme concevoir le principe de l'évolution. Mais lorsque cet algorithme d'apprentissage interagit avec les données, il produit des réseaux neuronaux compliqués qui sont capables de faire certaines choses. Mais nous ne comprenons pas exactement comment ils font ces choses », souligne Geoffrey Hinton. En d’autres termes, l’humain conçoit l’algorithme d’apprentissage ou « principe d’évolution » de l’IA.

Cependant, sa mise en œuvre débouche sur une espèce d’entité informatique qui finit par devenir un objet de curiosité pour le chercheur de la filière lui-même. Et c’est là que se trouve le danger comme le souligne Hinton : « Dès que les choses deviennent vraiment complexes nous ne savons pas plus ce qui se passe que nous savons ce qui se passe dans nos propres cerveaux. » C’est en cela que la question de savoir comment est-ce que les humains sauront qu’ils ont atteint une forme d’intelligence artificielle générale prend tout son sens.

« Nous entrons dans une période de grande incertitude où nous sommes confrontés à des choses que nous n'avons jamais faites auparavant. Et normalement, la première fois que l'on s'attaque à quelque chose de totalement nouveau, on se trompe. Et nous ne pouvons pas nous permettre de nous tromper dans ce domaine », prévient-il.



L’intelligence artificielle générale serait plus proche qu’on ne le pense et avec elle des risques d’élimination des humains par les robots

« L'idée que l'IA puisse devenir plus intelligente que les gens, quelques personnes y ont cru. Mais la plupart des gens pensaient que c'était une erreur. Et je pensais personnellement que c'était loin d'être le cas. Je me disais qu'il fallait attendre dans les 30 à 50 ans, voire plus. Évidemment, je ne le pense plus », ajoute Hinton. Ce dernier vient donc rejoindre des acteurs de la filière technologique comme Elon Musk qui sont d’avis que l’intelligence artificielle va surpasser les capacités cognitives des Hommes.

« Ça fait dix ans que je lance cette alerte. Nous devrions nous inquiéter de la direction que prend l'intelligence artificielle. Les personnes que je vois se tromper le plus sur ce sujet sont celles qui sont très intelligentes, ce, parce qu'elles ne peuvent pas imaginer qu'un ordinateur puisse être beaucoup plus intelligent qu'elles. C'est la faille de leur raisonnement. Elles sont juste beaucoup plus bêtes qu'elles ne le pensent », rapporte un correspondant du Financial Times.

De 2017 (où Elon Musk affirmait que l’intelligence artificielle est un risque fondamental pour l’humanité) à 2020 en passant par 2019 (où il a déclaré que l’IA est bien plus dangereuse que l’arme nucléaire), la position du milliardaire de la Tech. sur la question reste donc constante. Les craintes d’Elon Musk portent notamment sur ceci que les avancées dans la filière pourraient déboucher sur une intelligence artificielle dite générale (AGI). Ce serait alors la porte ouverte sur l’accomplissement de l’apocalypse. Des équipes de recherche comme celle d’OpenAI sont lancées sur ce couloir. Si l’on se réfère à des retours de scientifiques œuvrant dans le domaine, l’AGI pourrait nous tomber dessus dans 5 à 10 ans.

Les machines seraient alors dotées de « bon sens. » Au stade d’intelligence artificielle générale, elles seraient capables de réflexion causale, c’est-à-dire de cette capacité à raisonner sur « le pourquoi les choses se produisent. » C’est ce palier que les équipes de recherche dans le domaine visent. C’est d’ailleurs pour cela que sa société Neuralink travaille sur des interfaces cerveau – machine à insérer dans le crâne pour préparer l’humanité à un « funeste » futur où les robots domineront sur elle.

Source : Geoffrey Hinton

Et vous ?

Quelle pertinence trouvez-vous à ces différents propos en lien avec l’intelligence artificielle ? Sont-ils plus sensationnalistes qu’autre chose ?
Voyez-vous la recherche en la matière aboutisse à l’intelligence artificielle générale ? Sinon quels sont les freins que vous entrevoyez ?

Voir aussi :

L'IA de génération de texte d'Elon Musk trop dangereuse pour être rendue publique, selon ses créateurs
Le projet de tunnel du milliardaire de la tech Elon Musk est-il une vaste blague ? The Boring Company a inauguré son premier tunnel anti-bouchons
Neuralink, le projet d'Elon Musk pour qu'un cerveau humain interagisse directement avec un PC et l'Homme fusionne avec l'IA, aberration ou fiction ?
Elon Musk rappelle qu'en rendant publics les brevets Tesla, il a œuvré pour le bien de la planète et l'essor du marché des véhicules électriques

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 11/10/2023 à 14:50
Citation Envoyé par Patrick Ruiz Voir le message
« L'idée que l'IA puisse devenir plus intelligente que les gens, quelques personnes y ont cru. Mais la plupart des gens pensaient que c'était une erreur. Et je pensais personnellement que c'était loin d'être le cas. Je me disais qu'il fallait attendre dans les 30 à 50 ans, voire plus. Évidemment, je ne le pense plus », ajoute Hinton. Ce dernier vient donc rejoindre des acteurs de la filière technologique comme Elon Musk qui sont d’avis que l’intelligence artificielle va surpasser les capacités cognitives des Hommes.
Je pense qu'il est possible que dans le futur l'intelligence artificielle surpasse l'humain.
Vous n'êtes peut-être pas impressionné par l'es outils IA actuels, mais il est possible que l'IA évolue rapidement et que 20 ans ça devienne quelque chose de réellement puissant.
0  0 
Avatar de fdecode
Membre habitué https://www.developpez.com
Le 12/10/2023 à 10:54
Citation Envoyé par Ryu2000 Voir le message
Vous n'êtes peut-être pas impressionné par l'es outils IA actuels, mais il est possible que [...] ça devienne quelque chose de réellement puissant.
Très concrètement, cela met déjà des êtres humains au chômage.
0  0