« Ce que nous avons fait, c'est concevoir l'algorithme d'apprentissage. C'est un peu comme concevoir le principe de l'évolution. Mais lorsque cet algorithme d'apprentissage interagit avec les données, il produit des réseaux neuronaux compliqués qui sont capables de faire certaines choses. Mais nous ne comprenons pas exactement comment ils font ces choses », souligne Geoffrey Hinton. En d’autres termes, l’humain conçoit l’algorithme d’apprentissage ou « principe d’évolution » de l’IA.
Cependant, sa mise en œuvre débouche sur une espèce d’entité informatique qui finit par devenir un objet de curiosité pour le chercheur de la filière lui-même. Et c’est là que se trouve le danger comme le souligne Hinton : « Dès que les choses deviennent vraiment complexes nous ne savons pas plus ce qui se passe que nous savons ce qui se passe dans nos propres cerveaux. » C’est en cela que la question de savoir comment est-ce que les humains sauront qu’ils ont atteint une forme d’intelligence artificielle générale prend tout son sens.
« Nous entrons dans une période de grande incertitude où nous sommes confrontés à des choses que nous n'avons jamais faites auparavant. Et normalement, la première fois que l'on s'attaque à quelque chose de totalement nouveau, on se trompe. Et nous ne pouvons pas nous permettre de nous tromper dans ce domaine », prévient-il.
L’intelligence artificielle générale serait plus proche qu’on ne le pense et avec elle des risques d’élimination des humains par les robots
« L'idée que l'IA puisse devenir plus intelligente que les gens, quelques personnes y ont cru. Mais la plupart des gens pensaient que c'était une erreur. Et je pensais personnellement que c'était loin d'être le cas. Je me disais qu'il fallait attendre dans les 30 à 50 ans, voire plus. Évidemment, je ne le pense plus », ajoute Hinton. Ce dernier vient donc rejoindre des acteurs de la filière technologique comme Elon Musk qui sont d’avis que l’intelligence artificielle va surpasser les capacités cognitives des Hommes.
« Ça fait dix ans que je lance cette alerte. Nous devrions nous inquiéter de la direction que prend l'intelligence artificielle. Les personnes que je vois se tromper le plus sur ce sujet sont celles qui sont très intelligentes, ce, parce qu'elles ne peuvent pas imaginer qu'un ordinateur puisse être beaucoup plus intelligent qu'elles. C'est la faille de leur raisonnement. Elles sont juste beaucoup plus bêtes qu'elles ne le pensent », rapporte un correspondant du Financial Times.
De 2017 (où Elon Musk affirmait que l’intelligence artificielle est un risque fondamental pour l’humanité) à 2020 en passant par 2019 (où il a déclaré que l’IA est bien plus dangereuse que l’arme nucléaire), la position du milliardaire de la Tech. sur la question reste donc constante. Les craintes d’Elon Musk portent notamment sur ceci que les avancées dans la filière pourraient déboucher sur une intelligence artificielle dite générale (AGI). Ce serait alors la porte ouverte sur l’accomplissement de l’apocalypse. Des équipes de recherche comme celle d’OpenAI sont lancées sur ce couloir. Si l’on se réfère à des retours de scientifiques œuvrant dans le domaine, l’AGI pourrait nous tomber dessus dans 5 à 10 ans.
Les machines seraient alors dotées de « bon sens. » Au stade d’intelligence artificielle générale, elles seraient capables de réflexion causale, c’est-à-dire de cette capacité à raisonner sur « le pourquoi les choses se produisent. » C’est ce palier que les équipes de recherche dans le domaine visent. C’est d’ailleurs pour cela que sa société Neuralink travaille sur des interfaces cerveau – machine à insérer dans le crâne pour préparer l’humanité à un « funeste » futur où les robots domineront sur elle.
Source : Geoffrey Hinton
Et vous ?
Quelle pertinence trouvez-vous à ces différents propos en lien avec l’intelligence artificielle ? Sont-ils plus sensationnalistes qu’autre chose ?
Voyez-vous la recherche en la matière aboutisse à l’intelligence artificielle générale ? Sinon quels sont les freins que vous entrevoyez ?
Voir aussi :
L'IA de génération de texte d'Elon Musk trop dangereuse pour être rendue publique, selon ses créateurs
Le projet de tunnel du milliardaire de la tech Elon Musk est-il une vaste blague ? The Boring Company a inauguré son premier tunnel anti-bouchons
Neuralink, le projet d'Elon Musk pour qu'un cerveau humain interagisse directement avec un PC et l'Homme fusionne avec l'IA, aberration ou fiction ?
Elon Musk rappelle qu'en rendant publics les brevets Tesla, il a œuvré pour le bien de la planète et l'essor du marché des véhicules électriques