
Qui cite des facteurs algorithmiques qui définissent sa limite d’évolution
Geoffrey Hinton a quitté Google à mi-parcours de l’année qui tire à son terme dans le but d’être libre de parler des dangers de l’intelligence artificielle. Depuis lors, il multiplie les sorties à ce sujet et reste constant sur sa position selon laquelle l’IA fait peser une menace sur l’humanité. C’est une redite de prises de position d’observateurs comme Elon Musk selon lesquels ce n’est qu’une question de temps avant que l’intelligence artificielle ne surpasse les humains en tout. Et certains facteurs d’ordre algorithmique permettraient de soutenir cette affirmation. C’est en tout cas ce que met en avant Geoffrey Hinton pour déboucher sur la notion de « principe d’évolution. »
« Ce que nous avons fait, c'est concevoir l'algorithme d'apprentissage. C'est un peu comme concevoir le principe de l'évolution. Mais lorsque cet algorithme d'apprentissage interagit avec les données, il produit des réseaux neuronaux compliqués qui sont capables de faire certaines choses. Mais nous ne comprenons pas exactement comment ils font ces choses », souligne Geoffrey Hinton. En d’autres termes, l’humain conçoit l’algorithme d’apprentissage ou « principe d’évolution » de l’IA.
Cependant, sa mise en œuvre débouche sur une espèce d’entité informatique qui finit par devenir un objet de curiosité pour le chercheur de la filière lui-même. Et c’est là que se trouve le danger comme le souligne Hinton : « Dès que les choses deviennent vraiment complexes nous ne savons pas plus ce qui se passe que nous savons ce qui se passe dans nos propres cerveaux. » C’est en cela que la question de savoir comment est-ce que les humains sauront qu’ils ont atteint une forme d’intelligence artificielle générale prend tout son sens.
« Nous entrons dans une période de grande incertitude où nous sommes confrontés à des choses que nous n'avons jamais faites auparavant. Et normalement, la première fois que l'on s'attaque à quelque chose de totalement nouveau, on se trompe. Et nous ne pouvons pas nous permettre de nous tromper dans ce domaine », prévient-il.
L’intelligence artificielle générale serait plus proche qu’on ne le pense et avec elle des risques d’élimination des humains par les robots
« L'idée que l'IA puisse devenir plus intelligente que les gens, quelques personnes y ont cru. Mais la plupart des gens pensaient que c'était une erreur. Et je pensais personnellement que c'était loin d'être le cas. Je me disais qu'il fallait attendre dans les 30 à 50 ans, voire plus. Évidemment, je ne le pense plus », ajoute Hinton. Ce dernier vient donc rejoindre des acteurs de la filière technologique comme Elon Musk qui sont d’avis que l’intelligence artificielle va surpasser les capacités cognitives des Hommes.
« Ça fait dix ans que je lance cette alerte. Nous devrions nous inquiéter de la direction que prend l'intelligence artificielle. Les personnes que je vois se tromper le plus sur ce sujet sont celles qui sont très intelligentes, ce, parce qu'elles ne peuvent pas imaginer qu'un ordinateur puisse être beaucoup plus intelligent qu'elles. C'est la faille de leur raisonnement. Elles sont juste beaucoup plus bêtes qu'elles ne le pensent », rapporte un correspondant du Financial Times.
De 2017 (où Elon Musk affirmait que l’intelligence artificielle est un risque fondamental pour l’humanité) à 2020 en passant par 2019 (où il a déclaré que l’IA est bien plus dangereuse que l’arme nucléaire), la position du milliardaire de la Tech. sur la question reste donc constante. Les craintes d’Elon Musk portent notamment sur ceci que les avancées dans la filière pourraient déboucher sur une intelligence artificielle dite générale (AGI). Ce serait alors la porte ouverte sur l’accomplissement de l’apocalypse. Des équipes de recherche comme celle d’OpenAI sont lancées sur ce couloir. Si l’on se réfère à des retours de scientifiques œuvrant dans le domaine, l’AGI pourrait nous tomber dessus dans 5 à 10 ans.
Les machines seraient alors dotées de « bon sens. » Au stade d’intelligence artificielle générale, elles seraient capables de réflexion causale, c’est-à-dire de cette capacité à raisonner sur « le pourquoi les choses se produisent. » C’est ce palier que les équipes de recherche dans le domaine visent. C’est d’ailleurs pour cela que sa société Neuralink travaille sur des interfaces cerveau – machine à insérer dans le crâne pour préparer l’humanité à un « funeste » futur où les robots domineront sur elle.
Source : Geoffrey Hinton
Et vous ?


Voir aussi :




Vous avez lu gratuitement 12 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.