
et rejette l'idée selon laquelle les robots allaient s'emparer du monde
Yann LeCun, responsable de l'IA chez Meta, a déclaré dans une récente interview que les systèmes d'IA actuels tels que ChatGPT et Bard n'ont pas une intelligence de niveau humain et sont à peine plus intelligents qu'un chien. Le chercheur français en IA affirme que les systèmes d'IA actuels sont très limités, mais n'ont également aucune compréhension de la réalité sous-jacente du monde réel. En d'autres termes, LeCun affirme que les systèmes d'IA sont incapables d'apprendre des tâches élémentaires telles que le déchargement d'un lave-vaisselle. En outre, l'économiste français Jacques Attali affirme que la dangerosité ou la bonté de l'IA dépendra de l'usage qui sera fait de la technologie.
Lors de la conférence VivaTech de mercredi, Yann LeCun, responsable scientifique au sein de la division dédiée à l'IA chez Meta, a eu l'occasion de revenir sur le débat brulant sur les dangers potentiels de l'IA. Lors de l'interview, LeCun n'a pas adopté une position alarmiste de la vision future de l'IA. Contrairement à d'autres PDG et acteurs influents du domaine de l'IA qui pensent que l'IA représente un danger existentiel pour l'humanité, LeCun pense que l'IA n'est pas du tout intelligente, ce qui en fait une technologie totalement inoffensive. Le chercheur a affirmé que le niveau d'intelligence de l'IA se situe probablement en dessous de celui d'un chien.
En effet, interrogé sur les limites actuelles de l'IA, LeCun s'est concentré sur l'IA générative formée sur de grands modèles de langage (LLM), affirmant qu'elle n'est pas très intelligente, parce qu'elle est uniquement guidée par le langage. « Ces systèmes sont encore très limités, ils n'ont aucune compréhension de la réalité sous-jacente du monde réel parce qu'ils sont uniquement formés sur du texte, des quantités massives de texte. Cependant, la plupart des connaissances humaines n'ont rien à voir avec le langage. Cette partie de l'expérience humaine n'est donc pas prise en compte par les systèmes d'intelligence artificielle », a déclaré le chercheur.
Selon lui, un système d'IA pouvait désormais réussir l'examen du Barreau des États-Unis, mais l'IA ne pouvait pas charger un lave-vaisselle, ce qu'un enfant de 10 ans pourrait "apprendre en 10 minutes". « Cela montre qu'il nous manque quelque chose de vraiment important afin d'atteindre non seulement une intelligence de niveau humain, mais même une intelligence de chien. En fait, les experts en IA n'ont aucune idée de la manière de reproduire cette capacité avec des machines aujourd'hui. Tant que nous n'y parviendrons pas, ces systèmes d'IA n'auront pas une intelligence de niveau humaine ni une intelligence canine ou féline », a conclu LeCun.
Ces remarques contrastent avec celles de Demis Hassabis, PDG de DeepMind, qui a déclaré que l'IA pourrait atteindre des "capacités cognitives de niveau humain" au cours de la prochaine décennie. L'annonce de Hassabis est intervenue quelques jours seulement après que Geoffrey Hinton, surnommé le parrain de l'IA, a quitté son emploi chez Google pour exprimer ses inquiétudes et ses regrets concernant le développement de la technologie, alors que la plupart des travailleurs craignent pour leur emploi et que d'autres s'inquiètent pour leur sécurité. Geoffrey Hinton est lauréat du Prix Turing de 2018. Il le partage avec Yoshua Bengio et Yann LeCun.
« Je me console avec l'excuse habituelle : si je ne l'avais pas fait, quelqu'un d'autre l'aurait fait », affirme Hinton. Mais il n'est pas le seul. Sam Altman, PDG d'OpenAI, et Elon Musk, PDG de Tesla, se sont exprimés sur les dangers potentiels que représente l'IA. L'investisseur américain de renom Warren Buffett a pour sa part comparé l'IA à l'invention de la bombe atomique. « Lorsque quelque chose peut faire toutes sortes de choses, je suis un peu inquiet. Je sais que nous ne pourrons pas l'inventer et, vous savez, nous avons inventé, pour de très bonnes raisons, la bombe atomique pendant la Seconde Guerre mondiale », a déclaré Buffett le mois passé.
Le débat divise les chercheurs et les experts en IA. Comme LeCun, beaucoup sont ceux qui croient que l'IA actuelle est loin d'être intelligente. À mesure que les gens bricolent avec les systèmes d'IA comme ChatGPT, certains se rendent compte qu'ils ne sont pas tout à fait à la hauteur de ce qu'on attend d'eux. Par exemple, Charlie Brooker, le créateur de la série dystopique Black Mirror (qui invite à réfléchir sur l'impact actuel de la technologie sur nos vies, en poussant celle-ci à son extrême), a déclaré au début du mois avoir utilisé ChatGPT pour écrire un scénario test pour ce drame alléchant. Mais selon lui, le résultat manque cruellement d'originalité.
« Parce que tout ce qu'il a fait, c'est chercher tous les synopsis des épisodes de "Black Mirror", et les rassembler en quelque sorte. Si l'on creuse un peu plus, on se dit qu'il n'y a pas vraiment de pensée originale ici », a déclaré Brooker ce mois-ci. Avant lui, Rodney Brooks, chercheur en robotique et expert en IA, a déclaré dans une interview le mois dernier que les grands modèles de langage comme GPT-4 et Bard sont beaucoup plus "stupides" qu'on le pense et qu'ils sont encore loin de pouvoir rivaliser avec l'intelligence humaine dans n'importe quelle tâche. Mais son point de vue a tout de même fait l'objet de fortes controverses dans l'autre camp.
Lors de la conférence VivaTech de mercredi, Jacques Attali, un théoricien économique et social français qui écrit sur la technologie, a déclaré que la question de savoir si l'IA est bonne ou mauvaise dépendra de l'usage qui en sera fait. « Si vous utilisez l'IA pour développer davantage de combustibles fossiles, ce sera terrible. Si vous utilisez l'IA pour développer des armes plus terribles, ce sera terrible. Par contre, l'IA peut être extraordinaire si elle est utilisée dans le domaine de la santé, la culture, et l'éducation », a déclaré Attali. Attali et LeCun ajoutent toutefois que la technologie pourrait représenter un danger pour l'humanité dans un avenir proche.
« Il est bien connu que l'humanité soit confrontée à de nombreux dangers au cours des trois ou quatre prochaines décennies. Je crains que les robots se retournent contre nous », a déclaré Attali. LeCun a déclaré qu'à l'avenir, il pourrait y avoir des machines plus intelligentes que les humains, ce qui ne devrait pas être considéré comme un danger. « Nous ne devrions pas considérer cela comme une menace, mais comme quelque chose de très bénéfique. Chacun d'entre nous disposera d'un assistant IA qui sera comme un employé plus intelligent que lui pour l'aider dans sa vie quotidienne », a déclaré LeCun lors de la conférence à Paris.
Le chercheur de Meta a ajouté que ces systèmes d'IA doivent être créés pour être contrôlables et fondamentalement soumis aux humains. Il a également rejeté l'idée que les robots allaient s'emparer du monde. « Une crainte popularisée par les fictions scientifiques est que si les robots sont plus intelligents que nous, ils voudront s'emparer du monde. Il n'y a pas de corrélation entre le fait d'être intelligent et le fait de vouloir s'emparer du monde », a déclaré LeCun. En outre, en examinant les dangers et les opportunités de l'IA, Attali a conclu qu'il fallait mettre en place des garde-fous pour le développement de la technologie.
Mais il n'est pas certain de savoir qui s'en chargera. « Qui va mettre des frontières ? », a-t-il demandé. La réglementation de l'IA a été un sujet brulant lors de cette édition de VivaTech. L'UE vient d'adopter sa propre législation en matière d'IA, tandis que les principaux ministres français ont déclaré cette semaine que le pays souhaitait une réglementation mondiale de cette technologie. La version finale de la législation de l'UE sur l'IA (EU AI Act) est attendue pour la fin de l'année.
Et vous ?




Voir aussi




Vous avez lu gratuitement 5 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.