Lors de la conférence VivaTech de mercredi, Yann LeCun, responsable scientifique au sein de la division dédiée à l'IA chez Meta, a eu l'occasion de revenir sur le débat brulant sur les dangers potentiels de l'IA. Lors de l'interview, LeCun n'a pas adopté une position alarmiste de la vision future de l'IA. Contrairement à d'autres PDG et acteurs influents du domaine de l'IA qui pensent que l'IA représente un danger existentiel pour l'humanité, LeCun pense que l'IA n'est pas du tout intelligente, ce qui en fait une technologie totalement inoffensive. Le chercheur a affirmé que le niveau d'intelligence de l'IA se situe probablement en dessous de celui d'un chien.
En effet, interrogé sur les limites actuelles de l'IA, LeCun s'est concentré sur l'IA générative formée sur de grands modèles de langage (LLM), affirmant qu'elle n'est pas très intelligente, parce qu'elle est uniquement guidée par le langage. « Ces systèmes sont encore très limités, ils n'ont aucune compréhension de la réalité sous-jacente du monde réel parce qu'ils sont uniquement formés sur du texte, des quantités massives de texte. Cependant, la plupart des connaissances humaines n'ont rien à voir avec le langage. Cette partie de l'expérience humaine n'est donc pas prise en compte par les systèmes d'intelligence artificielle », a déclaré le chercheur.
Selon lui, un système d'IA pouvait désormais réussir l'examen du Barreau des États-Unis, mais l'IA ne pouvait pas charger un lave-vaisselle, ce qu'un enfant de 10 ans pourrait "apprendre en 10 minutes". « Cela montre qu'il nous manque quelque chose de vraiment important afin d'atteindre non seulement une intelligence de niveau humain, mais même une intelligence de chien. En fait, les experts en IA n'ont aucune idée de la manière de reproduire cette capacité avec des machines aujourd'hui. Tant que nous n'y parviendrons pas, ces systèmes d'IA n'auront pas une intelligence de niveau humaine ni une intelligence canine ou féline », a conclu LeCun.
Ces remarques contrastent avec celles de Demis Hassabis, PDG de DeepMind, qui a déclaré que l'IA pourrait atteindre des "capacités cognitives de niveau humain" au cours de la prochaine décennie. L'annonce de Hassabis est intervenue quelques jours seulement après que Geoffrey Hinton, surnommé le parrain de l'IA, a quitté son emploi chez Google pour exprimer ses inquiétudes et ses regrets concernant le développement de la technologie, alors que la plupart des travailleurs craignent pour leur emploi et que d'autres s'inquiètent pour leur sécurité. Geoffrey Hinton est lauréat du Prix Turing de 2018. Il le partage avec Yoshua Bengio et Yann LeCun.
« Je me console avec l'excuse habituelle : si je ne l'avais pas fait, quelqu'un d'autre l'aurait fait », affirme Hinton. Mais il n'est pas le seul. Sam Altman, PDG d'OpenAI, et Elon Musk, PDG de Tesla, se sont exprimés sur les dangers potentiels que représente l'IA. L'investisseur américain de renom Warren Buffett a pour sa part comparé l'IA à l'invention de la bombe atomique. « Lorsque quelque chose peut faire toutes sortes de choses, je suis un peu inquiet. Je sais que nous ne pourrons pas l'inventer et, vous savez, nous avons inventé, pour de très bonnes raisons, la bombe atomique pendant la Seconde Guerre mondiale », a déclaré Buffett le mois passé.
Le débat divise les chercheurs et les experts en IA. Comme LeCun, beaucoup sont ceux qui croient que l'IA actuelle est loin d'être intelligente. À mesure que les gens bricolent avec les systèmes d'IA comme ChatGPT, certains se rendent compte qu'ils ne sont pas tout à fait à la hauteur de ce qu'on attend d'eux. Par exemple, Charlie Brooker, le créateur de la série dystopique Black Mirror (qui invite à réfléchir sur l'impact actuel de la technologie sur nos vies, en poussant celle-ci à son extrême), a déclaré au début du mois avoir utilisé ChatGPT pour écrire un scénario test pour ce drame alléchant. Mais selon lui, le résultat manque cruellement d'originalité.
« Parce que tout ce qu'il a fait, c'est chercher tous les synopsis des épisodes de "Black Mirror", et les rassembler en quelque sorte. Si l'on creuse un peu plus, on se dit qu'il n'y a pas vraiment de pensée originale ici », a déclaré Brooker ce mois-ci. Avant lui, Rodney Brooks, chercheur en robotique et expert en IA, a déclaré dans une interview le mois dernier que les grands modèles de langage comme GPT-4 et Bard sont beaucoup plus "stupides" qu'on le pense et qu'ils sont encore loin de pouvoir rivaliser avec l'intelligence humaine dans n'importe quelle tâche. Mais son point de vue a tout de même fait l'objet de fortes controverses dans l'autre camp.
Lors de la conférence VivaTech de mercredi, Jacques Attali, un théoricien économique et social français qui écrit sur la technologie, a déclaré que la question de savoir si l'IA est bonne ou mauvaise dépendra de l'usage qui en sera fait. « Si vous utilisez l'IA pour développer davantage de combustibles fossiles, ce sera terrible. Si vous utilisez l'IA pour développer des armes plus terribles, ce sera terrible. Par contre, l'IA peut être extraordinaire si elle est utilisée dans le domaine de la santé, la culture, et l'éducation », a déclaré Attali. Attali et LeCun ajoutent toutefois que la technologie pourrait représenter un danger pour l'humanité dans un avenir proche.
« Il est bien connu que l'humanité soit confrontée à de nombreux dangers au cours des trois ou quatre prochaines décennies. Je crains que les robots se retournent contre nous », a déclaré Attali. LeCun a déclaré qu'à l'avenir, il pourrait y avoir des machines plus intelligentes que les humains, ce qui ne devrait pas être considéré comme un danger. « Nous ne devrions pas considérer cela comme une menace, mais comme quelque chose de très bénéfique. Chacun d'entre nous disposera d'un assistant IA qui sera comme un employé plus intelligent que lui pour l'aider dans sa vie quotidienne », a déclaré LeCun lors de la conférence à Paris.
Le chercheur de Meta a ajouté que ces systèmes d'IA doivent être créés pour être contrôlables et fondamentalement soumis aux humains. Il a également rejeté l'idée que les robots allaient s'emparer du monde. « Une crainte popularisée par les fictions scientifiques est que si les robots sont plus intelligents que nous, ils voudront s'emparer du monde. Il n'y a pas de corrélation entre le fait d'être intelligent et le fait de vouloir s'emparer du monde », a déclaré LeCun. En outre, en examinant les dangers et les opportunités de l'IA, Attali a conclu qu'il fallait mettre en place des garde-fous pour le développement de la technologie.
Mais il n'est pas certain de savoir qui s'en chargera. « Qui va mettre des frontières ? », a-t-il demandé. La réglementation de l'IA a été un sujet brulant lors de cette édition de VivaTech. L'UE vient d'adopter sa propre législation en matière d'IA, tandis que les principaux ministres français ont déclaré cette semaine que le pays souhaitait une réglementation mondiale de cette technologie. La version finale de la législation de l'UE sur l'IA (EU AI Act) est attendue pour la fin de l'année.
Et vous ?
Quel est votre avis sur le débat sur les dangers potentiels de l'IA ?
Que pensez-vous des déclarations de Yann LeCun au VivaTech 2023 ?
Pensez-vous que Yann LeCun minimise les risques liés à l'IA ?
Que pensez-vous du niveau d'intelligence de l'IA ?
Voir aussi
« Je suis un peu inquiet » : Warren Buffett compare l'IA à l'invention de la bombe atomique, il affirme que "l'IA changera tout dans le monde, sauf la façon dont les hommes pensent et se comportent"
I-JEPA : le premier modèle d'IA basé sur la vision de Yann LeCun, le scientifique en chef de Meta spécialisé dans l'IA, pour une IA plus proche de l'humain
Le responsable de l'IA de Meta publie un document sur la création d'une intelligence artificielle "autonome", et suggère que les approches actuelles ne mèneront jamais à une véritable intelligence
Des chercheurs et des PDG du domaine de l'IA mettent en garde contre le "risque d'extinction" dans une déclaration de 22 mots, ils estiment que l'IA pourrait être aussi mortelle que l'arme nucléaire