Yann LeCun est un éminent chercheur français en IA et lauréat du prix Turing 2018. Les recherches qu'il a menées dans les années 1980 et 1990 ont contribué à jeter les bases de bon nombre des innovations les plus importantes de la dernière décennie dans le domaine de l'IA. Entre autres exemples, LeCun a mis au point les réseaux de neurones convolutifs qui ont été essentiels pour rendre l'apprentissage profond plus efficace. LeCun est professeur à l'université de New York où il a créé le "Center for Data Sciences" et travaillerait également sur les voitures autonomes, et scientifique en chef du laboratoire d'IA de Meta, la société mère de Facebook.
Contrairement à beaucoup de ses pairs, LeCun n'adopte pas une vision alarmiste du futur de l'IA. Malgré le nom, LeCun pense que l'IA n'est pas du tout intelligente, ce qui en fait une technologie totalement inoffensive. Le chercheur a affirmé que le niveau d'intelligence de l'IA se situe probablement en dessous de celui d'un chat. Lors d'une interview accordée au Financial Times cette semaine, LeCun a déclaré que les inquiétudes selon lesquelles l'IA est une menace existentielle pour l'humanité sont prématurées. Selon lui, il ne sert à rien d'être aussi alarmiste et d'appeler à une réglementation, ce qui risquerait d'avoir de graves conséquences sur l'avenir de l'IA.
LeCun met en effet en garde contre un jeu de dupe et estime qu'une réglementation prématurée de l'IA ne servira qu'à renforcer la domination des grandes entreprises technologiques et à étouffer la concurrence. « Réglementer la recherche et le développement dans le domaine de l'IA est incroyablement contre-productif. Ils veulent en effet s'emparer de la réglementation sous le couvert de la sécurité de l'IA. Les demandes de contrôle de l'IA découlent du sentiment de supériorité de certaines des principales entreprises technologiques, qui affirment qu'elles sont les seules à pouvoir développer l'IA en toute sécurité », a déclaré le responsable de l'IA chez Meta.
Il a ajouté : « je pense que c'est incroyablement arrogant. Et je pense exactement le contraire ». Les commentaires de LeCun laissent entendre qu'ils (Elon Musk, PDG de xAI, Sam Altman, PDG d'OpenAI, Demis Hassabis, PDG de Google DeepMind, etc.) n'appellent pas à une réglementation de l'IA pour le bien de tous, mais seulement pour asseoir leur hégémonie sur la filière de l'IA. LeCun contredit également Geoffrey Hinton, l'un des parrains de l'IA avec qui il partage le prix Turing 2018. Hinton a quitté son poste chez Google afin d'être libre de militer pour la réglementation de l'IA, mais selon LeCun, les craintes actuelles sont absurdes et sans réel fondement.
« Réglementer les modèles d'IA de pointe aujourd'hui reviendrait à réglementer l'industrie des avions à réaction en 1925, alors que ces avions n'avaient même pas été inventés. Le débat sur les risques existentiels est très prématuré tant que nous n'aurons pas conçu un système capable de rivaliser avec un chat en matière de capacités d'apprentissage, ce qui n'est pas le cas pour le moment », a déclaré LeCun. Ainsi, le Français réfute l'idée de Hinton selon laquelle l'atténuation du risque d'extinction lié à l'IA devrait devenir une priorité mondiale au même titre que d'autres risques à l'échelle de la société tels que les pandémies graves et les guerres nucléaires.
LeCun a qualifié d'absurde l'idée selon laquelle l'IA pourrait tuer l'humanité, que ce soit à dessein ou par défaut. Il a déclaré que "les gens avaient été conditionnés par la science-fiction et le scénario de Terminator à croire que les machines intelligentes prendraient le contrôle si elles devenaient plus intelligentes que les humains". Lors de l'interview, il a expliqué : « l'intelligence n'a rien à voir avec le désir de dominer. Ce n'est même pas vrai pour les humains. S'il était vrai que les humains les plus intelligents voulaient dominer les autres, Albert Einstein et d'autres scientifiques de renoms auraient tous été à la fois riches et puissants, ce qui n'est pas le cas ».
LeCun réfute également l'idée selon laquelle les modèles d'IA open source représentent un danger pour la société. Selon les entreprises d'IA, les modèles d'IA sont trop puissants pour être mis à la disposition du public, car les conséquences pourraient être trop graves s'ils étaient utilisés à mauvais escient. Effectivement, des acteurs ont utilisé des modèles d'IA disponibles publiquement pour perfectionner leurs outils de piratages et leurs stratégies d'escroquerie. Certains acteurs malveillants utilisent également les technologies d'IA de clonage de la voix pour escroquer des personnes vulnérables par téléphone ou pour simplement harceler les gens.
Cependant, LeCun estime que l'IA ne saurait être une technologie dont le développement est réservé à une poignée d'entreprises privées privilégiées. Suivant la voix du chef de sa division consacrée au développement de l'IA, Meta a rompu les rangs avec d'autres grandes entreprises technologiques, telles que Google et OpenAI, en défendant les modèles d'IA open source plus accessibles. Meta a publié en open source son dernier grand modèle de langage, Llama 2, afin de permettre aux chercheurs de la communauté de participer au développement de la technologie. Par contre, GPT-4, le dernier grand modèle de langage d'OpenAI est une véritable boîte noire.
Les données et le code utilisés pour construire GPT-4 ne sont pas accessibles à des tiers. Mais selon LeCun, des arguments similaires sur la nécessité de contrôler une technologie en évolution rapide ont été avancés au début de l'Internet, mais ce dernier n'a prospéré que parce qu'il est resté une plateforme ouverte et décentralisée. « La même chose se produira avec l'IA », a-t-il déclaré. LeCun a fait valoir que les modèles open source stimulaient la concurrence et permettaient à une plus grande diversité de personnes de construire et d'utiliser des systèmes d'IA. Il est l'un des rares cadres d'une grande entreprise technologique privée à défendre cette idée.
Parmi les lauréats du prix Turing 2018 - à savoir Yann LeCun, Geoffrey Hinton et Yoshua Bengio -, LeCun reste le seul qui ne se montre pas alarmiste sur le futur et les risques liés à l'IA. Hinton et Bengio ont exprimé leurs inquiétudes quant aux dangers posés par les modèles d'IA de la prochaine génération. Tous deux ont appelé à un ralentissement du développement des modèles d'IA de pointe et ont mis en garde contre les risques existentiels liés à l'IA. LeCun ne partage pas l'avis de ses pairs et affirme que de son côté que la génération actuelle de modèles d'IA était loin d'être aussi performante que certains chercheurs tente de le faire croire.
« Ils ne comprennent tout simplement pas comment le monde fonctionne. Ils ne sont pas capables de planifier. Ils ne sont pas capables d'un véritable raisonnement. Nous ne disposons pas de voitures entièrement autonomes, capables de s'entraîner à la conduite en une vingtaine d'heures de pratique, ce qu'un jeune de 17 ans peut faire », a-t-il déclaré. Le chercheur de Meta a déclaré qu'OpenAI et Google DeepMind avaient été "constamment trop optimistes" quant à la complexité du problème et que plusieurs "percées conceptuelles" étaient encore nécessaires avant que les systèmes d'IA ne s'approchent de l'intelligence humaine.
Et même dans ce cas, LeCun affirme qu'il serait possible de contrôler les modèles d'IA en encodant un "caractère moral" dans ces systèmes, de la même manière que les gens édictent des lois pour régir le comportement humain. Par ailleurs, LeCun a reconnu que les machines seraient un jour plus intelligentes que les humains dans la plupart des domaines, mais il a également ajouté que cela stimulerait une deuxième renaissance de l'apprentissage.
« Des systèmes d'IA puissants aideraient l'humanité à relever de grands défis, tels que la lutte contre le changement climatique et la guérison des maladies. Il ne fait aucun doute que nous serons assistés par des machines plus intelligentes que nous. La question est de savoir si c'est effrayant ou excitant. Je pense que c'est passionnant parce que ces machines feront ce que nous leur demandons. Elles seront sous notre contrôle », a déclaré le chercheur français.
Et vous ?
Quel est votre avis sur le sujet ?
Que pensez-vous des déclarations du chercheur français en IA Yann LeCun ?
Pensez-vous également que les inquiétudes actuelles concernant l'IA sont prématurées et absurdes ?
Les grandes entreprises cherchent-elles à monopoliser le marché de l'IA en appelant à une réglementation ?
LeCun a-t-il raison d'affirmer que les modèles d'IA open source sont indispensables à l'innovation dans le domaine de l'IA ?
Selon vous, pourquoi les lauréats du prix Turing 2018 affichent des points de vue divergents sur le futur de l'IA ?
Voir aussi
« L'open source aura un impact plus important sur l'avenir des modèles de langage que le grand public ne le pense », selon un ingénieur logiciel qui affirme que l'IA open source est plus sûre
Meta s'associe à Microsoft et lance en open-source LLaMA 2 pour faire concurrence à ChatGPT d'OpenAI, l'entreprise pourrait vouloir diluer l'avantage concurrentiel de ses rivaux
Le responsable de l'IA chez Meta affirme que l'intelligence artificielle n'est pas encore aussi intelligente qu'un chien et rejette l'idée selon laquelle les robots allaient s'emparer du monde