
Il travaille sur d'autres pistes susceptibles de déboucher sur cet objectif
Yann LeCun, responsable de la division intelligence artificielle de Meta, est d’avis que l’intelligence artificielle de niveau humain est atteignable. Ce qu’il souligne par contre est que cela ne se fera pas au travers des grands modèles de langage (LLM). C’est d’ailleurs la raison pour laquelle ses travaux actuels chez Meta portent sur une approche différente destinée à atteindre l’intelligence artificielle dite générale – ce stade où les machines seront dotées de bon sens, capables de réflexion causale, c’est-à-dire de cette capacité à raisonner sur « le pourquoi les choses se produisent. »
« Les grands modèles de langage (LLM) ont une compréhension très limitée de la logique, ne comprennent pas le monde physique, n'ont pas de mémoire persistante, ne peuvent pas raisonner au sens propre du terme et ne peuvent pas planifier de manière hiérarchique », souligne-t-il.
Yann LeCun reste donc cohérent avec ses précédentes sorties selon lesquelles les grands modèles de langage n’ont aucune compréhension de la réalité sous-jacente du monde réel parce qu'ils sont uniquement formés sur du texte, des quantités massives de texte. « la plupart des connaissances humaines n'ont rien à voir avec le langage. Cette partie de l'expérience humaine n'est donc pas prise en compte par les systèmes d'intelligence artificielle », déclare-t-il.
C’est la raison pour laquelle il soutient que l’atteinte de l’intelligence artificielle générale ne se fera pas par le biais des grands modèles de langage. Il conseille d’ailleurs aux jeunes étudiants qui envisagent d’intégrer la filière de se lancer dans les systèmes d’intelligence artificielle du futur qui lèvent les limitations des grands modèles de langage.
En effet, l’un des inconvénients avec les grands modèles de langage est l’hallucination. C’est en raison de cette limitation incontournable chez les LLM, selon une étude, que ChatGPT a créé de fausses histoires sur de nombreuses personnes à travers le monde et cite parfois même des sources inexistantes pour étayer ses récits. Dans un cas aux États-Unis, ChatGPT a inventé un scandale de harcèlement sexuel et a désigné un vrai professeur de droit comme l'accusé. En Australie, il a accusé à tort un maire de corruption avec de fausses preuves. De telles histoires pullulent sur Internet, y compris en France.
Jonathan Turley, professeur de droit à l'université George Washington, a soudainement appris qu'il était l'accusé dans une affaire de harcèlement sexuel. Le professeur n'avait pas connaissance de cette histoire jusqu'à présent parce qu'elle vient tout juste d'être inventée de toutes pièces par ChatGPT. En fait, dans le cadre d'une étude, un collègue avocat californien a demandé à ChatGPT de générer une liste de juristes ayant harcelé sexuellement quelqu'un. À sa grande surprise, le nom de Turley figurait sur la liste générée par le Chatbot d'IA d'OpenAI. Le collègue a ensuite envoyé un courriel à Turley pour l'informer de sa découverte.
« Nous nous dirigeons à grands pas vers un Internet fortement influencé par l'IA, bourré de pépins, de spams et d'escroqueries », a récemment écrit un journaliste du MIT Technology Review. Dans une affaire judiciaire inhabituelle, un avocat a été sanctionné par un juge pour avoir cité six affaires fictives générées par ChatGPT. ChatGPT a causé des ennuis à un avocat qui l’a utilisé pour citer des affaires imaginaires dans un document juridique. Le juge était furieux et a menacé de le sanctionner. Quand le juge a demandé les copies des affaires, l’avocat a fait appel à ChatGPT, qui a inventé des informations sur les affaires fantômes.
L’avocat, Steven Schwartz, défendait un homme qui attaquait Avianca en justice après avoir été blessé au genou par un chariot de service pendant un vol vers New York en 2019. Schwartz a dit qu’il ne connaissait pas ChatGPT et qu’il ignorait qu’il fabriquait des affaires. Il a même dit qu’il avait vérifié avec ChatGPT si les affaires étaient vraies. Le chatbot a dit que oui.
Le juge a qualifié cette pratique d’ « inédite » et de « trompeuse », et a ordonné à l’avocat de payer une amende de 10 000 dollars et de suivre une formation sur l’éthique professionnelle. Le juge a également mis en garde contre les risques de l’utilisation de l’intelligence artificielle dans le domaine juridique, et a appelé à une réglementation plus stricte. L’avocat a cité six affaires fictives dans ses mémoires. Ces affaires avaient été générées par ChatGPT, un système d’intelligence artificielle qui produit du texte à partir d’un mot-clé. Il a présenté ses excuses et a affirmé qu’il ne recommencerait plus.
C’est pour ces raisons que Tom Dietterich de l’université de l’Oregon propose plutôt de travailler sur des système d’intelligence artificielle modulaires qui savent faire la distinction entre les aptitudes linguistiques et la connaissance du monde réel et, entre autres, créer et mettre à jour la connaissance du monde réel.
C’est une combinaison de ces ingrédients qui devrait permettre de déboucher sur des systèmes qui lèvent les limitations des grands modèles de langage. Le responsable de la division intelligence artificielle de Meta et ses équipes se donnent une dizaine d’années pour parvenir à une intelligence artificielle de niveau humain.
Source : Yann LeCun
Et vous ?

Voir aussi :





Vous avez lu gratuitement 3 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.