IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Le responsable de la division IA de Meta est d'avis que les grands modèles de langage n'atteindront pas l'intelligence humaine,
Il travaille sur d'autres pistes susceptibles de déboucher sur cet objectif

Le , par Patrick Ruiz

30PARTAGES

14  0 
Yann LeCun, responsable de la division intelligence artificielle de Meta, est d’avis que l’intelligence artificielle de niveau humain est atteignable. Ce qu’il souligne par contre est que cela ne se fera pas au travers des grands modèles de langage (LLM). C’est d’ailleurs la raison pour laquelle ses travaux actuels chez Meta portent sur une approche différente destinée à atteindre l’intelligence artificielle dite générale – ce stade où les machines seront dotées de bon sens, capables de réflexion causale, c’est-à-dire de cette capacité à raisonner sur « le pourquoi les choses se produisent. »

« Les grands modèles de langage (LLM) ont une compréhension très limitée de la logique, ne comprennent pas le monde physique, n'ont pas de mémoire persistante, ne peuvent pas raisonner au sens propre du terme et ne peuvent pas planifier de manière hiérarchique », souligne-t-il.


Yann LeCun reste donc cohérent avec ses précédentes sorties selon lesquelles les grands modèles de langage n’ont aucune compréhension de la réalité sous-jacente du monde réel parce qu'ils sont uniquement formés sur du texte, des quantités massives de texte. « la plupart des connaissances humaines n'ont rien à voir avec le langage. Cette partie de l'expérience humaine n'est donc pas prise en compte par les systèmes d'intelligence artificielle », déclare-t-il.

C’est la raison pour laquelle il soutient que l’atteinte de l’intelligence artificielle générale ne se fera pas par le biais des grands modèles de langage. Il conseille d’ailleurs aux jeunes étudiants qui envisagent d’intégrer la filière de se lancer dans les systèmes d’intelligence artificielle du futur qui lèvent les limitations des grands modèles de langage.


En effet, l’un des inconvénients avec les grands modèles de langage est l’hallucination. C’est en raison de cette limitation incontournable chez les LLM, selon une étude, que ChatGPT a créé de fausses histoires sur de nombreuses personnes à travers le monde et cite parfois même des sources inexistantes pour étayer ses récits. Dans un cas aux États-Unis, ChatGPT a inventé un scandale de harcèlement sexuel et a désigné un vrai professeur de droit comme l'accusé. En Australie, il a accusé à tort un maire de corruption avec de fausses preuves. De telles histoires pullulent sur Internet, y compris en France.

Jonathan Turley, professeur de droit à l'université George Washington, a soudainement appris qu'il était l'accusé dans une affaire de harcèlement sexuel. Le professeur n'avait pas connaissance de cette histoire jusqu'à présent parce qu'elle vient tout juste d'être inventée de toutes pièces par ChatGPT. En fait, dans le cadre d'une étude, un collègue avocat californien a demandé à ChatGPT de générer une liste de juristes ayant harcelé sexuellement quelqu'un. À sa grande surprise, le nom de Turley figurait sur la liste générée par le Chatbot d'IA d'OpenAI. Le collègue a ensuite envoyé un courriel à Turley pour l'informer de sa découverte.

« Nous nous dirigeons à grands pas vers un Internet fortement influencé par l'IA, bourré de pépins, de spams et d'escroqueries », a récemment écrit un journaliste du MIT Technology Review. Dans une affaire judiciaire inhabituelle, un avocat a été sanctionné par un juge pour avoir cité six affaires fictives générées par ChatGPT. ChatGPT a causé des ennuis à un avocat qui l’a utilisé pour citer des affaires imaginaires dans un document juridique. Le juge était furieux et a menacé de le sanctionner. Quand le juge a demandé les copies des affaires, l’avocat a fait appel à ChatGPT, qui a inventé des informations sur les affaires fantômes.

L’avocat, Steven Schwartz, défendait un homme qui attaquait Avianca en justice après avoir été blessé au genou par un chariot de service pendant un vol vers New York en 2019. Schwartz a dit qu’il ne connaissait pas ChatGPT et qu’il ignorait qu’il fabriquait des affaires. Il a même dit qu’il avait vérifié avec ChatGPT si les affaires étaient vraies. Le chatbot a dit que oui.

Le juge a qualifié cette pratique d’ « inédite » et de « trompeuse », et a ordonné à l’avocat de payer une amende de 10 000 dollars et de suivre une formation sur l’éthique professionnelle. Le juge a également mis en garde contre les risques de l’utilisation de l’intelligence artificielle dans le domaine juridique, et a appelé à une réglementation plus stricte. L’avocat a cité six affaires fictives dans ses mémoires. Ces affaires avaient été générées par ChatGPT, un système d’intelligence artificielle qui produit du texte à partir d’un mot-clé. Il a présenté ses excuses et a affirmé qu’il ne recommencerait plus.

C’est pour ces raisons que Tom Dietterich de l’université de l’Oregon propose plutôt de travailler sur des système d’intelligence artificielle modulaires qui savent faire la distinction entre les aptitudes linguistiques et la connaissance du monde réel et, entre autres, créer et mettre à jour la connaissance du monde réel.


C’est une combinaison de ces ingrédients qui devrait permettre de déboucher sur des systèmes qui lèvent les limitations des grands modèles de langage. Le responsable de la division intelligence artificielle de Meta et ses équipes se donnent une dizaine d’années pour parvenir à une intelligence artificielle de niveau humain.

Source : Yann LeCun

Et vous ?

Quelle appréciation faites-vous de la position de l’expert français Yann Lecun sur le sujet ?

Voir aussi :

« L'IA est susceptible de devenir plus intelligente que les Hommes contre lesquels elle pourra donc se retourner et les exterminer », préviennent des chercheurs sur une possible future apocalypse

Pour Bill Gates, l'IA est l'avancée technologique la plus importante depuis des décennies, il vient de publier une lettre de 7 pages sur l'IA et ses prédictions pour son avenir

« Le développement de l'IA sans réglementation induit une menace existentielle pour l'humanité », d'après Elon Musk dont une société développe des puces à insérer dans le cerveau pour contrer l'IA

« Les appels à suspendre le développement des systèmes d'IA ne résoudront pas les défis liés à leur mise sur pied », d'après Bill Gates qui entrevoit l'échec d'un consensus à l'échelle mondiale

Le PDG d'OpenAI estime que l'approche actuelle de l'IA va bientôt atteindre ses limites, la mise à l'échelle des modèles LLM cessera d'apporter des améliorations à l'IA, selon lui

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Aiekick
Membre extrêmement actif https://www.developpez.com
Le 27/05/2024 à 20:08
dans quelques années ils vont devoir reembocher massivement des dev pour combler tous les trou de securité de cette ia de merde
8  0 
Avatar de Matthieu Vergne
Expert éminent https://www.developpez.com
Le 27/05/2024 à 22:32
IA de merde pas forcément, elle fait ce pour quoi elle a été conçue. Mais l'utilisateur, ici BP, peut en abuser. Et vu le discours tenu, il semble qu'il soit en bonne voie de le faire (l'abus). Donc oui, s'il pousse trop loin il devra réembaucher par la suite. On ne devient pas bon dans ce qu'on fait en lisant juste ce que font les autres, même les meilleurs. La pratique reste indispensable. S'il se contente de faire valider le code aux humains, même s'il garde les meilleurs, ils vont naturellement perdre en qualité (et en motivation pour d'autres raisons). Ce qu'il gagne là il le perdra par ailleurs. Et selon comment le process évolue, il peut y avoir une perte de cohérence qui rendra le code d'autant plus difficile à reprendre quand il faudra y remettre de l'humain dedans.

Maintenant, si ce qu'il dit est vrai et se passe bien, c'est que le code de BP est vraiment du code basique et inintéressant au possible. Auquel cas merci d'épargner aux dévs ce genre d'expérience.
5  0 
Avatar de pebaroiller
Membre à l'essai https://www.developpez.com
Le 28/05/2024 à 9:22
Pourquoi pas, mais pour avoir testé / utlisé copilot & co, le gain n'est pas si énorme, et surtout , on ne peut pas faire confiance à 100% à l'IA. le code généré peut sembler être bon, mais il est souvent "mal pensé", "pas optimisé", voir même peut générer des bugs avec le reste du code existant.
Après, on verra d'ici quelques années si ils arrivent à se passer de nous ou si on contraire, ils auront besoin de personne ultra-qualifiées pour débugger tout ce qui aura été "codé automatiquement" pendant plusieurs années!
5  0 
Avatar de Matthieu Vergne
Expert éminent https://www.developpez.com
Le 29/05/2024 à 1:43
Citation Envoyé par RenarddeFeu Voir le message
Tout dépend des besoins en dev chez BP. Ma tendance lourde est au code vite fait mal fait et aux projets peu durables dans le temps. C'est là le business de toutes les ESN ou presque.
Pas de la mienne (5e au Great Place to Work et c'est pas volé).

Cela dit, ce ne sont pas les ESN qui décident du contenu du projet et des priorités, mais les clients. Si je comprends le côté viandard de la plupart des ESN, n'allons pas non plus tout leur mettre sur le dos. Si c'est du code vite fait mal fait chez BP, ce serait avant tout du fait de BP.
2  0 
Avatar de Matthieu Vergne
Expert éminent https://www.developpez.com
Le 29/05/2024 à 2:26
Citation Envoyé par RenarddeFeu Voir le message
Pour ma part, le Great Place to Work est un énorme red flag. Plus une entreprise de vante d'avoir des valeurs, plus le risque est grand de tomber dans un nid de crabes.
C'est toujours à vérifier, pas à prendre pour argent comptant (d'où ma parenthèse). Mais je sais que je suis un chanceux : les bonnes ESN ne sont pas la généralité.
2  0 
Avatar de Gluups
Membre émérite https://www.developpez.com
Le 23/05/2024 à 12:41
Apparemment, les avertissements de la Science Fiction n'ont pas suffi.

Citation Envoyé par Patrick Ruiz Voir le message
Schwartz a dit qu’il ne connaissait pas ChatGPT et qu’il ignorait qu’il fabriquait des affaires. Il a même dit qu’il avait vérifié avec ChatGPT si les affaires étaient vraies.
Suffisait d'y penser ...

On n'a pas précisé si il a été condamné pour outrage à magistrat.
1  0 
Avatar de RenarddeFeu
Membre habitué https://www.developpez.com
Le 29/05/2024 à 0:33
Tout dépend des besoins en dev chez BP. Ma tendance lourde est au code vite fait mal fait et aux projets peu durables dans le temps. C'est là le business de toutes les ESN ou presque. Alors oui, l'IA est une très bonne alternative dans ce cas, elle va remplacer beaucoup de codeurs à faible valeur ajoutée.
1  0 
Avatar de Gluups
Membre émérite https://www.developpez.com
Le 29/05/2024 à 0:43
Citation Envoyé par Aiekick Voir le message
dans quelques années ils vont devoir reembocher massivement des dev pour combler tous les trou de securité de cette ia de merde
Et ... Se rabibocher avec, pendant qu'ils y seront ?

Citation Envoyé par RenarddeFeu Voir le message
Tout dépend des besoins en dev chez BP. Ma tendance lourde est au code vite fait mal fait et aux projets peu durables dans le temps. C'est là le business de toutes les ESN ou presque. Alors oui, l'IA est une très bonne alternative dans ce cas, elle va remplacer beaucoup de codeurs à faible valeur ajoutée.
Ce n'est pas pire que faire bosser quelqu'un sur le langage le plus mal foutu qu'on ait dans la boîte, et lui reprocher ensuite d'être lent.
1  0 
Avatar de RenarddeFeu
Membre habitué https://www.developpez.com
Le 29/05/2024 à 2:15
Citation Envoyé par Matthieu Vergne Voir le message
Pas de la mienne (5e au Great Place to Work et c'est pas volé).
Pour ma part, le Great Place to Work est un énorme red flag. Plus une entreprise de vante d'avoir des valeurs, plus le risque est grand de tomber dans un nid de crabes.

J'ai bossé pour l'entreprise première dans sa catégorie à une époque, ce fut la pire expérience de ma vie. Dénigrement, harcèlement au quotidien, certainement pas un endroit sain où travailler. Les managers veillaient à ce que les consultants remplissent correctement le questionnaire.
1  0