IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Malgré leurs fortes capacités de raisonnement inductif, les LLM ont tendance à manquer de capacités de raisonnement déductif
En particulier dans les tâches impliquant un raisonnement "contrefactuel"

Le , par Anthony

11PARTAGES

5  0 
Une étude récente de l'université de Californie à Los Angeles révèle que si les grands modèles de langage (LLM) disposent de fortes capacités de raisonnement inductif, leurs capacités de raisonnement déductif, en particulier dans les tâches impliquant un raisonnement "contrefactuel", sont nettement plus faibles. Les chercheurs ont introduit un framework baptisé SolverLearner pour isoler et évaluer le raisonnement inductif des LLM, montrant une performance presque parfaite. Toutefois, cette réussite contraste avec une performance relativement faible en matière de raisonnement déductif, soulevant des questions sur les problèmes de raisonnement fondamentaux auxquels sont confrontés les LLM.

Un grand modèle de langage (LLM) est un modèle informatique capable de générer du langage ou d'effectuer d'autres tâches de traitement du langage naturel. En tant que modèles de langage, les LLM acquièrent ces capacités en apprenant des relations statistiques à partir de grandes quantités de texte au cours d'un processus d'apprentissage autosupervisé et semi-supervisé.

Les LLM les plus grands et les plus performants, à partir d'août 2024, sont des réseaux neuronaux artificiels construits avec une architecture basée sur un décodeur à transformateur uniquement, qui permet un traitement et une génération efficaces de données textuelles à grande échelle. Ces modèles acquièrent un pouvoir prédictif concernant la syntaxe, la sémantique et les ontologies inhérentes aux corpus de langage humain, mais ils héritent également des inexactitudes et des biais présents dans les données sur lesquelles ils sont formés.


Dans une récente étude, des chercheurs de l'université de Californie et d'Amazon ont exploré un aspect moins étudié des LLM en tentant d'apporter des éléments de réponse à la question suivante : dans le cadre du raisonnement LLM, quel est le plus grand défi - le raisonnement déductif ou le raisonnement inductif ?

Le raisonnement comprend en général deux catégories typiques : le raisonnement déductif et le raisonnement inductif. Malgré des recherches approfondies sur les capacités de raisonnement des grands modèles de langage (LLM), la plupart des études n'ont pas réussi à différencier rigoureusement le raisonnement inductif et le raisonnement déductif, ce qui a conduit à un mélange des deux.

Alors que les capacités de raisonnement déductif des LLM (c'est-à-dire leur capacité à suivre des instructions dans des tâches de raisonnement) ont fait l'objet d'une attention considérable, leurs capacités en matière de raisonnement inductif restent à ce jour largement inexplorées.


Pour étudier les capacités de raisonnement inductif des LLM, les auteurs de l'étude ont introduit un nouveau framework, SolverLearner. En se concentrant sur le raisonnement inductif tout en mettant de côté le raisonnement déductif basé sur les LLM, SolverLearner a permis d'examiner la forme pure du raisonnement inductif dans les LLM.

Concrètement, SolverLearner permet aux LLM d'apprendre la fonction sous-jacente (c'est-à-dire y=fw(x)), qui associe des points de données d'entrée (x) à leurs valeurs de sortie correspondantes (y), en utilisant uniquement des exemples en contexte. En se concentrant sur le raisonnement inductif et en le séparant du raisonnement déductif basé sur les LLM, les auteurs ont isolé et étudié le raisonnement inductif des LLM dans sa forme pure via SolverLearner.


Leurs observations révèlent que les LLMs démontrent des capacités remarquables de raisonnement inductif à travers SolverLearner, atteignant une performance presque parfaite avec un ACC de 1 dans la plupart des cas.

De manière surprenante, malgré leurs fortes capacités de raisonnement inductif, les auteurs ont découvert que les LLM présentent souvent des capacités déductives plus faibles et ont tendance à manquer relativement de capacités de raisonnement déductif, en particulier dans les tâches impliquant un raisonnement ou des scénarios « contrefactuels ».


Source : "Inductive or Deductive? Rethinking the Fundamental Reasoning Abilities of LLMs" (étude de l'université de Californie)

Et vous ?

Quel est votre avis sur le sujet ?
Trouvez-vous les conclusions de cette étude de l'université de Californie crédibles ou pertinentes ?

Voir aussi :

ChatGPT a un QI de 155 et une capacité de mémoire qui dépasse toute l'histoire, et en 2024 nous verrons des solutions d'IA pour le raisonnement profond et les mathématiques complexes, d'après Mo Gawdat

Des chercheurs ont donné à l'IA un "monologue intérieur" qui a permis d'améliorer considérablement ses performances : Quiet-STaR, les modèles de langage peuvent apprendre à réfléchir avant de parler

Une recherche sur les tâches simples montrant la décomposition du raisonnement IA dans les LLM de pointe donne OpenAI GPT-4o largement en tête, suivi d'Anthropic Claude 3

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Jules34
Membre émérite https://www.developpez.com
Le 14/10/2024 à 16:29
Il serait essentiel de poursuivre les recherches pour développer des modèles d'IA capables de raisonnement formel
C'est bien gentil mais le raisonnement inductif ou déductif que l'IA produit par inférence statistique ne sera jamais un raisonnement formel, c'est un peu le sujet de l'article, du coup en creux c'est un peu avouer à moitié que tout ça c'est... du turbo vent ?
8  0 
Avatar de Eye_Py_Ros
Membre du Club https://www.developpez.com
Le 15/10/2024 à 11:17
C'est bien gentil mais le raisonnement inductif ou déductif que l'IA produit par inférence statistique ne sera jamais un raisonnement formel, c'est un peu le sujet de l'article, du coup en creux c'est un peu avouer à moitié que tout ça c'est... du turbo vent ?

Oui c'est un debuncking étude à l'appui, mais politiquement correcte, pour dire, les ia on confirme c'est du vent.

Très intéressant d'ailleurs d'avoir des personnes qui s'applique a monter des protocoles pour exposer les limites vs la com commerciales à plusieurs millions.
C'est sûr que les gars ils ne peuvent pas arriver dans le gamme en disant "vos ia c'est de la daube".... Ils n'ont pas de choix que de nuancer l'intonation de leur propos s’ils veulent se faire entendre un minimum.

Au moins leurs travaux on le mérite d'exister et d'être publié, on devrait en être contant, ça nous donne des arguments legit.
6  0 
Avatar de BufferBob
Expert éminent https://www.developpez.com
Le 06/09/2024 à 18:12
c'est intéressant. vous savez quoi d'autre a une forte capacité inductive et une faible capacité déductive ?
notre inconscient.
0  0 
Avatar de Denis CADIOT
Membre régulier https://www.developpez.com
Le 16/10/2024 à 8:32
J'avais remarqué, lors d'un test sur ChatGPT 3.5, qu'il avait donné la réponse classique au problème classique du nénuphar qui double chaque jour pour lequel j'avais changé les unités en remplaçant les jours par des heures. Sa réponse était un jour de moins au lieu d'une heure de moins.
Il ne faut pas trop s'éloigner de son apprentissage, mais comment le savoir ?
J'utilise courament Claude AI comme un savoir encyclopédique qui arrive à extraire beaucoup de caractéristiques auxquelles je ne pensais pas. Je lui fait reformuler ma pensée de manière bien structurée avec une argumentation solide.
1  1