IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les grands modèles de langage (LLM) ne peuvent pas s'autocorriger dans les tâches de raisonnement, selon une étude de DeepMind
L'autocorrection pourrait même nuire aux performances de ces modèles

Le , par Jade Emy

0PARTAGES

3  0 
Les scientifiques inventent diverses stratégies pour améliorer la précision et les capacités de raisonnement des grands modèles de langage (LLM), telles que l'augmentation de la recherche et le raisonnement par chaîne de pensée. Parmi ces stratégies, l'"autocorrection", une technique par laquelle un LLM affine ses propres réponses, a gagné en popularité, démontrant son efficacité dans de nombreuses applications. Toutefois, les mécanismes à l'origine de ce succès restent insaisissables.

Une étude récente menée par Google DeepMind en collaboration avec l'Université de l'Illinois à Urbana-Champaign révèle que les LLM échouent souvent lorsqu'ils autocorrigent leurs réponses sans retour d'information externe. En fait, l'étude suggère que l'autocorrection peut parfois nuire aux performances de ces modèles, remettant en question la compréhension dominante de cette technique populaire.


Les grands modèles de langage (LLM) se sont imposés comme une technologie révolutionnaire grâce à leurs capacités inégalées de génération de textes dans diverses applications. Néanmoins, des inquiétudes persistent quant à la précision et à l'adéquation du contenu généré. Une méthodologie contemporaine, l'autocorrection, a été proposée pour remédier à ces problèmes. Partant de ce postulat, cet article examine de manière critique le rôle et l'efficacité de l'autocorrection au sein des LLM, en mettant en lumière son véritable potentiel et ses limites.

Au centre de notre enquête se trouve la notion d'autocorrection intrinsèque, par laquelle un LLM tente de corriger ses réponses initiales en se basant uniquement sur ses capacités inhérentes, sans la béquille d'un retour d'information externe. Dans le contexte du raisonnement, notre recherche indique que les LLM ont du mal à auto-corriger leurs réponses sans feedback externe, et parfois, leur performance peut même se dégrader après l'auto-correction. Sur la base de ces observations, nous proposons des suggestions pour les recherches futures et les applications pratiques dans ce domaine.


CONCLUSION

Notre recherche montre que les LLM ne sont pas encore capables d'autocorriger leur raisonnement. Cela implique qu'attendre de ces modèles qu'ils reconnaissent et rectifient leurs inexactitudes de manière inhérente pourrait être trop optimiste, du moins dans l'état actuel de la technologie. De manière plus générale, cela souligne la nécessité d'une amélioration continue et d'une approche à multiples facettes lors du déploiement des LLM dans des applications réelles. À la lumière de ces résultats, il est impératif que les chercheurs et les praticiens abordent le concept d'autocorrection avec discernement, en reconnaissant son potentiel et ses limites. Ce faisant, nous pouvons mieux équiper cette technique pour traiter les limites des LLM, en orientant leur évolution vers une précision et une fiabilité accrues.
Source : DeepMind

Et vous ?

Pensez-vous que cette étude est crédible ou pertinente ?
Quel est votre avis sur le sujet ?

Voir aussi :

GPT-4 est capable d'améliorer ses performances de 30 % en utilisant un processus d'auto-réflexion, consistant à demander au modèle d'apprendre de ses erreurs pour pouvoir ensuite s'auto-corriger

Pourquoi ChatGPT devient-il plus nul en mathématiques de base ? Selon une étude, la raison serait un phénomène de dérive imprévisible

GPT-4 est passé de 98 % à 2 % de réponses exactes à un problème mathématique simple en l'espace de quelques mois, selon une étude qui révèle que les performances de ChatGPT et GPT-4 sont en déclin

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de ciola
Membre du Club https://www.developpez.com
Le 11/10/2023 à 15:17
De toutes façons, quand on demande à un LLM comme chatGPT de faire une demontration basique en mathematiques, même avec une aide exterieure, il ne parvient jamais à corriger correctement ses erreurs de raisonnement. Plus vous l'aidez, plus il s'emmele les pinceaux.
C'est un vrai perroquet qui répète bêtement des brides d'informations en relation avec le sujet demandé mais qui ne comprend rien dutout à ce qu'il raconte. Un vrai blablateur !
0  0