IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les grands modèles de langage confabulent, ils n'hallucinent pas,
D'après Beren Millidge, responsable de la recherche IA chez Conjecture

Le , par Bruno

7PARTAGES

3  0 
Le billet de blog de Beren Millidge, responsable de la recherche IA chez Conjecture, explique pourquoi le terme de confabulation est plus approprié que celui d’hallucination pour décrire le comportement des LLM (modèles de langage à grande échelle) lorsqu’ils inventent des informations fausses mais plausibles. Il compare la confabulation des LLM à celle des humains souffrant de certaines lésions cérébrales qui les amènent à fabriquer des histoires pour répondre à des questions qu’ils ne peuvent pas traiter. Il suggère que les LLM sont comme des humains amnésiques et sans cohérence centrale.

Un grand modèle de langage (LLM) est un algorithme d'apprentissage profond qui peut effectuer une variété de tâches de traitement du langage naturel (NLP). Les grands modèles de langage utilisent des modèles de transformation et sont formés à l'aide d'ensembles de données massifs - d'où le terme « grand ». Cela leur permet de reconnaître, traduire, prédire ou générer du texte ou d'autres contenus.


Les grands modèles linguistiques sont également appelés réseaux neuronaux (RN), qui sont des systèmes informatiques inspirés du cerveau humain. Ces réseaux neuronaux fonctionnent à l'aide d'un réseau de nœuds en couches, à l'instar des neurones.

Outre l'apprentissage des langues humaines pour les applications d'intelligence artificielle (IA), les grands modèles de langage peuvent également être entraînés à effectuer diverses tâches telles que la compréhension des structures protéiques, l'écriture de codes logiciels, etc. À l'instar du cerveau humain, les grands modèles de langage doivent être pré-entraînés puis affinés afin de pouvoir résoudre des problèmes de classification de textes, de réponse à des questions, de résumé de documents et de génération de textes.

Leurs capacités de résolution de problèmes peuvent être appliquées à des domaines tels que la santé, la finance et le divertissement, où les grands modèles de langage servent une variété d'applications NLP, telles que la traduction, les chatbots, les assistants d'IA. Les grands modèles de langage ont aussi un grand nombre de paramètres, qui sont comme des mémoires que le modèle recueille au fur et à mesure qu'il apprend lors de la formation. Ces paramètres constituent la banque de connaissances du modèle.

Citation Envoyé par Beren Millidge
Les gens décrivent souvent le LLM comme "hallucinant", lorsqu'il invente des informations qui semblent correspondre à une requête donnée, même si elles sont trivialement fausses. Bien qu'évocatrice, cette terminologie n'est pas correcte. En psychologie, nous disposons déjà d'un terme parfait pour désigner ce phénomène précis : la confabulation.

La confabulation est généralement utilisée dans un contexte psychiatrique lorsque des personnes souffrent de lésions cérébrales, notamment de la mémoire, qui les empêchent d'expliquer ou de répondre correctement à des questions. Par exemple, si l'on pose à un patient amnésique des questions sur un événement auquel il a assisté, au lieu d'admettre qu'il ne sait pas, il inventera une histoire plausible.

De même, chez les patients à cerveau divisé, où le corps calleux est sectionné de sorte que chaque moitié du cerveau ne peut pas se parler, les patients peuvent inventer des explications élaborées pour expliquer pourquoi l'autre moitié de leur corps fait telle ou telle chose, même si l'expérimentateur sait que ce n'est pas le cas parce qu'il l'a incité à faire quelque chose de différent.

En général, les personnes confabulatrices inventent des justifications qui semblent plausibles mais qui ne sont pas fondées. Elles ne le font généralement pas dans l'intention de tromper, mais semblent au contraire croire fermement à l'histoire qu'elles viennent de raconter. Ce comportement est identique à celui des LLM. Lorsqu'ils sont contraints de donner une réponse en utilisant un fait qu'ils ne connaissent pas, ils ne peuvent pas dire qu'ils ne savent pas, puisque dans la formation, de tels exemples seraient suivis du fait réel. Au lieu de cela, ils inventent quelque chose de plausible. Ils confabulent.
Si nous reconnaissons que ce que les LLM font réellement est de la confabulation, nous pouvons essayer de comparer et de contraster leur comportement avec celui des humains. « Les humains confabulent dans une grande variété de circonstances et en particulier dans le cas de certaines pathologies neuronales telles que les troubles de la mémoire et les patients au cerveau divisé. Il est amusant de constater que ces situations sont similaires à celles d'un LLM », écrit Beren Millidge.

L’article de Beren Millidge est intéressant et provocateur. Il soulève une question pertinente sur la terminologie appropriée pour décrire le comportement des LLM lorsqu’ils inventent des informations fausses mais plausibles. Il propose d’utiliser le terme de confabulation, qui est emprunté à la psychologie, pour rendre compte de ce phénomène. Il compare la confabulation des LLM à celle des humains souffrant de certaines lésions cérébrales qui les amènent à fabriquer des histoires pour répondre à des questions qu’ils ne peuvent pas traiter. Il suggère que les LLM sont comme des humains amnésiques et sans cohérence centrale.


Si on peut être en partie d’accord avec son argumentation, il convient de reconnaitre qu’il y a aussi des limites et des nuances à prendre en compte. D’une part, le terme d’hallucination n’est pas très précis ni très informatif pour caractériser le comportement des LLM. Comme il le dit, l’hallucination implique une perception sensorielle sans stimulus externe, ce qui n’est pas le cas des LLM qui génèrent du texte à partir d’un prompt. Le terme de confabulation semble plus adapté pour décrire la production d’informations plausibles mais potentiellement inexactes ou fabriquées, ce qui est une caractéristique commune des modèles de langage lorsqu’ils produisent des réponses basées sur une connaissance limitée ou incomplète.

D’autre part, il y aurait aussi des différences importantes entre la confabulation humaine et la confabulation des LLM. La confabulation humaine est généralement associée à un trouble cognitif ou à une pathologie neuronale, qui affecte la mémoire, le raisonnement ou la conscience de soi. La confabulation humaine peut avoir des conséquences négatives sur la vie quotidienne, les relations sociales ou le bien-être psychologique. La confabulation humaine peut aussi être influencée par des facteurs émotionnels, motivationnels ou contextuels.

La confabulation des LLM, en revanche, n’est pas liée à un dysfonctionnement ou à une souffrance, mais à une limitation technique ou algorithmique. La confabulation des LLM n’a pas d’impact direct sur leur fonctionnement interne ou leur état affectif. La confabulation des LLM est plutôt déterminée par les données d’entraînement, les paramètres du modèle ou les contraintes du prompt.

Sources : Blog post by Beren Millidge, Head of AI Research at Conjecture

Et vous ?

Partagez-vous le point de vue de Millidge selon lequel le terme de confabulation est plus approprié que celui d’hallucination pour décrire le phénomène de fausses informations, mais plausibles par les LLM ?

Est-il justifié de comparer la confabulation humaine et la confabulation des LLM sans prendre en compte les distinctions entre ces deux phénomènes en termes de caractéristiques, d’origines et d’effets ?

Êtes-vous d’avis avec Beren Millidge que les LLM sont des humains atteints d'amnésie extrême et dépourvus de cohérence centrale ?

Voir aussi :

Les chatbots alimentés par des grands modèles de langage (LLM) entraîneront un pic de violations de données d'initiés, 82 % des entreprises ne disposant pas de stratégie de gestion des risques

Les micro-applications génératives peuvent renforcer la main-d'œuvre humaine et réduire l'exposition des entreprises aux principaux risques des LLM, selon Nadir Henein, VP Analyste chez Gartner

Le PDG d'OpenAI estime que l'approche actuelle de l'IA va bientôt atteindre ses limites, la mise à l'échelle des modèles LLM cessera d'apporter des améliorations à l'IA, selon lui

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 08/10/2023 à 15:44
Citation Envoyé par Bruno Voir le message
Partagez-vous le point de vue de Millidge selon lequel le terme de confabulation est plus approprié que celui d’hallucination pour décrire le phénomène de fausses informations, mais plausibles par les LLM ?
Non. Ces daubes sortent des résultats qui n'existent pas, un point c'est tout.

Il bosse dans le domaine alors il essaye de juste de nous vendre sa tambouille en adoucissant le fait que ces IA sont juste imparfaites.
5  1 
Avatar de L33tige
Membre éprouvé https://www.developpez.com
Le 06/12/2023 à 12:11
Citation Envoyé par Ryu2000 Voir le message
C'est ce qu'il va se passer.

Il est probable que dans le futur 1 humain + 1 IA, réalisent plus de travail que 5 humains.
Il y aura besoin de moins d'humains pour réaliser la même quantité de travail.
L'IA fera gagner beaucoup de temps.
Oui mais dans quel but ? Produire plus ? Consommer plus ? Avec quelles ressources ? Comment des humains qui vont perdre leur emploi vont pouvoir acheter ce qui est vendu ? Dans un monde de plus en plus toxique pour les humains, quel progrès y a-t-il à chercher.

Je vais créer un équivalent au label bio pour l'IA, certifié humains de bout en bout.

Comme d'habitude, on va gagner en productivité, mais on en verra pas la couleur, ça va juste augmenter la charge de travail, et diminuer l'expertise, donc les salaires, et augmenter la réplicabilité des gens. Que du bonus pour les employeurs.
4  0 
Avatar de _toma_
Membre habitué https://www.developpez.com
Le 08/10/2023 à 18:17
Il compare la confabulation des LLM à celle des humains souffrant de certaines lésions cérébrales qui les amènent à fabriquer des histoires pour répondre à des questions qu’ils ne peuvent pas traiter. Il suggère que les LLM sont comme des humains amnésiques et sans cohérence centrale.
Présenter des bugs comme étant des fonctionnalités, il suffisait d'y penser .
2  0 
Avatar de Nym4x
Membre averti https://www.developpez.com
Le 09/10/2023 à 7:14
Attendons que la hype retombe... Il y a beaucoup de comm et de marketing autours de l'IA afin de générer du business. Et puis à un moment une invention peut fonctionner mais causer trop de problèmes annexes pour ne pas être soit interdite soit règlementée. Concernant les métiers manuels : vu les progrès des robots boston dynamics par exemple, je ne pense pas que ces métiers vont rester longtemps intouchables... surtout quand ils vont mettre de l'IA dans ces robots justement...
2  0 
Avatar de TJ1985
Membre chevronné https://www.developpez.com
Le 14/10/2023 à 10:03
Citation Envoyé par krapupul Voir le message
De fait c'est quand même très gênant que les IA délirent ainsi, ça oblige à tout vérifier, à ne pas leur faire confiance.
Question amusante, posée à ChatGPT : Comment m'établir aux USA pour y passer ma retraite.

Réponse bien tournée, qui me dit que c'est très simple, qu'il suffit de remplir le formulaire xxx (me souviens plus).
Vérification faite, ledit formulaire s'applique aux conjoints de résidents US, donc pas du tout dans le contexte.
C'est une des nombreuses vérifications que j'ai faites, et qui renvoient à une réalité : L'intelligence artificielle est une usurpation sémantique, il faut toujours garder en mémoire que ce n'est qu'un moteur de recherche s'appuyant sur des statistiques d'occurences.
Il n'y a aucune compréhension de domaine, aucune intelligence dans le sens où nous l'entendons des êtres vivants. ChatGPT et ses cousins n'ont pas d'image du monde, si on veut, ils ne peuvent pas prendre un regard externe pour vérifier leur première assertion.
Ça peut changer si les travaux de Yann LeCun aboutissent bien. Mais en attendant, méfiance !
Tiens, pour voir comment ça marche, installez Llama C++ sur une petite machine (Raspberry Pi 4B 8GB, par exemple), vous suivrez en direct la construction des réponses...
2  0 
Avatar de AoCannaille
Expert confirmé https://www.developpez.com
Le 16/10/2023 à 11:01
Citation Envoyé par Jipété Voir le message
Bonjour,

Comment faire pour que ces deux lignes soient diffusées partout dans le monde et qu'on arrête de nous bassiner dans tous les média avec ce nouvel acronyme à la mode, car ça commence à devenir lassant, IA par ci IA par là, à croire que sans IA plus rien ne peut exister...
ASSEZ !
Peut être que je suis trop l'actualité informatique en particulier, mais j'ai l'impression qu'on nous bassine avec l'IA depuis au moins 25 ans. C'est un cycle eternel ou une innovation est trouvé, appellée "IA", puis on fait une autre découverte, qui met en évidence les limites de la précédente, du coup on catégorise la précédente et on nomme la derniere "IA". Et ça en boucle...

Je ne vois pas pourquoi ça s'arrêterait. Les connaisseurs gardent la rigueur sémantique qui s'impose (modèle de langage) et les autres non.

Néanmoins, quand on parlait de deep blue, qui a battu kasparov, on ne pouvait se douter qu'il s'agissait d'un supercalculateur avec un algo alpha/beta customisé, ici, on a la chance que le produit populaire porte un bout de sa technologie dans son nom : Chat Generative Pre-trained Transformer. Et c'est rarement rappelé dans les articles classiques.
2  0 
Avatar de L33tige
Membre éprouvé https://www.developpez.com
Le 06/12/2023 à 13:03
Citation Envoyé par Ryu2000 Voir le message
Le but c'est d'appauvrir les gens pour qu'ils consomment moins et donc qu'ils polluent moins.

La suite ce sera de diminuer la population mondiale. (les gens deviennent stérile et on des problèmes de santé)
Parce qu'on ne peut pas être 8 milliards a vivre correctement.
On ne peut pas tous avoir un PC, un smartphone, une voiture, etc. On ne peut pas tous prendre l'avion pour aller au New Jersey ou je ne sais où.

Profitez d'aujourd'hui demain ce sera pire.
Je sais même pas si c'est un plan aussi élaboré que ça, si ça se trouve, c'est encore pire, on est face à une marrée de gens qui globalement s'en fichent et font du business as usual comme à la révolution industrielle et "advienne que pourra".

Des humains bien trop peu responsables entourés de béni-oui-oui avec bien trop de responsabilités et de pouvoir.

Je crois que je préfèrerais encore qu'il y ai un plan.
2  0 
Avatar de krapupul
Candidat au Club https://www.developpez.com
Le 14/10/2023 à 9:35
Si la médecine et la psychologie peuvent fournir une piste pour arranger le problème c'est bien. Par contre si c'est juste un pinaillage sémantique ...
De fait c'est quand même très gênant que les IA délirent ainsi, ça oblige à tout vérifier, à ne pas leur faire confiance.
1  0 
Avatar de Jipété
Expert éminent sénior https://www.developpez.com
Le 14/10/2023 à 10:25
Bonjour,

Citation Envoyé par TJ1985 Voir le message
L'intelligence artificielle est une usurpation sémantique, il faut toujours garder en mémoire que ce n'est qu'un moteur de recherche s'appuyant sur des statistiques d’occurrences.
Il n'y a aucune compréhension de domaine, aucune intelligence dans le sens où nous l'entendons des êtres vivants. ChatGPT et ses cousins n'ont pas d'image du monde, si on veut, ils ne peuvent pas prendre un regard externe pour vérifier leur première assertion.
Comment faire pour que ces deux lignes soient diffusées partout dans le monde et qu'on arrête de nous bassiner dans tous les média avec ce nouvel acronyme à la mode, car ça commence à devenir lassant, IA par ci IA par là, à croire que sans IA plus rien ne peut exister...
ASSEZ !
1  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 06/12/2023 à 13:29
Citation Envoyé par L33tige Voir le message
on est face à une marrée de gens qui globalement s'en fichent
Ouais mais même si ce n'est pas fait exprès, au final les gens vont perde leur travail, ils n'auront plus de revenu et vivront beaucoup moins bien.
Il est probable que les gens s'appauvrissent dans le futur.

De toute façon la croissance infinie est impossible.
Nous sommes limités par les ressources disponible.
Il y a forcement une limite.

Il y a trop d'humains, ils consomment trop, ça ne peut pas durer éternellement.
Il est possible qu'il arrive des évènements violents tel que l'hyperinflation en Allemagne en 1921.
L'économie mondiale finira fatalement par s'effondrer, ça fait trop longtemps que c'est n'importe quoi.
Ils ne pourront pas toujours faire comme en 2008, en repoussant le problème. On ne peut pas fuir en avant pour toujours.
1  0