IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les experts techniques commencent à douter que les « hallucinations » de ChatGPT disparaîtront un jour : « Ce n'est pas réparable ».
Pour eux, les LLM vont continuer d'inventer des faits

Le , par Stéphane le calme

205PARTAGES

8  0 
ChatGPT est un modèle de langage artificiel qui peut générer des réponses fluides et pertinentes à partir de n’importe quelle entrée textuelle. Il a impressionné le monde par la profondeur de ses connaissances et la qualité de ses dialogues, mais un problème a entravé son utilité: il a tendance à inventer des choses qui ne sont pas vraies. On appelle cela des «hallucinations». Selon certains chercheurs, cette situation n'est pas près d'être corrigée.

Anthropic, OpenAI, fabricant de ChatGPT, et d'autres développeurs majeurs de systèmes d'IA connus sous le nom de grands modèles de langage disent qu'ils travaillent pour les rendre plus véridiques. Combien de temps cela prendra - et s'ils seront jamais assez bons pour, par exemple, donner des conseils médicaux en toute sécurité - reste à voir.


Passez suffisamment de temps avec ChatGPT et d'autres chatbots d'intelligence artificielle et il ne leur faudra pas longtemps pour débiter des mensonges.

Décrit comme une hallucination, une confabulation ou simplement une invention, c'est maintenant un problème pour chaque entreprise, organisation et lycéen essayant d'obtenir d'un système d'IA générative de la documentation pour un travail donné. Certains l'utilisent pour des tâches pouvant avoir des conséquences importantes, de la psychothérapie à la recherche et à la rédaction de mémoires juridiques.

Les hallucinations sont le résultat du fonctionnement de ChatGPT, qui consiste à prédire des chaînes de mots qui correspondent le mieux à la requête de l’utilisateur, sans tenir compte de la logique ou des incohérences factuelles. En d’autres termes, l’IA peut parfois dérailler en essayant de satisfaire l’utilisateur. Par exemple, ChatGPT peut affirmer que la capitale de la France est Berlin, ou que le président des États-Unis est Donald Trump, sans vérifier la véracité de ces informations.

Ce problème n’est pas propre à ChatGPT, mais affecte tous les modèles de langage de grande taille (LLM), qui sont entraînés sur d’énormes quantités de données textuelles provenant du web. Ces données peuvent être incomplètes, biaisées, obsolètes ou erronées, ce qui limite la fiabilité des LLM. De plus, les LLM ne comprennent pas vraiment le sens des mots qu’ils produisent, mais se basent sur des statistiques et des probabilités pour générer du texte.

« Je ne pense pas qu'il existe aujourd'hui un modèle qui ne souffre pas d'hallucinations », a déclaré Daniela Amodei, co-fondatrice et présidente d'Anthropic, fabricant du chatbot Claude 2. « Ils sont vraiment conçus en quelque sorte pour prédire le mot suivant », a continué Amodei. « Et donc il y aura un certain rythme auquel le modèle le fera de manière inexacte ».

Les entreprises tentent d'endiguer le problème

Les développeurs de ChatGPT et d’autres LLM affirment qu’ils travaillent à rendre leurs systèmes plus véridiques. Ils utilisent différentes techniques pour détecter et corriger les hallucinations, comme l’introduction de sources externes de connaissances, la vérification croisée des faits ou l’utilisation de signaux de rétroaction des utilisateurs. Cependant, ces solutions ne sont pas parfaites et peuvent introduire d’autres problèmes, comme la complexité, le coût ou la manipulation.

Certains experts en technologie sont sceptiques quant à la possibilité d’éliminer complètement les hallucinations des LLM. Ils soutiennent que c’est une conséquence inévitable du décalage entre la technologie et les cas d’utilisation proposés. « Ce n'est pas réparable », a déclaré Emily Bender, professeur de linguistique et directrice du laboratoire de linguistique informatique de l'Université de Washington. « C'est inhérent à l'inadéquation entre la technologie et les cas d'utilisation proposés ».

Ces experts mettent en garde contre les risques potentiels des hallucinations pour la sécurité, l’éthique ou la crédibilité des applications basées sur les LLM, comme les chatbots, la rédaction d’articles, la génération de code ou le conseil médical.

D’autres...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de totozor
Expert confirmé https://www.developpez.com
Le 03/08/2023 à 8:16
Nous voulons que les IA ressemblent à l'homme.
On s'étonne que l'IA a des hallucinations mais l'homme en a aussi.
Oui mais l'IA c'est des machines et les machines ne se trompent jamais! Vraiment?
Les profs compétents m'ont montré à quel point une calculatrice, excel, un logiciel de calcul éléments finis fournissent le mauvais résultat si on les utilise mal. Et les premiers mauvais résultats sont le résultats de mon incompétence mais il arrive un moment où ce sont les limites de l'outil qui posent problème. Et le rôle de l'expert est de reconnaitre les résultats abérrant et de savoir quand on joue avec les limites de l'outil.

Mais la démocratisation de l'IA et son exploitation pour tout est l'éloge de la médiocrité.
Vous avez trois choix si vous utilisez l'IA :
_ trouver une IA qui cite ses sources
_ vérifier ce que l'IA dit
_ vivre dans une illusion de savoir

Ce que je trouve le plus inquiétant est qu'en entreprise ceux qui font la promotion de l'IA générative, prennent ChatGPT comme exemple, disent du bout des lèvres qu'elle "ment" de temps en temps mais concluent en disant :
- Il faut déployer une IA
- Elle ne doit pas donner ses sources, ça la rendrait moins efficace
- Grace à elle nous seront plus rapide, plus précis et plus fiables.

Je n'ai qu'une explication rationnelle, ces personnes ont fait leur présentation grâce à l'IA et démontrent sa limite et leur médiocrité.
Mais comme leur plan implique leur remplacement nous y gagnerons à terme
6  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 02/08/2023 à 22:23
Si les "experts techniques" étaient de vrais experts en IA, ils sauraient que les "hallucinations" sont présentes dans tous les systèmes IA depuis le début de l'IA et que c'est même un problème que aucun vrai expert en IA ne comprend, ni ne sait comment résoudre!!!

En résumé, ces "hallucinations" sont des comportements illogiques de l'IA qui apparaissent de manière imprévisible. On l'illustre avec l'IA qui prend une orange pour un hélicoptère!

1° On apprend à une IA a reconnaître sur photo les oranges

2° On prend une photo d'orange, on y change un pixel

3° Alors que pour l'humain, il s'agit toujours d'une photo d'orange, voilà que l'IA dit "c'est un hélicoptère"

ChatGPT étant une IA, ChatGPT aura les mêmes limitations que toutes les IA!!!
3  1 
Avatar de walfrat
Membre émérite https://www.developpez.com
Le 03/08/2023 à 11:19
Ces IA sont programmes pour taper la discute de façon intelligente, ça marche. En revanche elles n'ont jamais été prévu pour dire "la vérité" ou sourcer ses informations de "sources fiables".
1  0 
Avatar de Madmac
Membre extrêmement actif https://www.developpez.com
Le 04/08/2023 à 20:16
J'avais émit des doutes sur la possibilité de concilier la rectitude politique et l'intelligence artificielle. Mes doutes sont confirmées.

https://www.youtube.com/shorts/crraP6-tg2w?feature=share
0  0