ChatGPT est un chatbot et un assistant virtuel développé par OpenAI et lancé le 30 novembre 2022. Basé sur de grands modèles de langage (LLM), il permet aux utilisateurs d'affiner et d'orienter une conversation vers une longueur, un format, un style, un niveau de détail et un langage souhaités. Les invites et les réponses successives de l'utilisateur sont prises en compte à chaque étape de la conversation en tant que contexte.
Les grands modèles de langage (LLM), des programmes qui utilisent des quantités de textes disponibles et des calculs de probabilité afin de créer des écrits apparemment produits par des humains, sont devenus de plus en plus sophistiqués et convaincants au cours des dernières années. Au point que certains commentateurs suggèrent qu'on pourrait maintenant être proches de la création d'une intelligence artificielle générale.
Outre les inquiétudes concernant la montée de Skynet et l'utilisation de LLM tels que ChatGPT pour remplacer le travail qui pourrait et devrait être effectué par des humains, une ligne d'enquête concerne ce que ces programmes sont exactement en train de faire : en particulier, il y a une question sur la nature et la signification du texte produit, et sur son lien avec la vérité. Les applications de ces systèmes ont été entachées d'inexactitudes persistantes dans leurs résultats, souvent appelées "hallucinations de l'IA".
Selon une nouvelle étude, ces faussetés et l'activité globale des grands modèles de langage sont mieux comprises comme des âneries dans le sens exploré par Frankfurt (On Bullshit, Princeton, 2005) : les modèles sont d'une manière importante indifférents à la vérité de leurs sorties. La recherche distingue deux façons dont les modèles peuvent être considérés comme des "raconteurs d'âneries". Elle soutient également qu'ils répondent clairement à au moins l'une de ces définitions. Ainsi, décrire les fausses déclarations de l'IA comme des âneries est à la fois une manière plus utile et plus précise de prédire et de discuter du comportement de ces systèmes.
Pourquoi ChatGPT est une ânerie ?
Les investisseurs, les décideurs politiques et les membres du grand public prennent des décisions sur la manière de traiter ces machines et de réagir à leur égard en se fondant non pas sur une compréhension technique approfondie de leur fonctionnement, mais sur la manière souvent métaphorique dont leurs capacités et leurs fonctions sont communiquées. Qualifier leurs erreurs d'hallucinations n'est pas anodin : cela prête à confusion, car les machines perçoivent mal, d'une certaine manière, mais essaient néanmoins de transmettre quelque chose qu'elles croient ou qu'elles ont perçu.
Selon la recherche, il s'agit là d'une mauvaise métaphore. Les machines n'essaient pas de communiquer quelque chose qu'elles croient ou perçoivent. Leur inexactitude n'est pas due à une perception erronée ou à une hallucination. Elles n'essaient pas du tout de transmettre des informations. La recherche s'oppose à l'idée que lorsque ChatGPT et ses semblables produisent de fausses affirmations, ils mentent ou même hallucinent.
Elle défend la position selon laquelle l'activité à laquelle les LLM se livrent est le "bullshitting", au sens de Frankfurt (l'art de dire des âneries). Étant donné que ces programmes ne peuvent pas se préoccuper de la vérité et qu'ils sont conçus pour produire des textes qui semblent conformes à la vérité sans se préoccuper de la vérité, il semble approprié de qualifier leurs résultats d' "âneries".
Les auteurs déclarent :
Nous pensons que cela vaut la peine d'y prêter attention. Les descriptions des nouvelles technologies, y compris les descriptions métaphoriques, guident les décideurs politiques et le public dans leur compréhension des nouvelles technologies ; elles informent également les applications des nouvelles technologies. Elles nous disent à quoi sert la technologie et ce que l'on peut en attendre. Actuellement, les fausses déclarations de ChatGPT et d'autres grands modèles de langage sont décrites comme des hallucinations, ce qui donne aux décideurs politiques et au public l'idée que ces systèmes déforment le monde et décrivent ce qu'ils voient. Nous soutenons qu'il s'agit d'une métaphore inadaptée qui désinforme le public, les décideurs politiques et les autres parties intéressées.
Mais aucune de ces façons de penser n'est exacte, dans la mesure où le mensonge et l'hallucination requièrent une certaine préoccupation quant à la véracité de leurs déclarations, alors que les LLM ne sont tout simplement pas conçus pour représenter fidèlement la façon dont le monde est, mais plutôt pour donner l'impression que c'est ce qu'ils font. Cela est très proche d'au moins une des façons dont Francfurt parle de l'ânerie.
La recherche établit une distinction entre deux types d'âneries, que les auteurs appellent âneries "dures" et âneries "douces". Les premières nécessitant une tentative active de tromper le lecteur ou l'auditeur quant à la nature de l'entreprise, et les secondes ne nécessitant qu'un manque de souci de la vérité.
Au minimum, les résultats des LLM tels que ChatGPT sont des âneries douces : c'est-à-dire des discours ou des textes produits sans se soucier de la vérité, sans intention de tromper l'auditoire sur l'attitude de l'auteur à l'égard de la vérité. Mais elle suggère également, de manière plus controversée, que ChatGPT peut en effet produire des âneries "dures" : si on considère qu'il a des intentions (par exemple, en vertu de la manière dont il est conçu), alors le fait qu'il soit conçu pour donner l'impression de se préoccuper de la vérité le qualifie comme tentant d'induire le public en erreur sur ses objectifs, ses buts ou son agenda.
Les auteurs commentent :
Ainsi, sous réserve que le type particulier d'âneries produites par ChatGPT dépende de certaines conceptions de l'esprit ou du sens, nous concluons qu'il est approprié de parler des textes générés par ChatGPT comme d'âneries, et nous soulignons pourquoi il est important que, plutôt que de considérer ses affirmations fausses comme des mensonges ou des hallucinations, nous disions que ChatGPT raconte des âneries.
Conclusion
Qualifier les inexactitudes des chatbots d'hallucinations alimente le battage médiatique exagéré sur leurs capacités parmi les pom-pom girls de la technologie, et pourrait susciter une consternation inutile au sein du grand public. Cette erreur suggère également des solutions aux problèmes d'inexactitude qui pourraient ne pas fonctionner, et pourrait conduire à des efforts malavisés d'alignement de l'IA parmi les spécialistes. Elle peut également conduire à une mauvaise attitude à l'égard de la machine lorsqu'elle obtient des résultats corrects : les inexactitudes montrent qu'elle raconte des âneries, même lorsqu'elle a raison. Appeler ces inexactitu d'"âneries" plutôt qu'"hallucinations" n'est pas seulement plus précis, c'est aussi une bonne communication scientifique et technologique dans un domaine qui en a cruellement besoin.
Source : "ChatGPT is bullshit"
Et vous ?
Pensez-vous que cette recherche est crédible ou pertinente ?
Quel est votre avis sur le sujet ?
Voir aussi :
L'hallucination est inévitable et serait une limitation innée des grands modèles de langage en intelligence artificielle, selon une étude sur la possibilité d'éliminer les hallucinations des LLM
Les grands modèles de langage confabulent, ils n'hallucinent pas, d'après Beren Millidge, responsable de la recherche IA chez Conjecture
LLM par taux d'hallucinations : GPT-4 est le modèle de langage IA qui hallucine le moins, d'après une évaluation de Vectara qui suggère que les LLM de Google sont les moins fiables