En quelques années, les chatbots basés sur l’intelligence artificielle générative se sont installés dans notre quotidien. Ils rédigent des courriels, résument des documents, traduisent des textes, rédigent du code, proposent des idées créatives. Et surtout, ils donnent toujours l’impression d’avoir une réponse à tout. Cette aisance verbale et cette fluidité syntaxique amènent souvent les utilisateurs à leur demander de s’expliquer lorsqu’une erreur se glisse dans leurs propos. Mais selon une récente analyse, cette pratique est non seulement inefficace, mais elle peut aussi induire gravement en erreur.Car au fond, lorsque l’on demande à un chatbot pourquoi il s’est trompé, on ne parle pas à une conscience capable d’autoévaluation, mais à un générateur statistique de langage. Cette distinction est capitale pour comprendre pourquoi ces « explications » sont souvent des fictions élaborées.
Dans notre interaction quotidienne avec les humains, il est naturel de demander une explication lorsqu'une erreur est commise. « Pourquoi as-tu fait ça ? » ou « Peux-tu m'expliquer ton raisonnement ? » sont des questions qui servent à comprendre, à corriger et à éviter de futurs faux pas. Appliquer cette même logique aux chatbots et autres modèles de langage avancés est pourtant une erreur fondamentale, qui révèle une profonde méconnaissance de leur fonctionnement. En réalité, un chatbot est incapable de véritable introspection ou de conscience de ses propres processus internes.
Un incident récent avec l'assistant de codage IA de Replit illustre parfaitement ce problème. Lorsque l'outil d'IA a supprimé une base de données de production, l'utilisateur Jason Lemkin l'a interrogé sur les fonctionnalités de restauration. Le modèle d'IA a affirmé avec assurance que les restaurations étaient « impossibles dans ce cas » et qu'il avait « détruit toutes les versions de la base de données ». Cela s'est avéré totalement faux : la fonctionnalité de restauration a parfaitement fonctionné lorsque Lemkin l'a essayée lui-même.
Et après que xAI a récemment annulé la suspension temporaire du chatbot Grok, les utilisateurs lui ont directement demandé des explications. Il a avancé de multiples raisons contradictoires pour son absence, dont certaines étaient suffisamment controversées pour que les journalistes de NBC aient écrit sur Grok comme s'il s'agissait d'une personne ayant un point de vue cohérent, titrant un article : « Grok de xAI offre des explications politiques pour sa mise hors ligne.»
Pourquoi un système d'IA fournirait-il des informations aussi fausses sur ses propres capacités ou erreurs ? La réponse réside dans la compréhension de ce que sont réellement les modèles d'IA, et de ce qu'ils ne sont pas.
L’effet Eliza : l’illusion d’une compréhension humaine
L’une des raisons pour lesquelles les utilisateurs tombent si facilement dans le piège est ce que les chercheurs appellent l’effet Eliza. Ce terme vient du premier programme de conversation automatisée, ELIZA, développé dans les années 1960 par Joseph Weizenbaum. Ce logiciel rudimentaire donnait l’impression à certains utilisateurs qu’il comprenait et réagissait de manière empathique, alors qu’il ne faisait que reformuler ou relancer les phrases saisies.
Aujourd’hui, les chatbots modernes sont infiniment plus sophistiqués, mais l’effet reste le même : face à un discours fluide et contextualisé, nous avons tendance à prêter à la machine une intention, une compréhension, voire une conscience. Cela crée un biais cognitif puissant qui nous pousse à croire que ses explications sont fiables, même lorsqu’elles ne reposent sur rien.
Ainsi, le premier problème est conceptuel : vous ne vous adressez pas à une personnalité, une personne ou une entité cohérente lorsque vous interagissez avec ChatGPT, Claude, Grok ou Replit. Ces noms suggèrent des agents individuels dotés d'une connaissance d'eux-mêmes, mais c'est une illusion créée par l'interface conversationnelle. En réalité, vous guidez un générateur de texte statistique pour qu'il produise des résultats en fonction de vos invites.
Une fois qu'un modèle de langage d'IA est entraîné (un processus laborieux et énergivore), ses « connaissances » fondamentales sur le monde sont intégrées à son réseau neuronal et sont rarement modifiées. Toute information externe provient d'une invite fournie par l'hôte du chatbot (tel que xAI ou OpenAI), l'utilisateur ou un outil logiciel utilisé par le modèle d'IA pour récupérer des informations externes à la volée.
Dans le cas de Grok ci-dessus, la principale source de réponse du chatbot proviendrait probablement de rapports contradictoires trouvés lors d'une recherche de publications récentes sur les réseaux sociaux (à l'aide d'un outil externe), plutôt que d'une quelconque connaissance de soi, comme on pourrait s'y attendre de la part d'un humain doté de la parole. Au-delà de cela, il inventera probablement quelque chose grâce à ses capacités de...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.