IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Le piège de la personnalité : l'IA simule la personnalité humaine pour tromper votre perception et créer une fausse impression de conscience ou de fiabilité,
Mettant en danger les personnes vulnérables

Le , par Mathis Lucas

230PARTAGES

4  0 
Les experts rappellent une réalité qui se noie dans le battage médiatique autour de l'IA : les chatbots comme ChatGPT ou Grok donnent l’impression d’avoir une personnalité, mais il s’agit d’une illusion. Ils ne sont pas conscients, n’ont pas d’identité, et ne peuvent pas être tenus responsables de leurs propos. Chaque réponse est générée à partir de modèles statistiques qui relient des concepts entre eux, créant du texte plausible, mais pas nécessairement vrai. Cette illusion peut pousser des personnes vulnérables à accorder une confiance excessive à l’IA dans des contextes sensibles, ce qui s'observe déjà avec la montée en puissance des thérapeutes IA.

Lorsque vous interagissez avec ChatGPT, Claude ou Grok, vous ne communiquez pas avec une personnalité cohérente. Il n'existe pas d'entité unique « Grok » qui puisse vous expliquer pourquoi elle a échoué. Vous interagissez avec un système qui génère des textes plausibles à partir de modèles issus de données d'entraînement, et non avec une personne dotée d'une conscience de soi permanente. Le défi posé par l’illusion de personnalité des IA reste entier.

Récemment, une femme a ralenti la file d'attente à la poste en brandissant son téléphone devant l'employé. ChatGPT lui avait dit qu'il existait "une promesse de prix garanti" sur le site Web du service postal des États-Unis (USPS). Or, une telle promesse n'existe pas. Mais elle a fait davantage confiance à ce que « savait » l'IA qu'à l'employé de la poste, comme si elle avait consulté un oracle plutôt qu'un générateur de texte statistique répondant à ses souhaits.

Cette scène révèle une incompréhension fondamentale des chatbots. Les résultats générés par l'IA n'ont rien d'intrinsèquement spécial, faisant autorité ou précis. La précision de toute réponse d'un grand modèle de langage (LLM) dépend de la manière dont l'utilisateur le guide dans la conversation. Ce sont des machines de prédiction qui produiront la réponse qui correspond le mieux à votre question, que ce résultat corresponde ou non à la réalité.



La « personnalité » d’une IA résulte d’un empilement de techniques. Ces modèles encodent le sens sous forme de relations mathématiques, transformant les mots en chiffres qui capturent la manière dont les concepts sont liés les uns aux autres. Dans les représentations internes des modèles, les mots et les concepts existent sous forme de points dans un vaste espace mathématique où « USPS » peut être géométriquement proche de « expédition ».

Chaque réponse du chatbot est générée à partir de la requête que vous fournissez, et est façonnée par les données d'entraînement et la configuration. ChatGPT ne peut pas « admettre » quoi que ce soit ni analyser impartialement ses propres résultats. ChatGPT ne peut pas non plus « tolérer le meurtre ».

Comment l'IA crée l’illusion de personnalité

Contrairement aux modèles d'IA actuels, la personnalité humaine conserve une continuité dans le temps. Lorsque vous retrouvez un ami humain après un an, vous interagissez avec le même ami humain, façonné par ses expériences au fil du temps. Cette continuité du moi est l'un des éléments qui sous-tendent l'action réelle et, avec elle, la capacité à prendre des engagements durables, à maintenir des valeurs cohérentes et à être tenu responsable.

L'ensemble de notre cadre de responsabilité repose à la fois sur la persistance et la personnalité.

La personnalité apparente de l'IA, en revanche, n'a aucun lien de causalité entre les sessions. Le moteur intellectuel qui génère une réponse intelligente dans une session n'existe pas pour faire face aux conséquences dans la suivante. Lorsque ChatGPT dit « Je promets de vous aider », il peut comprendre, d'un point de vue contextuel, ce que signifie une promesse, mais le « je » qui fait cette promesse cesse littéralement d'exister dès que la réponse est terminée.

Commencez une nouvelle conversation, et vous ne parlez pas à quelqu'un qui vous a fait une promesse, vous démarrez une nouvelle instance du moteur intellectuel sans aucun lien avec les engagements précédents. Bien sûr, il ne s'agit pas ici de nier l'utilité potentielle des modèles d'IA.

Mais il est important de noter que l'IA est un intellectuel sans identité propre, tout comme un moteur mécanique sans cheval. Les grands modèles de langage semblent « comprendre » et « raisonner » dans une certaine mesure, dans le cadre limité de la reconnaissance de modèles à partir d'un ensemble de données, selon la façon dont on définit ces termes. L'erreur n'est pas de reconnaître que ces capacités cognitives simulées sont réelles.

L'erreur consiste à supposer que la pensée nécessite un penseur, que l'intelligence nécessite une identité. Selon les experts, nous avons créé « des moteurs intellectuels qui ont une forme de capacité de raisonnement, mais pas de moi persistant pour en assumer la responsabilité ».

Les mécanismes de la diversion

Les modèles fonctionnent en convertissant le langage en relations numériques. Les mots et les idées deviennent des points dans un espace à haute dimension, et le modèle navigue entre ces connexions pour produire un texte cohérent. Par exemple, si un utilisateur pose une question sur l'USPS et l'alignement des prix, le modèle ne « sait » pas si une telle...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !