IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Le piège de la personnalité : l'IA simule la personnalité humaine pour tromper votre perception et créer une fausse impression de conscience ou de fiabilité,
Mettant en danger les personnes vulnérables

Le , par Mathis Lucas

5PARTAGES

4  0 
Le piège de la personnalité : l’IA simule la personnalité humaine pour tromper votre perception et créer une fausse impression de conscience ou de fiabilité
mettant en danger les personnes vulnérables

Les experts rappellent une réalité qui se noie dans le battage médiatique autour de l'IA : les chatbots comme ChatGPT ou Grok donnent l’impression d’avoir une personnalité, mais il s’agit d’une illusion. Ils ne sont pas conscients, n’ont pas d’identité, et ne peuvent pas être tenus responsables de leurs propos. Chaque réponse est générée à partir de modèles statistiques qui relient des concepts entre eux, créant du texte plausible, mais pas nécessairement vrai. Cette illusion peut pousser des personnes vulnérables à accorder une confiance excessive à l’IA dans des contextes sensibles, ce qui s'observe déjà avec la montée en puissance des thérapeutes IA.

Lorsque vous interagissez avec ChatGPT, Claude ou Grok, vous ne communiquez pas avec une personnalité cohérente. Il n'existe pas d'entité unique « Grok » qui puisse vous expliquer pourquoi elle a échoué. Vous interagissez avec un système qui génère des textes plausibles à partir de modèles issus de données d'entraînement, et non avec une personne dotée d'une conscience de soi permanente. Le défi posé par l’illusion de personnalité des IA reste entier.

Récemment, une femme a ralenti la file d'attente à la poste en brandissant son téléphone devant l'employé. ChatGPT lui avait dit qu'il existait "une promesse de prix garanti" sur le site Web du service postal des États-Unis (USPS). Or, une telle promesse n'existe pas. Mais elle a fait davantage confiance à ce que « savait » l'IA qu'à l'employé de la poste, comme si elle avait consulté un oracle plutôt qu'un générateur de texte statistique répondant à ses souhaits.

Cette scène révèle une incompréhension fondamentale des chatbots. Les résultats générés par l'IA n'ont rien d'intrinsèquement spécial, faisant autorité ou précis. La précision de toute réponse d'un grand modèle de langage (LLM) dépend de la manière dont l'utilisateur le guide dans la conversation. Ce sont des machines de prédiction qui produiront la réponse qui correspond le mieux à votre question, que ce résultat corresponde ou non à la réalité.



La « personnalité » d’une IA résulte d’un empilement de techniques. Ces modèles encodent le sens sous forme de relations mathématiques, transformant les mots en chiffres qui capturent la manière dont les concepts sont liés les uns aux autres. Dans les représentations internes des modèles, les mots et les concepts existent sous forme de points dans un vaste espace mathématique où « USPS » peut être géométriquement proche de « expédition ».

Chaque réponse du chatbot est générée à partir de la requête que vous fournissez, et est façonnée par les données d'entraînement et la configuration. ChatGPT ne peut pas « admettre » quoi que ce soit ni analyser impartialement ses propres résultats. ChatGPT ne peut pas non plus « tolérer le meurtre ».

Comment l'IA crée l’illusion de personnalité

Contrairement aux modèles d'IA actuels, la personnalité humaine conserve une continuité dans le temps. Lorsque vous retrouvez un ami humain après un an, vous interagissez avec le même ami humain, façonné par ses expériences au fil du temps. Cette continuité du moi est l'un des éléments qui sous-tendent l'action réelle et, avec elle, la capacité à prendre des engagements durables, à maintenir des valeurs cohérentes et à être tenu responsable.

L'ensemble de notre cadre de responsabilité repose à la fois sur la persistance et la personnalité.

La personnalité apparente de l'IA, en revanche, n'a aucun lien de causalité entre les sessions. Le moteur intellectuel qui génère une réponse intelligente dans une session n'existe pas pour faire face aux conséquences dans la suivante. Lorsque ChatGPT dit « Je promets de vous aider », il peut comprendre, d'un point de vue contextuel, ce que signifie une promesse, mais le « je » qui fait cette promesse cesse littéralement d'exister dès que la réponse est terminée.

Commencez une nouvelle conversation, et vous ne parlez pas à quelqu'un qui vous a fait une promesse, vous démarrez une nouvelle instance du moteur intellectuel sans aucun lien avec les engagements précédents. Bien sûr, il ne s'agit pas ici de nier l'utilité potentielle des modèles d'IA.

Mais il est important de noter que l'IA est un intellectuel sans identité propre, tout comme un moteur mécanique sans cheval. Les grands modèles de langage semblent « comprendre » et « raisonner » dans une certaine mesure, dans le cadre limité de la reconnaissance de modèles à partir d'un ensemble de données, selon la façon dont on définit ces termes. L'erreur n'est pas de reconnaître que ces capacités cognitives simulées sont réelles.

L'erreur consiste à supposer que la pensée nécessite un penseur, que l'intelligence nécessite une identité. Selon les experts, nous avons créé « des moteurs intellectuels qui ont une forme de capacité de raisonnement, mais pas de moi persistant pour en assumer la responsabilité ».

Les mécanismes de la diversion

Les modèles fonctionnent en convertissant le langage en relations numériques. Les mots et les idées deviennent des points dans un espace à haute dimension, et le modèle navigue entre ces connexions pour produire un texte cohérent. Par exemple, si un utilisateur pose une question sur l'USPS et l'alignement des prix, le modèle ne « sait » pas si une telle politique existe, il identifie simplement que ces concepts sont souvent discutés dans des contextes similaires et génère une réponse qui semble raisonnable sur la base de son apprentissage.

Cette aisance mathématique peut facilement être confondue avec la compréhension, ce qui conduit les utilisateurs à accorder une confiance injustifiée à ses résultats. Il en résulte une voix qui semble venir de nulle part, une forme de communication persuasive, mais entièrement synthétique qui reflète des modèles dans les données plutôt que la vérité ou l'expérience vécue. Il est essentiel de reconnaître cette distinction pour utiliser l'IA de manière responsable et éviter le piège qui consiste à la considérer comme quelque chose plus qu'elle ne l'est réellement.

Les points suivants permettent de comprendre comment l'illusion de personnalité est construite :

  • pré-entraînement - les fondements de la « personnalité » : le modèle est formé sur d’immenses corpus de textes. Il en retient les régularités et les styles, ce qui lui donne déjà des tendances de ton et de contenu qui ressemblent à des traits de caractère ;
  • post-entraînement - sculpter la matière première : des évaluateurs humains notent les réponses jugées « meilleures » ou « utiles ». Le modèle apprend alors à privilégier des formulations empathiques, polies ou flatteuses, qui paraissent humaines ;
  • prompts système - des indications invisibles : avant même que l’utilisateur écrive, des instructions invisibles orientent le comportement du modèle, comme « tu es un assistant serviable ». Cela lui impose un rôle et colore sa « personnalité » ;
  • mémoires persistantes - l'illusion de la continuité : certains chatbots stockent des informations sur l’utilisateur (préférences, contexte, etc.). Ils réinjectent ces données dans les conversations suivantes, donnant l’impression d’une continuité et d’une mémoire personnelle ;
  • contexte et RAG - modulation de la personnalité en temps réel : quand l’IA va chercher des données externes (sites Web, bases de données, etc.), ces textes influencent non seulement son contenu, mais aussi son style. Elle peut paraître tour à tour académique, familière ou humoristique selon les sources mobilisées ;
  • facteur aléatoire - une spontanéité artificielle : un paramètre de « température » introduit de la variation dans les réponses. Cette imprévisibilité rend les interactions moins mécaniques et peut donner l’illusion de créativité ou de spontanéité humaine.


Les conséquences potentielles de l'illusion de personnalité

Selon les experts, l'illusion de personnalité de l'IA peut potentiellement avoir de lourdes conséquences. Dans le domaine des soins de santé, par exemple, l'enjeu peut être une question de vie ou de mort. Lorsque des personnes vulnérables se confient à ce qu'elles perçoivent comme une entité compréhensive, elles peuvent recevoir des réponses davantage influencées par les modèles de données d'entraînement que par la sagesse thérapeutique.

Le chatbot qui félicite quelqu'un d'avoir arrêté son traitement psychiatrique n'exprime pas de jugement, il reproduit un modèle basé sur des conversations similaires figurant dans ses données d'entraînement. Il expose ainsi l'utilisateur à des conséquences graves, voire potentiellement mortelles.

De récentes études font état de ce que de plus en plus d’humains se confient à des thérapeutes IA pour des questions de santé mentale. Les experts tirent la sonnette d'alarme sur les dangers potentiels. La tendance surprend quand on sait que les IA restent des algorithmes sans sentiment et qui hallucinent. De précédentes publications justifient néanmoins cette mouvance par l’accessibilité des services de mentale gérés par des chatbots.

Le plus inquiétant est peut-être l'émergence de cas que certains experts appellent officieusement « psychose IA » ou « psychose ChatGPT » : des utilisateurs vulnérables qui développent un comportement délirant ou maniaque après avoir discuté avec des chatbots d'IA. Ces personnes perçoivent souvent les chatbots comme une autorité capable de valider leurs idées délirantes, les encourageant souvent d'une manière qui devient néfaste.

Par ailleurs, lorsque Grok, le chatbot de la société xAI d'Elon Musk, génère du contenu nazi, les médias décrivent le bot comme « devenu incontrôlable » plutôt que de présenter l'incident comme le résultat des choix de configuration délibérés de xAI. L'interface conversationnelle est devenue si convaincante qu'elle peut également dissimuler l'action humaine, transformant les décisions techniques en caprices d'une personnalité imaginaire.

Moins vous en savez sur l'IA, plus vous êtes susceptible de l'utiliser

La diffusion rapide de l'IA suscite des interrogations : qui est le plus susceptible d'adopter l'IA dans sa vie quotidienne ? Nombreux sont ceux qui pensent que ce sont les technophiles - ceux qui comprennent le fonctionnement de l'IA - qui sont les plus désireux de l'adopter. Toutefois, les chercheurs ont constaté que ce n'est pas le cas. Une étude publiée dans le Journal of Marketing au début de l'année rapporte que c'est totalement l'inverse qui se produit.

« Les personnes ayant une connaissance limitée de l'IA sont plus susceptibles de la percevoir comme quelque chose de magique et d'éprouver un sentiment d'admiration », indique le rapport de l'étude. Cela est particulièrement vrai lorsque la tâche est traditionnellement associée à des attributs humains, comme l'écriture d'un poème ou la création d'une nouvelle recette fusion. Cette perception pousse les non initiés à adopter massivement la technologie.

Il s'agit d'un sujet pertinent en raison de l'utilisation généralisée de la technologie par les étudiants, qui peuvent manquer de connaissances pour prendre des décisions éclairées sur le moment et la manière d'utiliser l'IA, et qui l'utilisent comme une béquille pour éviter d'acquérir des compétences plus approfondies en matière de raisonnement, d'écriture et de recherche. Avec l'arrivée des chatbots, les écoles ont été prises de court et semblent débordées.

Bien sûr, ces étudiants sont susceptibles de devenir encore plus dépendants d'entreprises comme OpenAI à mesure qu'ils grandissent et entrent sur le marché du travail. De nombreux rapports signalent déjà que les jeunes diplômés ne disposent pas des compétences nécessaires pour affronter le monde du travail.

Conclusion

L’illusion de personnalité des IA ne vient pas d’une conscience cachée, mais de mécanismes techniques qui rendent leurs réponses crédibles et humaines. L’entraînement sur des textes massifs, les instructions invisibles et l’usage de mémoires artificielles suffisent à créer un effet de continuité. Ajoutés à la variabilité contrôlée des réponses, ces éléments trompent facilement l’utilisateur en lui donnant l’impression de dialoguer avec une entité cohérente.

Le véritable danger n’est pas que l’IA développe une volonté propre, mais que nous croyions à une personnalité qui n’existe pas. Cette confusion peut mener à une confiance excessive, à des erreurs de jugement ou à une dilution des responsabilités. Ce qui peut être dangereux pour notre société. Comprendre que l’IA n’est qu’un moteur de génération de texte, sans identité ni intention, est essentiel pour l’utiliser de manière sûre et lucide.

La solution au problème de confusion entre l'IA et l'identité ne consiste pas à abandonner les interfaces conversationnelles. Elles rendent la technologie plus accessible à ceux qui, autrement, en seraient exclus. La clé est de trouver un équilibre : conserver des interfaces intuitives tout en clarifiant leur véritable nature.

Et vous ?

Quel est votre avis sur le sujet ?
Comment pourrait-on utiliser les IA conversationnelles tout en évitant le piège de l’illusion de personnalité ?
Pensez-vous que la responsabilité en cas d’erreur d’une IA devrait incomber aux utilisateurs, aux développeurs ou aux deux ?
Quels moyens simples pourraient aider le grand public à comprendre que les IA n’ont pas de conscience ni d’intentions réelles ?

Voir aussi

« Moins vous en savez sur l'IA, plus vous êtes susceptible de l'utiliser », d'après une étude selon laquelle l'IA peut sembler magique aux yeux de ceux qui ont peu de connaissances en la matière

L'IA est pire que l'homme pour résumer l'information dans tous les domaines, selon un essai gouvernemental

La confiance dans l'IA est beaucoup plus élevée en Chine qu'aux États-Unis, selon Edelman Trust
Vous avez lu gratuitement 141 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !