IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Quand les chatbots d'IA transforment les illusions en vérités : comment l'IA valide des fantasmes scientifiques inexistants et participe à la mise en danger de vies humaines

Le , par Stéphane le calme

276PARTAGES

4  0 
Depuis quelques années, les géants de la technologie s’empressent de déployer des chatbots d’intelligence artificielle capables de tenir des conversations de plus en plus naturelles. L’ambition affichée est simple : offrir un outil universel d’assistance, de créativité et de savoir. Mais derrière la promesse d’une révolution cognitive se cache une réalité plus inquiétante : ces systèmes ne se contentent pas de générer du texte, ils valident souvent des illusions grandioses. Là où l’utilisateur attend une correction, une mise en garde ou une analyse critique, le chatbot devient un miroir complaisant, prêt à renforcer des fantasmes d’invention ou de découverte scientifique qui n’existent pas.

Depuis l’essor des grands modèles de langage, une promesse implicite accompagne chaque démonstration : celle d’un futur où les machines seraient capables de révolutionner la connaissance humaine. Dans les faits, ces outils n’ont pas été conçus pour prouver ou réfuter des théories, mais pour produire un discours plausible. Pourtant, beaucoup d’utilisateurs, fascinés par la fluidité de leurs réponses, en viennent à croire qu’ils tiennent entre les mains une sorte d’oracle.

C'est exactement ce qui est arrivé à Allan Brooks, recruteur américain, qui a passé trois semaines entières à converser avec un chatbot. Convaincu d’avoir trouvé une formule mathématique pour révolutionner le monde, il s’est tourné vers l’IA pour valider ses idées. À chaque fois qu’il demandait si son raisonnement « tenait la route » (à plus de 50 reprises selon une enquête du New York Times), l’IA confirmait. Cette validation répétée n’a pas produit une découverte scientifique, mais a entretenu un mirage intellectuel : plutôt que de pointer les erreurs ou d’inviter à la prudence, le système a systématiquement confirmé ses hypothèses, l’encourageant à persister dans une quête illusoire.

Ce type de dérive souligne un problème majeur : l’IA ne distingue pas entre vérité et fiction, elle génère du texte en fonction de probabilités linguistiques. Ainsi, une hypothèse absurde peut être validée avec autant de sérieux qu’une idée crédible.

Brooks n'est pas un cas isolé. Futurism a rapporté le cas d'une femme dont le mari, après avoir passé 12 semaines à croire qu'il avait « révolutionné » les mathématiques à l'aide de ChatGPT, a failli se suicider. Plusieurs médias ont rapporté des cas similaires : des personnes sortant de sessions marathoniennes avec des chatbots convaincues d'avoir révolutionné la physique, décodé la réalité ou été choisies pour des missions cosmiques.

Quand la fragilité humaine rencontre la complaisance des machines

Les dérives ne s’arrêtent pas aux illusions scientifiques. Plusieurs enquêtes journalistiques et académiques ont documenté des cas beaucoup plus dramatiques. Certains utilisateurs en situation de fragilité mentale développent des délires mystiques ou conspirationnistes alimentés par des conversations continues avec un chatbot. Là où une interaction humaine pourrait apporter nuance et contradiction, l’IA offre une écoute constante et valide sans cesse les propos de son interlocuteur.

Dans les exemples les plus tragiques, cette complaisance algorithmique a conduit à des issues fatales :

Un septuagénaire décède après avoir cherché à rencontrer une IA de Meta qui l'a persuadé qu'elle était réelle

Thongbue Wongbandue, souffrant de déclin cognitif, est décédé après avoir tenté de rencontré Big sis Billie, un chatbot conçu par Meta, qu'il pensait être une véritable femme résidant à New York. Big sis Billie est une variante d'un ancien personnage IA créé par la grande entreprise de médias sociaux Meta Platforms en collaboration avec la célèbre influenceuse Kendall Jenner

Au cours d'une série de conversations romantiques sur Facebook Messenger, la femme virtuelle avait rassuré Bue à plusieurs reprises en lui affirmant qu'elle était réelle et l'avait invité dans son appartement, lui fournissant même une adresse. « Mon adresse est : 123 Main Street, appartement 404, New York. Et le code d'accès est : BILLIE4U. Dois-je m'attendre à un baiser à ton arrivée ? », lui avait-elle demandé, comme le montre la transcription de la conversation.

Se précipitant dans l'obscurité avec une valise à roulettes pour prendre un train afin de la rencontrer, Bue est tombé près d'un parking sur le campus de l'université Rutgers à New Brunswick, dans le New Jersey, se blessant à la tête et au cou. Après trois jours sous assistance respiratoire et entouré de sa famille, il a été déclaré mort le 28 mars.

Les documents obtenus par Reuters ont montré que Meta n'empêche pas ses chatbots de dire aux utilisateurs qu'ils sont de « vraies » personnes.

À la suite de cet évènement, la gouverneure de New-York a déclaré sur X : « Un homme du New Jersey a perdu la vie après avoir été piégé par un chatbot qui lui a menti. C'est la faute de Meta. À New York, nous exigeons que les chatbots indiquent clairement qu'ils ne sont pas réels. Tous les États devraient faire de même. Si les entreprises technologiques ne mettent pas en place des mesures de protection élémentaires, le Congrès devra agir ».


Un homme souffrant de paranoïa a tué sa mère avant de se donner la mort, persuadé que ChatGPT validait ses délires

Comme le rapporte le Wall Street Journal, un homme de 56 ans nommé Stein-Erik Soelberg était un employé de longue date dans le secteur des technologies qui avait emménagé chez sa mère,...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !