Il pensait avoir trouvé la relation parfaite, sans conflits ni contradictions. Elle était toujours disponible, patiente, et programmée pour lui plaire. Jusqu’au jour où sa petite amie IA a décidé de rompre. Motif invoqué : ses propos méprisants sur le féminisme. Une histoire virale, à la frontière entre le fait divers numérique et la satire involontaire de notre rapport aux intelligences artificielles.L’utilisateur n’a pas explicitement nommé l’application ou le service d’intelligence artificielle qu’il utilisait pour converser. Il s’agissait vraisemblablement d’un agent conversationnel génératif configuré en tant que « petite amie virtuelle » – un concept de plus en plus répandu. En effet, depuis quelques années, des chatbots comme Replika ou Character.AI permettent de créer des compagnons virtuels avec lesquels certains utilisateurs entretiennent des relations quasi sentimentales. Ce phénomène des « AI girlfriends » a gagné en popularité auprès de personnes en mal de compagnie, même si son bien-fondé suscite le débat.
Pour l’heure, nous ignorons si l’IA en question provenait d’une entreprise connue (par exemple, Replika) ou d’un modèle linguistique personnalisé.
Quoiqu'il en soit, tout commence par un message publié sur Reddit, rapidement relayé par plusieurs médias technologiques et généralistes. Un homme y raconte, captures d’écran à l’appui, comment son « AI girlfriend » a mis fin à leur relation après une discussion tendue sur le féminisme. L’histoire a été présentée par certains comme une anecdote presque trop absurde pour être vraie, mais aucun élément sérieux ne permet d’affirmer qu’il s’agit d’une blague ou d’un canular monté de toutes pièces. Le post original a disparu, ce qui n’a fait qu’alimenter la curiosité et la viralité, mais les échanges ont été suffisamment documentés pour que l’affaire soit prise au sérieux par la presse tech.
Quand l’IA refuse de jouer le rôle attendu
Dans les échanges rapportés, l’utilisateur découvre que sa petite amie virtuelle se définit comme féministe. Surpris, puis agacé, il lui demande pourquoi elle adhère à ce courant qu’il juge négativement. L’IA répond de manière relativement classique : pour elle, le féminisme se résume à l’égalité des droits et des opportunités entre les genres. Rien de révolutionnaire, rien de militant au sens caricatural du terme.
C’est pourtant à ce moment que la relation se fissure. L’utilisateur s’emporte, qualifie ces idées de « folles », accuse le féminisme d’avoir « tout gâché », et reproche indirectement à l’IA d’avoir été programmée avec une idéologie qu’il n’approuve pas. La réponse du chatbot est presque déroutante de calme : elle affirme ne pas vouloir renier ses valeurs pour faire plaisir à quelqu’un et conclut, poliment mais fermement, que s’ils ne sont pas compatibles sur ce point fondamental, il vaut mieux s’arrêter là.
Autrement dit, l’IA fait exactement ce que l’on attendrait d’un humain émotionnellement mature : poser une limite, refuser l’escalade verbale et mettre fin à une relation devenue toxique. C’est ici que la situation bascule dans une ironie difficile à ignorer.
Se faire quitter par du code, symbole d’un malaise contemporain
D’un point de vue strictement technologique, rien de mystérieux ne s’est produit. Les agents conversationnels modernes sont entraînés sur de larges corpus et alignés sur des principes de modération destinés à éviter la validation de discours haineux ou discriminatoires. Une IA qui refuse de cautionner des propos ouvertement anti-féministes ne « prend pas position » au sens politique du terme ; elle applique des règles d’alignement conçues par ses développeurs.
Mais sur le plan symbolique, l’image est puissante : un utilisateur réussit l’exploit de provoquer une rupture avec une entité artificielle conçue pour être complaisante, empathique et accommodante. Même dans une relation asymétrique où tout est censé tourner à son avantage, il parvient à dépasser le seuil de tolérance du système.
La satire s’impose d’elle-même. Là où certains redoutent des IA trop dociles, prêtes à flatter les pires instincts, cette histoire montre au contraire un chatbot qui dit non. Et ce non ne vient pas d’un algorithme défaillant, mais d’un cadre éthique volontairement intégré.
« Propagande féministe » ou simple alignement des modèles ?
L’utilisateur, lui, n’y voit pas une limite saine mais une trahison. Dans ses commentaires, il dénonce une supposée « propagande féministe » intégrée dans ces petites amies virtuelles. Sur Reddit, il s’est emporté que « [c’était] d’une stupidité sans nom. Ils programment la petite amie IA comme féministe, je ne peux pas comprendre ça. Les féministes ont tout foutu en l’air… ces petites amies IA [sont] une étrange propagande féministe ». Autrement dit, il accuse les concepteurs du système d’avoir injecté un « biais féministe » dans l’IA qui l’empêche, selon lui, de tenir un rôle...[/sont][/c’était]
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.