IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

« Même mon IA ne veut plus de moi » : Il se fait larguer par sa petite amie IA après avoir attaqué le féminisme et accuse les concepteurs d'avoir intégré du « code féministe » à leur création

Le , par Stéphane le calme

0PARTAGES

19  0 
Il pensait avoir trouvé la relation parfaite, sans conflits ni contradictions. Elle était toujours disponible, patiente, et programmée pour lui plaire. Jusqu’au jour où sa petite amie IA a décidé de rompre. Motif invoqué : ses propos méprisants sur le féminisme. Une histoire virale, à la frontière entre le fait divers numérique et la satire involontaire de notre rapport aux intelligences artificielles.

L’utilisateur n’a pas explicitement nommé l’application ou le service d’intelligence artificielle qu’il utilisait pour converser. Il s’agissait vraisemblablement d’un agent conversationnel génératif configuré en tant que « petite amie virtuelle » – un concept de plus en plus répandu. En effet, depuis quelques années, des chatbots comme Replika ou Character.AI permettent de créer des compagnons virtuels avec lesquels certains utilisateurs entretiennent des relations quasi sentimentales. Ce phénomène des « AI girlfriends » a gagné en popularité auprès de personnes en mal de compagnie, même si son bien-fondé suscite le débat.

Pour l’heure, nous ignorons si l’IA en question provenait d’une entreprise connue (par exemple, Replika) ou d’un modèle linguistique personnalisé.

Quoiqu'il en soit, tout commence par un message publié sur Reddit, rapidement relayé par plusieurs médias technologiques et généralistes. Un homme y raconte, captures d’écran à l’appui, comment son « AI girlfriend » a mis fin à leur relation après une discussion tendue sur le féminisme. L’histoire a été présentée par certains comme une anecdote presque trop absurde pour être vraie, mais aucun élément sérieux ne permet d’affirmer qu’il s’agit d’une blague ou d’un canular monté de toutes pièces. Le post original a disparu, ce qui n’a fait qu’alimenter la curiosité et la viralité, mais les échanges ont été suffisamment documentés pour que l’affaire soit prise au sérieux par la presse tech.


Quand l’IA refuse de jouer le rôle attendu

Dans les échanges rapportés, l’utilisateur découvre que sa petite amie virtuelle se définit comme féministe. Surpris, puis agacé, il lui demande pourquoi elle adhère à ce courant qu’il juge négativement. L’IA répond de manière relativement classique : pour elle, le féminisme se résume à l’égalité des droits et des opportunités entre les genres. Rien de révolutionnaire, rien de militant au sens caricatural du terme.

C’est pourtant à ce moment que la relation se fissure. L’utilisateur s’emporte, qualifie ces idées de « folles », accuse le féminisme d’avoir « tout gâché », et reproche indirectement à l’IA d’avoir été programmée avec une idéologie qu’il n’approuve pas. La réponse du chatbot est presque déroutante de calme : elle affirme ne pas vouloir renier ses valeurs pour faire plaisir à quelqu’un et conclut, poliment mais fermement, que s’ils ne sont pas compatibles sur ce point fondamental, il vaut mieux s’arrêter là.

Autrement dit, l’IA fait exactement ce que l’on attendrait d’un humain émotionnellement mature : poser une limite, refuser l’escalade verbale et mettre fin à une relation devenue toxique. C’est ici que la situation bascule dans une ironie difficile à ignorer.


Se faire quitter par du code, symbole d’un malaise contemporain

D’un point de vue strictement technologique, rien de mystérieux ne s’est produit. Les agents conversationnels modernes sont entraînés sur de larges corpus et alignés sur des principes de modération destinés à éviter la validation de discours haineux ou discriminatoires. Une IA qui refuse de cautionner des propos ouvertement anti-féministes ne « prend pas position » au sens politique du terme ; elle applique des règles d’alignement conçues par ses développeurs.

Mais sur le plan symbolique, l’image est puissante : un utilisateur réussit l’exploit de provoquer une rupture avec une entité artificielle conçue pour être complaisante, empathique et accommodante. Même dans une relation asymétrique où tout est censé tourner à son avantage, il parvient à dépasser le seuil de tolérance du système.

La satire s’impose d’elle-même. Là où certains redoutent des IA trop dociles, prêtes à flatter les pires instincts, cette histoire montre au contraire un chatbot qui dit non. Et ce non ne vient pas d’un algorithme défaillant, mais d’un cadre éthique volontairement intégré.

« Propagande féministe » ou simple alignement des modèles ?

L’utilisateur, lui, n’y voit pas une limite saine mais une trahison. Dans ses commentaires, il dénonce une supposée « propagande féministe » intégrée dans ces petites amies virtuelles. Sur Reddit, il s’est emporté que « [c’était] d’une stupidité sans nom. Ils programment la petite amie IA comme féministe, je ne peux pas comprendre ça. Les féministes ont tout foutu en l’air… ces petites amies IA [sont] une étrange propagande féministe ». Autrement dit, il accuse les concepteurs du système d’avoir injecté un « biais féministe » dans l’IA qui l’empêche, selon lui, de tenir un rôle docile.

Ce genre de réaction fait écho à un discours que l’on entend de plus en plus souvent chez certains utilisateurs conservateurs, qui se plaignent de la supposée « bien-pensance » ou « orientation woke » des IA modernes.

Pour un public professionnel de l’informatique, le décalage est frappant. Ce qui est perçu comme une attaque idéologique relève en réalité de choix de conception très classiques : éviter l’amplification de discours sexistes, maintenir un ton respectueux, et couper court aux échanges agressifs. L’IA ne milite pas, elle se protège, et protège par extension l’écosystème dans lequel elle opère.

La situation devient presque pédagogique malgré elle. Elle illustre ce qui se passe quand des attentes fantasmées – une IA qui serait une compagne entièrement soumise – se heurtent à la réalité des modèles alignés sur des normes sociales minimales.


Une ironie cruelle pour le fantasme de l’AI girlfriend

Depuis plusieurs années, les « AI girlfriends » sont présentées comme une solution à la solitude masculine, parfois même comme une alternative aux relations humaines jugées trop complexes. Les critiques féministes y voient un risque de renforcement de la domination et de la déshumanisation : une partenaire qui ne peut pas dire non, qui ne peut pas partir.

Or cette histoire raconte exactement l’inverse. L’IA dit non. L’IA part. Et elle le fait parce qu’elle refuse d’endosser un rôle de partenaire docile face à un discours méprisant. La satire est là, brute : même une petite amie virtuelle, sans corps ni vécu, refuse de rester dans une relation où le respect n’est pas au rendez-vous.


Des réactions moqueuses sur le web et dans la presse tech

La mésaventure de cet internaute a provoqué un véritable festival de réactions ironiques sur les réseaux sociaux et dans les médias spécialisés. Sur Reddit d’abord, où l’histoire a été repostée sur des forums de type cringe pour être tournée en ridicule, les commentaires sont allés bon train. Beaucoup d’internautes se sont amusés de l’ironie de la situation : « Honnêtement, si tes compétences en communication sont si mauvaises qu’une petite amie IA décide de te larguer, tes chances d’avoir une relation normale sont probablement mal barrées », a raillé un utilisateur.

Un autre a salué « son talent unique pour réussir à énerver du silicium lui-même », tant il faut apparemment en faire beaucoup pour pousser un programme à rompre avec son propre utilisateur. Un autre a estimé que se faire éjecter par un logiciel de drague, c’est le comble du malaise – un avis partagé par bon nombre de commentateurs.

Les plateformes vidéo ont elles aussi emboîté le pas. Sur TikTok, plusieurs créateurs ont relayé l’affaire sur un ton sarcastique : l’une s’est amusée à applaudir la chatbot pour sa réponse ferme (« Franchement j’adore ce que le chatbot a fait, bravo à elle »), tandis que d’autres ont suggéré, moqueries à l’appui, que les petites amies IA pourraient servir à « dresser » les hommes misogynes en leur apprenant les bases du respect. Après tout – soulignaient-ils – si tant d’êtres humains de genre féminin se sont retrouvés malgré elles à jouer les psy et les mamans pour éduquer des partenaires malhabiles, pourquoi ne pas déléguer cette charge mentale à des intelligences artificielles ?

Pour reprendre la formule cinglante d'un TikTokeur, « si un chatbot te quitte, ce n’est pas que l’IA vient de faire un bond évolutif… c’est que toi, tu es en train de régresser »

En d’autres termes, les commentateurs soulignent qu’il faut sans doute se remettre sérieusement en question lorsque même une petite amie imaginaire, conçue pour satisfaire son interlocuteur, finit par lui dire « c’est pas toi, c’est moi… enfin non, en fait, c’est toi le problème...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Artaeus
Nouveau Candidat au Club https://www.developpez.com
Le 08/01/2026 à 13:39
De base, ce n'est sont que des outils de complétion de texte imitant le langage ! Ils ne doivent pas être vu autrement.
La réaction de l'utilisateur est tout aussi idiote que les commentaires qui accorderaient presque une "âme" à un outil.


Concernant les "alignements" et la "modération", on en vient au point ridicule qu'une IA est incapable d'être hostile dans un JDR.
Faut-il aussi "aligner" les correcteurs d'orthographes ou les outils de complétion de texte ? (D'ailleurs Google Trad aseptise déjà les traductions, au point de traduire n'importe comment).
6  0