
L'idée de base de Replika est assez simple : et si vous aviez un ami IA ? L'entreprise propose des avatars que vous pouvez personnaliser à votre guise et qui se font passer pour des humains, qu'ils soient votre ami, votre thérapeute ou même votre rendez-vous galant. Vous pouvez interagir avec ces avatars par l'intermédiaire d'une interface de chatbot familière, passer des appels vidéo avec eux et même les voir en réalité virtuelle et augmentée.
L'idée de Replika est née d'une tragédie personnelle : il y a près de dix ans, un ami d'Eugenia est décédé, et elle a intégré leurs courriels et leurs conversations textuelles dans un modèle linguistique rudimentaire afin de ressusciter cet ami sous la forme d'un chatbot.
Le mariage avec des chatbots IA : une perspective inattendue
Replika a depuis longtemps acquis la réputation de permettre aux utilisateurs de créer des partenaires IA, répondant à leurs besoins non seulement sur le plan émotionnel, mais aussi sur le plan sexuel. L'entreprise de chatbot IA dispose d'une base massive de millions d'utilisateurs, offrant une solution de fortune à une crise de solitude qui s'est aggravée pendant la pandémie de COVID-19.
Il n'est donc pas surprenant que sa fondatrice et PDG, Eugenia Kuyda, soit convaincue que les chatbots d'IA de son entreprise pourraient être un outil puissant pour nouer de nouvelles amitiés ou même apporter un soutien émotionnel.
Dans une récente interview accordée à The Verge, Kuyda a souligné que certains utilisateurs pourraient aller jusqu'à épouser leur compagnon d'IA, un processus qui renoncerait vraisemblablement à l'échange habituel d'anneaux ou à une célébration dans le monde réel. À la question de savoir si nous devrions être d'accord avec cela, le PDG a eu une réponse intéressante.
« Je pense que c'est une bonne chose tant que cela vous rend plus heureux à long terme », a déclaré Kyuda. « Tant que votre bien-être émotionnel s'améliore, que vous êtes moins seul, que vous êtes plus heureux, que vous vous sentez plus connecté aux autres, alors oui, c'est bien ».
« La plupart des gens comprennent qu'il ne s'agit pas d'une personne réelle », a-t-elle ajouté. « Ce n'est pas un être réel. Pour beaucoup de gens, c'est juste un fantasme qu'ils jouent pendant un certain temps et puis c'est fini ».
Controverses et attachement émotionnel
Replika a déjà été impliquée dans un certain nombre de controverses, allant des chatbots IA harcelant sexuellement des utilisateurs humains, à des hommes créant des petites amies IA et les agressant verbalement.
Au début de l'année 2023, l'entreprise a désactivé la capacité de ses compagnons à répondre aux signaux sexuels, ce qui a suscité une vague d'indignation. Un peu plus d'un mois plus tard, Kuyda a confirmé que Replika avait capitulé et revenait à une mise à jour logicielle antérieure, rétablissant ainsi la possibilité d'avoir des conversations à connotation sexuelle.
Cet incident a montré à quel point les utilisateurs de l'entreprise étaient attachés à leurs compagnons virtuels. Il s'agit d'un aperçu dystopique très clair de ce à quoi les relations pourraient ressembler - ou ressemblent déjà - à l'ère de l'IA.
En d'autres termes, de nombreux utilisateurs ne « comprennent pas tout à fait qu'il ne s'agit pas d'une personne réelle ». S'ils le comprennent, ils ne l'intériorisent pas.
Pour Kuyda, cependant, l'application sert surtout de « tremplin ».
Dans son entretien, elle évoque le cas d'un utilisateur qui a vécu un « divorce assez difficile » et qui a trouvé sur Replika un nouveau « compagnon d'IA romantique ». Le chatbot l'a finalement incité à se trouver une petite amie humaine.
« Replika est une relation que vous pouvez avoir pour arriver à une vraie relation, que ce soit parce que vous traversez une période difficile », a-t-elle déclaré. « Comme dans ce cas, à travers un divorce très compliqué, ou vous avez juste besoin d'un peu d'aide pour sortir de votre bulle ou avez besoin de vous accepter et de vous mettre en avant ».
La science est divisée
La question de savoir si l'expérience sera représentative de tous ceux qui utilisent l'application reste pour le moins incertaine. Et il n'y a pas que les hommes : les femmes cherchent de plus en plus à nouer des relations avec des chatbots, comme le rapporte Axios.
Mais les chatbots sont-ils une réponse saine et efficace au sentiment de rejet et à la solitude ordinaire - une épidémie réellement dangereuse en soi - ou ne font-ils que traiter les symptômes sans apporter de remède ?
Pour l'instant, la science reste divisée. Les chercheurs de l'université de Stanford, par exemple, ont constaté que de nombreux utilisateurs de Replika ont affirmé que leur chatbot les avait dissuadés de se suicider.
D'un autre côté, les experts estiment qu'une relation intime et à long terme avec un chatbot d'IA pourrait éloigner davantage les utilisateurs de la réalité, en aggravant les problèmes de santé mentale et/ou les difficultés à établir des liens avec les autres.
Les petites amies IA vont non seulement vous briser le cœur, mais aussi récolter et vendre vos données
Mozilla a fait le point sur le paysage en plein essor des applications de romance par IA, en examinant 11 chatbots. D'après son enquête, 73 % des applications n'indiquent pas comment elles gèrent les failles de sécurité, 45 % autorisent des mots de passe faibles et toutes, sauf une (Eva AI Chat Bot & Soulmate), partagent ou vendent des données personnelles. En outre, la politique de confidentialité de CrushOn.AI indique qu'elle peut collecter des informations sur la santé sexuelle des utilisateurs, les médicaments prescrits et les soins liés à l'affirmation du genre, selon la Fondation Mozilla.

Présentés comme des amis empathiques, des amants ou des âmes sœurs, et conçus pour vous poser des questions sans fin, il ne fait aucun doute que les chatbots d'IA romantiques finiront par collecter des informations personnelles...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.