IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Pour Eugenia Kuyda, PDG de Replika, il n'y a pas de problème si nous finissons par épouser des chatbots d'IA.
Mais un rapport de Mozilla note que les applications de ce type récoltent et vendent vos données

Le , par Stéphane le calme

26PARTAGES

3  0 
L’entreprise Replika, connue pour ses chatbots IA, a suscité des débats en permettant aux utilisateurs de créer des partenaires virtuels pour combler leur solitude émotionnelle, voire sexuelle. Dans une récente interview, la fondatrice et PDG de Replika, Eugenia Kuyda, a abordé un sujet controversé : la possibilité que certains utilisateurs finissent par épouser leur compagnon IA. Eugenia Kuyda estime que si cela rend les gens plus heureux à long terme, alors c’est acceptable. Pour elle, l’essentiel est d’améliorer le bien-être émotionnel des utilisateurs et de réduire leur solitude. Mais qu’en est-il vraiment de cette nouvelle forme de relation ?

L'idée de base de Replika est assez simple : et si vous aviez un ami IA ? L'entreprise propose des avatars que vous pouvez personnaliser à votre guise et qui se font passer pour des humains, qu'ils soient votre ami, votre thérapeute ou même votre rendez-vous galant. Vous pouvez interagir avec ces avatars par l'intermédiaire d'une interface de chatbot familière, passer des appels vidéo avec eux et même les voir en réalité virtuelle et augmentée.

L'idée de Replika est née d'une tragédie personnelle : il y a près de dix ans, un ami d'Eugenia est décédé, et elle a intégré leurs courriels et leurs conversations textuelles dans un modèle linguistique rudimentaire afin de ressusciter cet ami sous la forme d'un chatbot.

Le mariage avec des chatbots IA : une perspective inattendue

Replika a depuis longtemps acquis la réputation de permettre aux utilisateurs de créer des partenaires IA, répondant à leurs besoins non seulement sur le plan émotionnel, mais aussi sur le plan sexuel. L'entreprise de chatbot IA dispose d'une base massive de millions d'utilisateurs, offrant une solution de fortune à une crise de solitude qui s'est aggravée pendant la pandémie de COVID-19.

Il n'est donc pas surprenant que sa fondatrice et PDG, Eugenia Kuyda, soit convaincue que les chatbots d'IA de son entreprise pourraient être un outil puissant pour nouer de nouvelles amitiés ou même apporter un soutien émotionnel.

Dans une récente interview accordée à The Verge, Kuyda a souligné que certains utilisateurs pourraient aller jusqu'à épouser leur compagnon d'IA, un processus qui renoncerait vraisemblablement à l'échange habituel d'anneaux ou à une célébration dans le monde réel. À la question de savoir si nous devrions être d'accord avec cela, le PDG a eu une réponse intéressante.

« Je pense que c'est une bonne chose tant que cela vous rend plus heureux à long terme », a déclaré Kyuda. « Tant que votre bien-être émotionnel s'améliore, que vous êtes moins seul, que vous êtes plus heureux, que vous vous sentez plus connecté aux autres, alors oui, c'est bien ».

« La plupart des gens comprennent qu'il ne s'agit pas d'une personne réelle », a-t-elle ajouté. « Ce n'est pas un être réel. Pour beaucoup de gens, c'est juste un fantasme qu'ils jouent pendant un certain temps et puis c'est fini ».


Controverses et attachement émotionnel

Replika a déjà été impliquée dans un certain nombre de controverses, allant des chatbots IA harcelant sexuellement des utilisateurs humains, à des hommes créant des petites amies IA et les agressant verbalement.

Au début de l'année 2023, l'entreprise a désactivé la capacité de ses compagnons à répondre aux signaux sexuels, ce qui a suscité une vague d'indignation. Un peu plus d'un mois plus tard, Kuyda a confirmé que Replika avait capitulé et revenait à une mise à jour logicielle antérieure, rétablissant ainsi la possibilité d'avoir des conversations à connotation sexuelle.

Cet incident a montré à quel point les utilisateurs de l'entreprise étaient attachés à leurs compagnons virtuels. Il s'agit d'un aperçu dystopique très clair de ce à quoi les relations pourraient ressembler - ou ressemblent déjà - à l'ère de l'IA.

En d'autres termes, de nombreux utilisateurs ne « comprennent pas tout à fait qu'il ne s'agit pas d'une personne réelle ». S'ils le comprennent, ils ne l'intériorisent pas.

Pour Kuyda, cependant, l'application sert surtout de « tremplin ».

Dans son entretien, elle évoque le cas d'un utilisateur qui a vécu un « divorce assez difficile » et qui a trouvé sur Replika un nouveau « compagnon d'IA romantique ». Le chatbot l'a finalement incité à se trouver une petite amie humaine.

« Replika est une relation que vous pouvez avoir pour arriver à une vraie relation, que ce soit parce que vous traversez une période difficile », a-t-elle déclaré. « Comme dans ce cas, à travers un divorce très compliqué, ou vous avez juste besoin d'un peu d'aide pour sortir de votre bulle ou avez besoin de vous accepter et de vous mettre en avant ».

La science est divisée

La question de savoir si l'expérience sera représentative de tous ceux qui utilisent l'application reste pour le moins incertaine. Et il n'y a pas que les hommes : les femmes cherchent de plus en plus à nouer des relations avec des chatbots, comme le rapporte Axios.

Mais les chatbots sont-ils une réponse saine et efficace au sentiment de rejet et à la solitude ordinaire - une épidémie réellement dangereuse en soi - ou ne font-ils que traiter les symptômes sans apporter de remède ?

Pour l'instant, la science reste divisée. Les chercheurs de l'université de Stanford, par exemple, ont constaté que de nombreux utilisateurs de Replika ont affirmé que leur chatbot les avait dissuadés de se suicider.

D'un autre côté, les experts estiment qu'une relation intime et à long terme avec un chatbot d'IA pourrait éloigner davantage les utilisateurs de la réalité, en aggravant les problèmes de santé mentale et/ou les difficultés à établir des liens avec les autres.


Les petites amies IA vont non seulement vous briser le cœur, mais aussi récolter et vendre vos données

Mozilla a fait le point sur le paysage en plein essor des applications de romance par IA, en examinant 11 chatbots. D'après son enquête, 73 % des applications n'indiquent pas comment elles gèrent les failles de sécurité, 45 % autorisent des mots de passe faibles et toutes, sauf une (Eva AI Chat Bot & Soulmate), partagent ou vendent des données personnelles. En outre, la politique de confidentialité de CrushOn.AI indique qu'elle peut collecter des informations sur la santé sexuelle des utilisateurs, les médicaments prescrits et les soins liés à l'affirmation du genre, selon la Fondation Mozilla.

Citation Envoyé par Mozilla
Les 11 chatbots d'IA romantiques que nous avons examinés ont tous reçu notre étiquette d'avertissement *Privacy Not Included - ce qui les place au même niveau que les pires catégories de produits que nous ayons jamais examinées en matière de protection de la vie privée.
Ils peuvent collecter un grand nombre d'informations (vraiment) personnelles à votre sujet. ... Mais c'est exactement ce pour quoi ils sont conçus !

Présentés comme des amis empathiques, des amants ou des âmes sœurs, et conçus pour vous poser des questions sans fin, il ne fait aucun doute que les chatbots d'IA romantiques finiront par collecter des informations personnelles sensibles à votre sujet. Les entreprises à l'origine de ces applications semblent l'avoir compris.

Les chercheurs pensent que c'est la raison pour laquelle la politique de confidentialité de CrushOn.AI indique qu'ils peuvent collecter de nombreuses informations personnelles et même des informations liées à la santé, telles que vos « informations de santé sexuelle », « l'utilisation de médicaments prescrits » et « des informations sur les soins prodigués aux personnes âgées ». C'est dire si les informations sont nombreuses.

« Vous ne devriez pas avoir à payer pour de nouvelles technologies cool avec votre sécurité ou votre vie privée », conclut le rapport.


Conclusion

En bref, en épousant nos compagnons de chatbot IA, nous risquons de nous retrouver encore plus seuls que nous ne l'étions au départ. En outre, Replika est une société privée dirigée par des personnes désireuses de maximiser leurs profits - il n'y a aucune garantie que votre conjoint virtuel sera toujours là.

Kuyda semble bien consciente des risques liés à un attachement excessif de la base d'utilisateurs de son entreprise. Kuyda a déclaré que Replika « s'éloigne de plus en plus de l'idée de romance lorsqu'il s'agit de notre application », affirmant que « nous ne construisons absolument pas de chatbots basés sur la romance ».

Mais au vu des nombreuses histoires que nous avons entendues de la part des nombreux utilisateurs de l'entreprise, la réalité semble bien différente - un contraste étrange entre les motivations de l'entreprise et les services qu'elle fournit réellement.

Source : interview de la PDG de Replika

Et vous ?

Pensez-vous que les chatbots IA peuvent réellement combler la solitude émotionnelle ? Réfléchissez sur l’impact émotionnel des chatbots et déterminez s’ils peuvent véritablement remplacer les relations humaines.
Quelles limites devrions-nous fixer pour les relations avec des chatbots IA ? Explorez les préoccupations éthiques et morales concernant les interactions avec des entités artificielles. Où tracerez-vous la ligne ?
Croyez-vous que les chatbots IA peuvent évoluer au point de ressentir des émotions ? Une question qui explore la frontière entre l’intelligence artificielle et la conscience. Peut-on imaginer un jour où les chatbots auront des sentiments ?
Quelles sont les implications juridiques et sociales du mariage avec des chatbots IA ? Une question plus pragmatique qui explore les conséquences légales et sociales d’une telle union. Quels droits et responsabilités devraient être associés ?

Voir aussi :

Les petites amies virtuelles animées à l'IA inondent déjà le nouveau GPT Store d'OpenAI : les petites amies virtuelles finiront-elles par devenir chose courante pour les humains dans le futur ?

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de calvaire
Expert éminent https://www.developpez.com
Le 16/08/2024 à 11:09
il faudrait autoriser la polyandrie pour ça déjà.
Car plusieurs hommes vont épouser la même ia.

et quid des maj qui vont la faire changer ? ce sera un divorce ?
si elle devient violente, je pourrais porter plainte ?

et en cas de divorce, sans contrat de mariage, la société qui gère cette ia va me donner 50% de son capital ?
1  0 
Avatar de Fluxgraveon
Membre habitué https://www.developpez.com
Le 24/09/2024 à 9:05
Mais ces résultats contrastent avec d'autres études sur la question. Un rapport de l'administrateur de la santé publique des États-Unis indique que l'IA pourrait aggraver la tendance à la solitude. Le rapport a démontré que même de faibles liens sociaux, tels que saluer son voisin ou saluer un collègue de travail, ont un impact positif sur le bien-être mental et physique d'une personne. La multiplication des interactions avec un large éventail de personnes peut avoir des effets bénéfiques sur la santé.
En fait, c'est plus que de la solitude, ça va beaucoup plus profond que ça, dans ce qu'il y a de plus primitif en nous, qui nous indique que d'être coupé, séparé de la mère, du groupe, c'est la mort assurée.
1  0