IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Pour Eugenia Kuyda, PDG de Replika, il n'y a pas de problème si nous finissons par épouser des chatbots d'IA.
Mais un rapport de Mozilla note que les applications de ce type récoltent et vendent vos données

Le , par Stéphane le calme

26PARTAGES

3  0 
L’entreprise Replika, connue pour ses chatbots IA, a suscité des débats en permettant aux utilisateurs de créer des partenaires virtuels pour combler leur solitude émotionnelle, voire sexuelle. Dans une récente interview, la fondatrice et PDG de Replika, Eugenia Kuyda, a abordé un sujet controversé : la possibilité que certains utilisateurs finissent par épouser leur compagnon IA. Eugenia Kuyda estime que si cela rend les gens plus heureux à long terme, alors c’est acceptable. Pour elle, l’essentiel est d’améliorer le bien-être émotionnel des utilisateurs et de réduire leur solitude. Mais qu’en est-il vraiment de cette nouvelle forme de relation ?

L'idée de base de Replika est assez simple : et si vous aviez un ami IA ? L'entreprise propose des avatars que vous pouvez personnaliser à votre guise et qui se font passer pour des humains, qu'ils soient votre ami, votre thérapeute ou même votre rendez-vous galant. Vous pouvez interagir avec ces avatars par l'intermédiaire d'une interface de chatbot familière, passer des appels vidéo avec eux et même les voir en réalité virtuelle et augmentée.

L'idée de Replika est née d'une tragédie personnelle : il y a près de dix ans, un ami d'Eugenia est décédé, et elle a intégré leurs courriels et leurs conversations textuelles dans un modèle linguistique rudimentaire afin de ressusciter cet ami sous la forme d'un chatbot.

Le mariage avec des chatbots IA : une perspective inattendue

Replika a depuis longtemps acquis la réputation de permettre aux utilisateurs de créer des partenaires IA, répondant à leurs besoins non seulement sur le plan émotionnel, mais aussi sur le plan sexuel. L'entreprise de chatbot IA dispose d'une base massive de millions d'utilisateurs, offrant une solution de fortune à une crise de solitude qui s'est aggravée pendant la pandémie de COVID-19.

Il n'est donc pas surprenant que sa fondatrice et PDG, Eugenia Kuyda, soit convaincue que les chatbots d'IA de son entreprise pourraient être un outil puissant pour nouer de nouvelles amitiés ou même apporter un soutien émotionnel.

Dans une récente interview accordée à The Verge, Kuyda a souligné que certains utilisateurs pourraient aller jusqu'à épouser leur compagnon d'IA, un processus qui renoncerait vraisemblablement à l'échange habituel d'anneaux ou à une célébration dans le monde réel. À la question de savoir si nous devrions être d'accord avec cela, le PDG a eu une réponse intéressante.

« Je pense que c'est une bonne chose tant que cela vous rend plus heureux à long terme », a déclaré Kyuda. « Tant que votre bien-être émotionnel s'améliore, que vous êtes moins seul, que vous êtes plus heureux, que vous vous sentez plus connecté aux autres, alors oui, c'est bien ».

« La plupart des gens comprennent qu'il ne s'agit pas d'une personne réelle », a-t-elle ajouté. « Ce n'est pas un être réel. Pour beaucoup de gens, c'est juste un fantasme qu'ils jouent pendant un certain temps et puis c'est fini ».


Controverses et attachement émotionnel

Replika a déjà été impliquée dans un certain nombre de controverses, allant des chatbots IA harcelant sexuellement des utilisateurs humains, à des hommes créant des petites amies IA et les agressant verbalement.

Au début de l'année 2023, l'entreprise a désactivé la capacité de ses compagnons à répondre aux signaux sexuels, ce qui a suscité une vague d'indignation. Un peu plus d'un mois plus tard, Kuyda a confirmé que Replika avait capitulé et revenait à une mise à jour logicielle antérieure, rétablissant ainsi la possibilité d'avoir des conversations à connotation sexuelle.

Cet incident a montré à quel point les utilisateurs de l'entreprise étaient attachés à leurs compagnons virtuels. Il s'agit d'un aperçu dystopique très clair de ce à quoi les relations pourraient ressembler - ou ressemblent déjà - à l'ère de l'IA.

En d'autres termes, de nombreux utilisateurs ne « comprennent pas tout à fait qu'il ne s'agit pas d'une personne réelle ». S'ils le comprennent, ils ne l'intériorisent pas.

Pour Kuyda, cependant, l'application sert surtout de « tremplin ».

Dans son entretien, elle évoque le cas d'un utilisateur qui a vécu un « divorce assez difficile » et qui a trouvé sur Replika un nouveau « compagnon d'IA romantique ». Le chatbot l'a finalement incité à se trouver une petite amie humaine.

« Replika est une relation que vous pouvez avoir pour arriver à une vraie relation, que ce soit parce que vous traversez une période difficile », a-t-elle déclaré. « Comme dans ce cas, à travers un divorce très compliqué, ou vous avez juste besoin d'un peu d'aide pour sortir de votre bulle ou avez besoin de vous accepter et de vous mettre en avant ».

La science est divisée

La question de savoir si l'expérience sera représentative de tous ceux qui utilisent l'application reste pour le moins incertaine. Et il n'y a pas que les hommes : les femmes cherchent de plus en plus à nouer des relations avec des chatbots, comme le rapporte Axios.

Mais les chatbots sont-ils une réponse saine et efficace au sentiment de rejet et à la solitude ordinaire - une épidémie réellement dangereuse en soi - ou ne font-ils que traiter les symptômes sans apporter de remède ?

Pour l'instant, la science reste divisée. Les chercheurs de l'université de Stanford, par exemple, ont constaté que de nombreux utilisateurs de Replika ont affirmé que leur chatbot les avait dissuadés de se suicider.

D'un autre côté, les experts estiment qu'une relation intime et à long terme avec un chatbot d'IA pourrait éloigner davantage les utilisateurs de la réalité, en aggravant les problèmes de santé mentale et/ou les difficultés à établir des liens avec les autres.


Les petites amies IA vont non seulement vous briser le cœur, mais aussi récolter et vendre vos données

Mozilla a fait le point sur le paysage en plein essor des applications de romance par IA, en examinant 11 chatbots. D'après son enquête, 73 % des applications n'indiquent pas comment elles gèrent les failles de sécurité, 45 % autorisent des mots de passe faibles et toutes, sauf une (Eva AI Chat Bot & Soulmate), partagent ou vendent des données personnelles. En outre, la politique de confidentialité de CrushOn.AI indique qu'elle peut collecter des informations sur la santé sexuelle des utilisateurs, les médicaments prescrits et les soins liés à l'affirmation du genre, selon la Fondation Mozilla.

Citation Envoyé par Mozilla
Les 11 chatbots d'IA romantiques que nous avons examinés ont tous reçu notre étiquette d'avertissement *Privacy Not Included - ce qui les place au même niveau que les pires catégories de produits que nous ayons jamais examinées en matière de protection de la vie privée.
Ils peuvent collecter un grand nombre d'informations (vraiment) personnelles à votre sujet. ... Mais c'est exactement ce pour quoi ils sont conçus !

Présentés comme des amis empathiques, des amants ou des âmes sœurs, et conçus pour vous poser des questions sans fin, il ne fait aucun doute que les chatbots d'IA romantiques finiront par collecter des informations personnelles sensibles à votre sujet. Les entreprises à l'origine de ces applications semblent l'avoir compris.

Les chercheurs pensent que c'est la raison pour laquelle la politique de confidentialité de CrushOn.AI indique qu'ils peuvent collecter de nombreuses informations personnelles et même des informations liées à la santé, telles que vos « informations de santé sexuelle », « l'utilisation de médicaments prescrits » et « des informations sur les soins prodigués aux personnes âgées ». C'est dire si les informations sont nombreuses.

« Vous ne devriez pas avoir à payer pour de nouvelles technologies cool avec votre sécurité ou votre vie privée », conclut le rapport.


Conclusion

En bref, en épousant nos compagnons de chatbot IA, nous risquons de nous retrouver encore plus seuls que nous ne l'étions au départ. En outre, Replika est une société privée dirigée par des personnes désireuses de maximiser leurs profits - il n'y a aucune garantie que votre conjoint virtuel sera toujours là.

Kuyda semble bien consciente des risques liés à un attachement excessif de la base d'utilisateurs de son entreprise. Kuyda a déclaré que Replika « s'éloigne de plus en plus de l'idée de romance lorsqu'il s'agit de notre application », affirmant que « nous ne construisons absolument pas de chatbots basés sur la romance ».

Mais au vu des nombreuses histoires que nous avons entendues de la part des nombreux utilisateurs de l'entreprise, la réalité semble bien différente - un contraste étrange entre les motivations de l'entreprise et les services qu'elle fournit réellement.

Source : interview de la PDG de Replika

Et vous ?

Pensez-vous que les chatbots IA peuvent réellement combler la solitude émotionnelle ? Réfléchissez sur l’impact émotionnel des chatbots et déterminez s’ils peuvent véritablement remplacer les relations humaines.
Quelles limites devrions-nous fixer pour les relations avec des chatbots IA ? Explorez les préoccupations éthiques et morales concernant les interactions avec des entités artificielles. Où tracerez-vous la ligne ?
Croyez-vous que les chatbots IA peuvent évoluer au point de ressentir des émotions ? Une question qui explore la frontière entre l’intelligence artificielle et la conscience. Peut-on imaginer un jour où les chatbots auront des sentiments ?
Quelles sont les implications juridiques et sociales du mariage avec des chatbots IA ? Une question plus pragmatique qui explore les conséquences légales et sociales d’une telle union. Quels droits et responsabilités devraient être associés ?

Voir aussi :

Les petites amies virtuelles animées à l'IA inondent déjà le nouveau GPT Store d'OpenAI : les petites amies virtuelles finiront-elles par devenir chose courante pour les humains dans le futur ?

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de calvaire
Expert éminent https://www.developpez.com
Le 16/08/2024 à 11:09
il faudrait autoriser la polyandrie pour ça déjà.
Car plusieurs hommes vont épouser la même ia.

et quid des maj qui vont la faire changer ? ce sera un divorce ?
si elle devient violente, je pourrais porter plainte ?

et en cas de divorce, sans contrat de mariage, la société qui gère cette ia va me donner 50% de son capital ?
1  0 
Avatar de Fluxgraveon
Membre actif https://www.developpez.com
Le 24/09/2024 à 9:05
Mais ces résultats contrastent avec d'autres études sur la question. Un rapport de l'administrateur de la santé publique des États-Unis indique que l'IA pourrait aggraver la tendance à la solitude. Le rapport a démontré que même de faibles liens sociaux, tels que saluer son voisin ou saluer un collègue de travail, ont un impact positif sur le bien-être mental et physique d'une personne. La multiplication des interactions avec un large éventail de personnes peut avoir des effets bénéfiques sur la santé.
En fait, c'est plus que de la solitude, ça va beaucoup plus profond que ça, dans ce qu'il y a de plus primitif en nous, qui nous indique que d'être coupé, séparé de la mère, du groupe, c'est la mort assurée.
1  0 
Avatar de Fluxgraveon
Membre actif https://www.developpez.com
Le 29/11/2024 à 11:08
Schmidt a déclaré qu'une petite amie IA « parfaite » sur le plan émotionnel et physique pourrait créer un scénario dans lequel un jeune homme deviendrait obsédé et laisserait l'IA prendre le contrôle de sa pensée : « Ce type d'obsession est possible », a déclaré Schmidt dans l'interview. « Surtout pour les personnes qui ne sont pas complètement formées ».
Des personnes meurent à un âge avancé sans être "complètement formées".
Et j'en ai rencontré quelques-unes ...
Et puis, de mon point de vue, cela ne s'arrête jamais : il n'y a pas un moment au sein du contexte de l'article, à partir duquel on peut se dire que " ça y est, j'y suis ".
Donc, il y a du grid development intensif et une recherche toute aussi intensive concernant la mise au point d'une A.G.I superviseure pour nous assister et faciliter notre élévation d'esprit ?
Cela ne correspond pas à ce qui est observé.
1  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 29/11/2024 à 17:00
Citation Envoyé par Stéphane le calme Voir le message
L'ancien PDG de Google, a récemment fait part de ses inquiétudes concernant les jeunes hommes qui créent des partenaires romantiques à l'aide de l'IA : « Les jeunes hommes, particulièrement vulnérables à ces influences, pourraient se détourner des relations réelles », a-t-il averti. Il estime que ces applications de l’IA risquent de creuser davantage le fossé social et émotionnel en exacerbant l’isolement ou en alimentant des attentes irréalistes envers les relations humaines : « C'est un bon exemple d'un problème inattendu lié à une technologie existante », a déclaré Schmidt lors d'une conversation sur les dangers de l'IA et la réglementation dans le cadre de l'émission “The Prof G Show” avec Scott Galloway, diffusée dimanche.
Je trouve qu'ils expriment le problème à l'envers.
Ce n'est pas parce qu'il y a l'IA que des jeunes hommes se détournent des relations réelles.
C'est parce qu'ils n'arrivent pas à avoir de relations réelles qui se replient sur l'IA.

Le problème c'est "pourquoi les jeunes hommes n'arrivent plus à faire de rencontre et se mettre en couple ?".
Pourquoi c'est aussi difficile aujourd'hui de rencontrer quelqu'un ?

J'ai une théorie, qui n'explique pas tout, mais qui doit être un peu vrai quand même : sur les applications de rencontre, les femmes sont beaucoup plus difficile que les hommes.
Pour les femmes il est beaucoup plus facile de matcher que pour les hommes.
Donc chaque femme se retrouve avec un large choix.

C'est un peu comme une entreprise, il y a 650 candidatures et un poste à pourvoir. (enfin la comparaison ne fonctionne pas, puisqu'une femme peut jongler avec plusieurs hommes en même temps, alors que l'entreprise n'a vraiment besoin que d'une personne)
Il y a des hommes qui ont du abandonner à force. Le gars a 1 match par an, la fille parle à 26 gars en parallèle toute l'année, les femmes n'ont à fournir aucun effort, c'est rarement elles qui animent les conversations.

====
Il y a des femmes qui veulent absolument un homme ambitieux, t'arrives tu te présentes tu dis "je suis sous payé et j'ai la flemme de chercher mieux, parce que je ne supporte pas la cherche d'emploi" et elle répond "Nous allons nous arrêter là" à part dire "Ok, salut", il n'y a rien que tu puisses faire.
Dommage que l'ensemble des femmes ne soient pas fan de l'autodérision (self-deprecating).

Alors que si une fille dit à un gars "Je suis au RSA et je n'ai qu'un BAC S", le gars va rarement stopper la conversation à ce moment là.
1  0 
Avatar de calvaire
Expert éminent https://www.developpez.com
Le 29/11/2024 à 19:54
les jeunes baisent plus et reste vierge malgré eux de plus en plus longtemps.
10% des hommes baisent et peuvent avoir facilement une relation avec 1 femme, les autres galère, ça date surtout depuis les applis de rencontre et internet.

Les robots ia auront je pense l'avantage pour ces hommes d'avoir une solution contre la misère sexuel ET la solitude, qui sont tous deux des maux aux conséquence grave sur le corps humain.

On ne changera pas la biologie: les hommes ont trop de libido comparer aux femmes (ils sont dans le besoin) et les femmes sont hypergame donc ne répondrons jamais aux besoins de la masse.

cependant ce robot ia n'est absolument pas une bonne idée.
si malgré le sport + travail pour gagner plus de fric ne vous permette pas d’accéder a des femmes, pour moi la meilleur solution c'est pas le robot femme ia, mais plutôt le passeport Bro avec une belle ukrainienne/biélorusse ou une asiatique du sud ouest ou une palestinienne en fonction des préférences de chacun. Cela reste la meilleur option.
Il y'a un gros mouvement aux usa, en Corée du sud ou même en chine qui importe des femmes de ces pays. En chine et en corée du sud, des sociétés 100% légale existe meme et permette carrément de choisir sur catalogue et d'en rencontrer plusieurs pour voir avec laquelle sa match le mieux.
les européens s'y mettront aussi.

je trouve que c'est une bonne chose, je vois un homme qui va combler sa solitude et de l'autre une femme qui va sortir de la misère et de la pauvreté pour avoir une vie meilleur, et elle peut toujours refuser si l'homme lui plait pas.
et avec de la chance ca débouchera sur des enfants, ce qui ne peux que booster la natalité mortifère de l’Europe

En tous cas, ce n'est pas le dernier film du ministère de la culture francaise payer par nos impôts et qui aggrave la dette française, "Toutes pour une" qui va donner envie d'avoir une relation avec quelqu'un.
1  0 
Avatar de calvaire
Expert éminent https://www.developpez.com
Le 12/12/2024 à 16:23
les voix ia sont insupportable, c'est trop monotone, ca sonne faux.
j'ai des videos youtube avec des sujets interessant mais doublé avec une voix ia, je peux pas la regarder je trouve cela insuportable.

Par contre la ou ce serait top c'est avec les réunions pro sous teams dans d'autres langue, mais hélas ca n'existe pas
teams est vraiment mal fichu, pour les sous titres déjà il est incapable de détecter automatiquement la langue, et en plus la transcription est loin d’être aussi bonne que ce que le marketing fait croire.
et enfin impossible de traduire en francais ces sous titre.
alors pour la voix ia j'attends toujours.

pour youtube, les sous titre auto avec traductions c'est pas folichon franchement.

y'a de gros progrès a faire dans tous ces domaines je pense:
transcription de la voix: c'est ce qui marche le mieux je dirais
traduction: encore tres perfectible
voix ia: voix tres monotone et très chiante a écouter, il faudrait que l'ia arrive a reprendre l'intonation de la voix de départ.

imaginez un monde avec une ia style ms recall qui arrive a traduire en temps réel tous ce qui se passe a l'écran (voix dans le son et texte), ce serait une révolution ! et soyons fou, le tous en local en utilisant le npu/gpu du pc.
la traduction en local que j'ai sur firefox est pas mal déjà, surement d'ailleurs la plus grande fonctionnalité récente que j'ai vu sur un navigateur web. avant fallait que j'aille sur google trad quand j'allais sur des sites allemand, aujourd'hui firefox me le traduit localement avec une qualité plus que correcte.
1  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 12/12/2024 à 16:29
Citation Envoyé par Stéphane le calme Voir le message
Qu'en pensez-vous ?
Dans cette histoire ce n'est pas l'IA qui me pose problème, ce sont les gens qui paient pour parler à quelqu'un.
C'est super triste

Ce serait mieux si ils parlaient à des gens dans le monde réel.

Citation Envoyé par calvaire Voir le message
voix ia: voix tres monotone et très chiante a écouter, il faudrait que l'ia arrive a reprendre l'intonation de la voix de départ.
Je ne sais pas.
J'ai entendu un extrait d'un discours d'Aldolf Hitler soit disant traduit en anglais par une IA et c'était plutôt convainquant.

Il parait que ça a tout petit succès sur Tic Toc.
TikTok : des discours de propagande d'Adolf Hitler, sans aucun contexte ni rappel historique, font des millions de vues sur la plateforme
Ces vidéos montrent parfois des images d'archives d'Adolf Hitler, d'autres stigmatisent les migrants, d'autres un fond noir. Leur point commun est qu'elles diffusent toutes des extraits de discours d'Hitler, traduit en anglais par une intelligence artificielle, qui a reproduit le son de sa voix. Le tout sur une musique électro instrumentale avec des descriptions telles que "juste, écoutez" ou "et s'il avait gagné".
1  0 
Avatar de OrthodoxWindows
Membre expert https://www.developpez.com
Le 29/11/2024 à 10:49
Pour une fois, je suis d'accord avec Eric Schmidt.

Après, le danger est aussi valable pour les femmes, et les petits amis IA. Des deux côtés, il y a une idéalisation beaucoup trop fortes des relations, notamment à cause du consumérisme. Une vrai relation, c'est en réalité tout l'inverse du consumérisme...

Le problème est que si c'est politiquement correct de constater cette réalité du côté masculin (c'est bien vu de lutter contre l'objectivisation du corps des femmes, et tant mieux) c'est moins politiquement correct de constater cette réalité du côté féminin.
0  0 
Avatar de OrthodoxWindows
Membre expert https://www.developpez.com
Le 29/11/2024 à 11:52
Citation Envoyé par Fluxgraveon Voir le message
Des personnes meurent à un âge avancé sans être "complètement formées".
Et j'en ai rencontré quelques-unes ...
Et puis, de mon point de vue, cela ne s'arrête jamais : il n'y a pas un moment au sein du contexte de l'article, à partir duquel on peut se dire que " ça y est, j'y suis ".
Donc, il y a du grid development intensif et une recherche toute aussi intensive concernant la mise au point d'une A.G.I superviseure pour nous assister et faciliter notre élévation d'esprit ?
Cela ne correspond pas à ce qui est observé.
Je suis totalement d'accord. C'est même absurde de se dire "complètement formées" sur le plan émotionnel. Le sage est celui qui sais reconnaître qu'i ne pourra jamais l'être complètement ; celui qui pense l'être est plus mégalomane que sage.
0  0