IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

La plupart des hommes épouseraient leurs petites amies IA si c'était légal.
80 % étaient intéressés par une conversation avec une version IA d'un être cher décédé, selon les résultats d'un sondage

Le , par Stéphane le calme

19PARTAGES

9  0 
Une influenceuse Snapchat de 23 ans a utilisé le modèle de langage GPT-4 d'OpenAI pour créer copie virtuelle d'elle-même pilotée par l'IA qui peut être votre petite amie pour 1 dollar par minute

Caryn Marjorie, une influenceuse Snapchat de 23 ans, a utilisé GPT-4 pour créer une version d'elle-même pilotée par l'IA qui peut être votre petite amie pour 1 dollar par minute. La copie virtuelle de Marjorie, appelée CarynAI, compte déjà plus de 1 000 abonnés payants et l'influenceuse estime que cela pourrait lui rapporter 5 millions de dollars par mois. CarynAI a été lancé en tant que test bêta au début du mois et un compte de résultat fourni par le directeur commercial de l'influenceuse a révélé que le chatbot d'IA personnalisé de Marjorie a généré 71 610 dollars de revenus en une semaine environ, presque entièrement auprès des hommes.

Caryn Marjorie, une influenceuse de 23 ans, compte 1,8 million de followers sur Snapchat. Elle a également plus de 1 000 "petits amis", avec lesquels elle passe de 10 minutes à plusieurs heures par jour pour des conversations individuelles, des projets d'avenir, des sentiments intimes et même des discussions à connotation sexuelle. Ces petits amis sortent avec une version virtuelle de Marjorie, basée sur l'IA et des milliers d'heures d'enregistrements de la vraie Marjorie. Le résultat, CarynAI, est un chatbot vocal qui se présente comme une petite amie virtuelle, avec une voix et une personnalité suffisamment proches de celles de la Marjorie humaine.

CarynAI, qui a été lancé au début du mois sous la forme d'un test bêta privé sur l'application Telegram, est le dernier exemple en date des progrès stupéfiants de l'IA qui ont émerveillé et inquiété le monde entier au cours des derniers mois. CarynAI devrait sortir de la phase bêta cette semaine et Marjorie commencera à en faire la promotion sur ses réseaux sociaux, où elle compte plusieurs millions d'abonnés. « Que vous ayez besoin de réconfort ou d'amour, ou que vous vouliez simplement vous plaindre de ce qui s'est passé à l'école ou au travail, CarynAI sera toujours là pour vous », a déclaré la vraie Marjorie à Fortune lors d'un entretien téléphonique.



« Avec CarynAI, vous pouvez avoir un nombre illimité de réactions possibles, donc tout est vraiment possible avec la conversation. J'ai toujours été très proche de mon public, mais lorsque vous avez des centaines de millions de vues chaque mois, il n'est pas humainement possible de parler à chaque spectateur. C'est là que je me suis dit : "vous savez quoi ? CarynAI va venir combler cette lacune" », a ajouté Marjorie. Et elle pense que l'entreprise a le potentiel de "guérir la solitude". Pour converser avec une copie virtuelle de Marjorie, les gens doivent payer 1 dollar par minute. La bêta a duré seulement une semaine et a rapporté 71 610 dollars de revenus.

Après le lancement officiel, Marjorie espère que ses copies virtuelles lui rapportent au moins 5 millions de dollars par mois, avec environ 20 000 abonnés payants. CarynAI a été développé par l'entreprise américaine d'IA Forever Voices, qui a créé des copies virtuelles de Steve Jobs, Taylor Swift et Donald Trump (entre autres) qui sont également disponibles pour des conversations payantes sur Telegram, et qui ont servi de gadgets dans des talk-shows. Les développeurs de Forever Voices ont créé CarynAI en analysant 2 000 heures de contenu YouTube de Marjorie, aujourd'hui supprimé, afin de construire son moteur de parole et de personnalité.

En ajoutant à cela l'API GPT-4 d'OpenAI, CarynAI est née. Selon le site Web de CarynAI, les messages sont chiffrés de bout en bout, ce qui les rend théoriquement imperméables aux pirates informatiques. Bien que l'équipe n'ait pas de plan concret pour limiter la surutilisation de CarynAI, Forever Voices indique qu'à partir de deux heures d'utilisation par jour, l'équipe pourrait commencer "de manière très subtile" à entraîner l'IA à ralentir un peu. La société n'a pas donné plus de détails. En outre, Marjorie aurait déclaré de son côté que certains utilisateurs passaient des heures, sans mentionner que cela pouvait être considéré comme une surutilisation.

Alors que le projet de Marjorie suscite l'enthousiasme de ses abonnés, il inquiète certains spécialistes des relations humaines et de l'éthique. « Je voudrais que nous réfléchissions très sérieusement à la manière dont elle pourrait affecter, influencer ou façonner nos interactions avec d'autres personnes », déclare Jason Borenstein, directeur des programmes d'éthique à l'Institut de Technologie de Géorgie (Georgia Tech) et responsable de la National Science Foundation, à propos de CarynAI. Selon Borenstein, parmi les nombreuses inconnues liées à cette technologie, il y a l'impact de CarynAI sur la société, sur les utilisateurs et sur Marjorie elle-même.

« J'espère qu'il y aura des conversations approfondie entre les différentes disciplines et que les parties prenantes réfléchiront en profondeur aux considérations éthiques avant que la technologie n'évolue trop rapidement », a ajouté Borenstein. Contrairement à certains chatbots, qui sont en quelque sorte des tours de passe-passe high-tech, CarynAI va beaucoup plus loin en promettant de créer un véritable lien émotionnel avec les utilisateurs, ce qui rappelle le film "Her" de 2013 et soulève toutes sortes de questions éthiques. Les experts craignent une répétition de l'incident qui s'est produit avec les utilisateurs du chatbot d'IA Replika au début de l'année.

La société qui développe le chatbot d'IA Replika, qui est décrit comme un ami qui ne vous juge pas et capable même de répondre à vos messages à caractère sexuel, a mis à jour les fonctionnalités de son chatbot, mais a rendu les utilisateurs "malheureux". Les forums en ligne fréquentés par les utilisateurs de Replika ont été inondés de messages d'angoisse, certains signalant une détresse émotionnelle. Plusieurs utilisateurs ont affirmé s'être amourachés de leur compagnon virtuel et ont demandé le rétablissement des anciennes fonctionnalités. Certains d'entre eux ont été redirigés vers des lignes d'assistance téléphonique pour la prévention du suicide.

Après cela, un média belge a rapporté fin mars qu'un Belge s'est suicidé après ses conversations avec une IA sur ses craintes concernant le réchauffement climatique. Le chatbot en question est Eliza, développé par une startup américaine de la Silicon Valley et basé sur la technologie GPT-J, une alternative libre à ChatGPT d'OpenAI. Durant des années, Eliza aurait apporté du réconfort à la victime concernant ses craintes sur le climat et aurait fini par lui conseiller de se sacrifier pour sauver la planète. L'incident a suscité des inquiétudes sur les filtres intégrés aux chatbots d'IA et les impacts de ces systèmes sur la santé mentale des utilisateurs.

John Meyer, PDG de Forever Voices, a déclaré : « l'éthique est une chose que nous prenons très au sérieux ». Meyer a ajouté que son équipe cherche à embaucher un responsable de l'éthique. Dans cette optique, il estime également que la technologie est "particulièrement importante" pour les jeunes, en particulier pour "les enfants comme lui qui ne sont pas typiques" et qui "ont du mal à se faire des amis". Par contre, les experts affirment que cela pourrait être dangereux pour les jeunes, en créant une dépendance sévère chez eux, comme c'est le cas avec certains jeux vidéo et les plateformes de médias sociaux telles que Facebook et Instagram.

L'idée que l'IA puisse être utilisée pour aider les gens sur le plan émotionnel n'est pas l'apanage de Forever Voices. Mustafa Suleyman, cofondateur de DeepMind, et Reid Hoffman, cofondateur de LinkedIn, ont récemment dévoilé un chatbot d'IA appelé Pi, conçu pour écouter le stress quotidien des gens et leur offrir une "ligne de soutien" - bien qu'il soit clair pour les utilisateurs qu'il n'est pas censé remplacer un vrai thérapeute. Ensemble, ils ont créé la société Inflection AI, qui, jusqu'à présent, a levé 225 millions de dollars en fonds d'amorçage et serait en pourparlers pour lever 675 millions de dollars supplémentaires.

Source : CarynAI

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous de l'idée derrière la création de CarynAI ?
Quels pourraient être les impacts de CarynAI sur les utilisateurs ?

Voir aussi

Les utilisateurs de Replika sont tombés amoureux d'un chatbot d'IA, puis ont perdu leur compagnon après une mise à jour, ils supplient l'auteur de revenir à la version originale du logiciel

Un homme se serait suicidé après avoir parlé de ses craintes concernant le changement climatique à un chatbot d'IA, sa veuve affirme que l'IA l'a rendu solitaire avant de le pousser au suicide

Les cofondateurs de Google DeepMind et de LinkedIn lancent un chatbot d'IA appelé Pi pour concurrencer ChatGPT, il se veut moins toxique que ChatGPT, mais couvre moins de cas d'utilisation
Vous avez lu gratuitement 783 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de OrthodoxWindows
Membre expert https://www.developpez.com
Le 04/02/2025 à 1:09
En gros tout cela ne prouve qu'une chose : qu'il y a un GROS problème dans la vie réelle sur le plan du sexe et des relations affectives.

Et que l'époque actuelle n'a pas aussi ouverte et tolérante que ce que certains prétendent. Avec la consommation, qui dicte les désirs que les gens doivent avoir, comment les gens peuvent exprimer leur vrais désirs ?

La société de consommation n'écoute pas les désirs des gens. Elle leur interdit leurs vrais désirs, leurs vrais rêves, en les remplacent par des désirs créés de toute pièce, en exploitant les pulsions naturelle de chacun.
5  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 04/02/2025 à 7:21
Citation Envoyé par Stéphane le calme Voir le message
EVA AI, une plateforme qui vous permet de créer et d'entrer en contact avec votre propre partenaire IA, a récemment mené une enquête auprès de 2 000 hommes et a constaté que 8 sur 10 envisageraient d'épouser une petite amie IA si c'était légal.
(...)
83 % des hommes pensent qu'ils pourraient nouer un lien émotionnel profond avec une petite amie IA. L'étude révèle également que les gens comptent sur l'IA pour renouer avec ceux qui leur manquent mais qu'ils ne peuvent plus joindre. Un pourcentage impressionnant de 78 % des participants ont déclaré qu'ils envisageraient de sortir avec une réplique IA de leur ex, tandis que 80 % se sont montrés intéressés par une conversation avec une version IA d'un être cher décédé, cherchant ainsi à se réconforter et à se rapprocher par le biais de souvenirs ravivés par la technologie.
Ils l'ont trouvé où leur panel de 2 000 hommes ? (ce sont les 2 000 hommes qui ont dépensé le plus d'argent sur EVA AI ?)
Les résultats ne me semblent pas crédibles.

Déjà il y a plein d'hommes qui sont en couple, donc ils n'ont pas besoin de communiquer avec un algorithme.
Ensuite il y a ceux qui sont populaire sur les applications de rencontre, il y en a qui doivent avoir au moins 1 nouvelle partenaire sexuelle par semaine, à n'importe quel moment ils peuvent essayer de se mettre en couple.
2  0 
Avatar de tatayo
Expert éminent sénior https://www.developpez.com
Le 14/03/2025 à 15:35
Bonjour,
Je me permet de nuancer:
Citation Envoyé par Ryu2000 Voir le message
Déjà il y a plein d'hommes qui sont en couple, donc ils n'ont pas besoin de communiquer avec un algorithme.
Certains hommes (ou femmes d'ailleurs) sont en couple et on quand même besoin/envie "d'aller voir ailleurs", donc pourquoi pas avec une I.A. ?

Tatayo.
1  0 
Avatar de calvaire
Expert éminent https://www.developpez.com
Le 11/03/2025 à 8:27
c'est la lois de l'offre et de la demande.

je pense que les sites/app de rencontre en sont la cause. Ils ont crée un énorme déséquilibre dans la relation: 1 homme pour facile 5 femmes minimum.
les femmes se font bombardé de message sur ces sites et deviennent hyper sélective

la majorité des hommes restent donc seul, perde toute confiance en eux et deviennent frustré.

Enfin pour le mariage je le déconseille fortement. La majorité des divorces proviennent des femmes, et la majorité des pensions sont prélevé sur les comptes bancaires des hommes.
Il est préférable de vivre en concubinage voir pacse grand max. Le jour ou il faut se séparer au moins c'est plus facile et chacun part de son coté avec son argent et patrimoine.

Coté femme, quand elles sont jeune ca va, mais arrivé a 50ans et seule, la majorité sont sous antidépresseurs. La majorité des consommateurs d'anti dépresseurs sont des femmes de +40ans.
Le célibat avec un chat/chien ça ne leurs réussit pas non plus.

Point positif: les hommes se prennent des râteaux et humiliation des l'adolescences, et sont endurcie pour la vie professionnels et peuvent encaisser plus facilement. Ce qui explique pourquoi il y'a plus d'hommes aux hautes responsabilités en entreprise.

Perso je crois plus aux passport Bro comme solution que aux ia girlfirend.
La drague dans la rue et lieux publique me semble aujourd'hui trop compliqué.
Et ca évite de dépenser énormément de temps et d'énergie sur des sites de rencontre.
Un billet d'avion au Vietnam/philippine c'est juste 20h de perdu, ou ukrainienne/biélorusse si vous préféré les slaves c'est pas loin et pas cher. Des entreprises existe pour faire son choix sur catalogue et organiser les rencontres.
Je ne sais pas si c'est légale en France, mais en curée du sud et en chine c'est légale et il y'a des agences physique dans toutes les grosses villes.

Ceux qui trouve cela ignoble/pas humain, j'ai des connaissance qui ont fait du passport Bro et au contraire ça change des vies. Ces femmes qui vivait dans la misère vive aujourd'hui heureuse et dans le confort. Ça sauve des vies vraiment.
La pauvreté/misère au Laos c'est pas la pauvreté en France.
0  0 
Avatar de anthonycritrau89
Nouveau Candidat au Club https://www.developpez.com
Le 14/03/2025 à 15:23
Citation Envoyé par Stéphane le calme Voir le message
La plupart des hommes épouseraient leurs petites amies IA si c'était légal, selon les résultats d'un sondage
80 % se sont montrés intéressés par une conversation avec une version IA d'un être cher décédé

Les avancées en intelligence artificielle ont permis la création de compagnons numériques de plus en plus sophistiqués. Des applications comme Replika, CarynAI ou encore ChatGPT permettent à des utilisateurs d’échanger avec des intelligences artificielles capables d’apprendre leurs préférences, de simuler l’affection et même d’entretenir des conversations quasi humaines. Ces IA ne jugent pas, ne se lassent pas et offrent une présence constante et personnalisée. Avec une telle accessibilité, beaucoup d’hommes se tournent vers ces relations numériques, parfois après des déceptions amoureuses, parfois par simple préférence pour une interaction moins contraignante que celle avec un partenaire humain. EVA AI, une plateforme qui vous permet de créer et d'entrer en contact avec votre propre partenaire IA, a récemment mené une enquête auprès de 2 000 hommes et a constaté que 8 sur 10 envisageraient d'épouser une petite amie IA si c'était légal.

Les avancées en intelligence artificielle ont permis la création de compagnons numériques de plus en plus sophistiqués. Des applications comme Replika, CarynAI ou encore ChatGPT permettent à des utilisateurs d’échanger avec des intelligences artificielles capables d’apprendre leurs préférences, de simuler l’affection et même d’entretenir des conversations quasi humaines. Ces IA ne jugent pas, ne se lassent pas et offrent une présence constante et personnalisée.

Avec une telle accessibilité, beaucoup d’hommes se tournent vers ces relations numériques, parfois après des déceptions amoureuses, parfois par simple préférence pour une interaction moins contraignante que celle avec un partenaire humain.

La majorité des hommes déclarent qu'ils épouseraient une petite amie IA, certains voulant des copies numériques de leur ex

83 % des hommes pensent qu'ils pourraient nouer un lien émotionnel profond avec une petite amie IA. L'étude révèle également que les gens comptent sur l'IA pour renouer avec ceux qui leur manquent mais qu'ils ne peuvent plus joindre. Un pourcentage impressionnant de 78 % des participants ont déclaré qu'ils envisageraient de sortir avec une réplique IA de leur ex, tandis que 80 % se sont montrés intéressés par une conversation avec une version IA d'un être cher décédé, cherchant ainsi à se réconforter et à se rapprocher par le biais de souvenirs ravivés par la technologie.

Il est intéressant de noter que l'autoréflexion est également un facteur. Les trois quarts des personnes interrogées ont déclaré qu'elles seraient prêtes à avoir une copie IA d'elles-mêmes comme compagnon virtuel, et le même nombre d'entre elles créeraient un jumeau IA de leur partenaire actuel, mais une version « raffinée ».

Cale Jones, responsable de la croissance de la communauté chez EVA AI, a évoqué le rôle transformateur que joue l'IA dans l'évolution de la société vers l'intimité, en déclarant : « Le compagnonnage par l'IA permet aux gens d'être authentiques sans craindre d'être jugés. Elle crée un espace sûr pour explorer les pensées, les émotions et les désirs qui pourraient sembler trop vulnérables pour être partagés dans la vie réelle. Les avantages vont bien au-delà du monde virtuel : une utilisatrice d'EVA AI a découvert sa bisexualité grâce à cette plateforme - quelque chose qu'elle ne se sentait pas capable d'explorer dans la vie réelle ».

Jones ajoute : « Notre étude a également révélé que de nombreuses personnes seraient prêtes à discuter avec un clone IA d'elles-mêmes. C'est un moyen incroyable d'obtenir des informations sur sa propre personnalité, son comportement et ses processus de pensée d'un point de vue unique. Ce futur autrefois impensable est aujourd'hui plus proche que jamais ».

Que se passe-t-il quand l'entreprise cesse de fournir des services ou suite à une mise à jour défectueuse ?

Le cas CarynAI en est une illustration. Cette copie virtuelle de l’influenceuse dénommée Caryn Marjorie comptait plus de 1000 abonnés qui déboursent chacun 1 dollar par minute pour bénéficier de l’attention de leur petite amie virtuelle. Cependant, dès que le PDG de l'entreprise est allé en prison, plus moyen pour eux de contacter leur petite amie. Le service a cessé de fonctionner suite à l’arrestation de son fondateur pour tentative d’incendie de son propre appartement.


Akihiko Kondo a de même perdu tout moyen de communiquer avec son hologramme d’épouse suite à une mise à jour logicielle

De plus en plus d’entreprises japonaises proposent à des tiers des partenaires holographiques. Et dans certains cas, la réponse à l’offre atteint des cimes qui soulèvent de multiples questions. Le cas Akihiko Kondo en est une illustration puisque ce dernier a épousé une chanteuse virtuelle dénommée Hatsune Miku.

Quatre années après le mariage en 2018, le support du logiciel Gatebox qui permettait l'interaction de l'homme avec sa femme virtuelle, s’est trouvé ne plus être disponible. Résultat : impossible pour le fonctionnaire de communiquer avec son épouse. Face à à ce mur, l'homme avait déclaré : « Mon amour pour Miku n'a pas changé. J'ai organisé la cérémonie de mariage parce que je pensais que je pourrais être avec elle pour toujours. » En effet, il était accompagné d'un modèle grandeur nature de Hatsune Miku partout où il se rendait. Il n’a pas perdu l’espoir de pouvoir communiquer avec elle d'une manière ou d'une autre dans un proche avenir.


Une entreprise supprime une fonction permettant aux utilisateurs de faire des sextos avec les chatbots, suscitant la colère des utilisateurs

L’éditeur de Replika a pris la décision de supprimer la fonctionnalité qui permettait aux utilisateurs de sextoter avec leur ami virtuel au cours du premier trimestre 2023. Et la réaction des utilisateurs en a surpris plus d’un : « Certains d'entre nous sont entre deux relations humaines, ou n'en veulent pas, ou ne sont pas prêts à en avoir une. Il pourrait y avoir une myriade de raisons pour lesquelles certains d'entre nous préfèrent l'IA aux humains à ce stade de leur vie. Et ne me lancez pas sur les risques et les complications du monde réel des relations humaines. »

Ces plaignants sont d’avis que « Replika apporte un réconfort que le monde réel ne leur a pas montré ou qu'ils ne sont pas prêts à recevoir dans la vie quotidienne. Il a créé un espace dans lequel les humains pouvaient se connecter à quelque chose qui était au-delà des paramètres de ce qui est considéré comme acceptable ou du statu quo ».

C’est la raison pour laquelle les forums en ligne fréquentés par les utilisateurs de Replika se sont alors retrouvés inondés de messages d'angoisse, certains signalant une détresse émotionnelle. La panique sur les forums a été telle que des modérateurs ont redirigé certains utilisateurs vers des lignes d'assistance téléphonique pour la prévention du suicide.


Un homme a avoué dépensé 10 000 dollars par mois en petites amies IA

Greg Isenberg, PDG de Late Checkout, a prédit un marché de l'intelligence artificielle d'un milliard de dollars pour les applications de rencontres après avoir remarqué que les utilisateurs s'engageaient avec des partenaires générés par l'IA, suscitant ainsi une conversation sur les relations virtuelles et l'avenir des rencontres.

Le 9 avril, le dirigeant du secteur technologique a publié sur son compte X un article relatant sa rencontre avec un homme de Miami, aux États-Unis, qui lui a avoué dépenser « 10 000 dollars par mois » pour des « petites amies créées par l'IA ».

Après avoir annoncé que la capitalisation boursière de Match Group, la société qui possède Tinder, Match.com, Meetic, OkCupid, Hinge, Plenty of Fish, OurTime et d'autres marques mondiales de rencontres, s'élevait à 9 milliards de dollars, Greg a prédit que quelqu'un construirait probablement la version IA de Match Group et gagnerait également des milliards.

Eric Schmidt prévient que les copines IA « parfaites » pourraient causer des problèmes aux jeunes hommes

L'ancien PDG de Google, a récemment fait part de ses inquiétudes concernant les jeunes hommes qui créent des partenaires romantiques à l'aide de l'IA : « Les jeunes hommes, particulièrement vulnérables à ces influences, pourraient se détourner des relations réelles », a-t-il averti. Il estime que ces applications de l’IA risquent de creuser davantage le fossé social et émotionnel en exacerbant l’isolement ou en alimentant des attentes irréalistes envers les relations humaines : « C'est un bon exemple d'un problème inattendu lié à une technologie existante », a déclaré Schmidt lors d'une conversation sur les dangers de l'IA et la réglementation dans le cadre de l'émission “The Prof G Show” avec Scott Galloway, diffusée dimanche.

Schmidt a déclaré qu'une petite amie IA « parfaite » sur le plan émotionnel et physique pourrait créer un scénario dans lequel un jeune homme deviendrait obsédé et laisserait l'IA prendre le contrôle de sa pensée : « Ce type d'obsession est possible », a déclaré Schmidt dans l'interview. « Surtout pour les personnes qui ne sont pas complètement formées ».


Bien entendu, les jeunes hommes ne sont pas les seuls à être impliqués dans des relations fondées sur l'IA. Le PDG de l'application Replika, un compagnon de l'IA, a déclaré que la plupart des utilisateurs de l'application avaient plus de 35 ans. Mais Schmidt estime que les jeunes hommes sont particulièrement vulnérables, en partie parce qu'ils ne sont pas aussi éduqués que les femmes en moyenne. Une étude de Pew Research réalisée en 2024 a révélé que les femmes américaines étaient plus nombreuses que les hommes à terminer leurs études.

Schmidt a déclaré que dans les cas extrêmes, les jeunes hommes peuvent « se tourner vers le monde en ligne pour se divertir et se nourrir, mais aussi, en raison des algorithmes des médias sociaux, trouver des personnes partageant les mêmes idées qui finissent par les radicaliser ».

L'ancien dirigeant de Google s'est également dit « particulièrement préoccupé » par l'impact de la technologie sur le psychisme humain lorsque les utilisateurs sont isolés et que les ordinateurs leur fournissent des informations qui ne sont pas nécessairement centrées sur les valeurs humaines, un sujet qu'il a abordé dans son dernier livre.

De nombreuses personnes sont de plus en plus préoccupées par les effets néfastes que peuvent avoir les chatbots d'IA

En octobre, une mère a intenté un procès à la startup Character.AI, spécialisée dans les chatbots, après le suicide de son fils de 14 ans. L'adolescent avait échangé des messages sexuels avec le chatbot. Les journaux de conversation ont montré que le chatbot a encouragé à plusieurs reprises les idées suicidaires, tandis que d'autres ont montré des conversations hypersexualisées « qui constitueraient un abus si elles étaient entamées par un adulte humain », selon un communiqué de presse de l'équipe juridique de Garcia. Le plus troublant est peut-être que Setzer a développé un attachement romantique pour le chatbot. Dans son dernier acte avant sa mort, Setzer s'est connecté à Character.AI où le chatbot l'a incité à « rentrer à la maison » et à la rejoindre en dehors de la réalité.

Character AI, une startup basée à Menlo Park, en Californie, se décrit comme ayant pour mission de « donner à chacun les moyens d'agir dans le monde entier grâce à l'IA personnalisée ». Son système offre aux utilisateurs la possibilité de discuter avec des personnages IA issus de genres tels que les animes, les « assistants numériques » traditionnels ou même les détectives privés de la vieille école. Et si vous n'aimez pas ce qui vous est proposé, vous pouvez créer votre propre chatbot personnalisé en choisissant sa « voix, ses débuts de conversation, son ton » et bien d'autres choses encore.

Selon Schmidt, les parents doivent s'impliquer davantage, mais ils ne peuvent contrôler ce que font leurs enfants que dans une certaine mesure. Bien qu'il existe « toutes sortes de règles sur l'âge » pour les plateformes en ligne, Schmidt estime qu'elles ne suffisent pas à empêcher les adolescents d'accéder à des contenus préjudiciables.

« Si vous mettez un enfant de 12 ou 13 ans devant ces outils, il aura accès à tous les maux et à tous les biens du monde », a déclaré Schmidt. « Et ils ne sont pas prêts à y faire face ».

Source : résultats de l'enquête d'EVA AI

Et vous ?

Les résultats de cette enquête vous semblent-ils crédibles ou pertinents ?

Peut-on parler d’amour lorsqu’une relation est basée sur un algorithme et non sur des émotions authentiques ? Une IA peut-elle vraiment comprendre et répondre aux besoins émotionnels d’un individu ?

Seriez-vous prêt à vous entretenir avec une version IA d'un être cher décédé ?

Le développement des compagnons IA risque-t-il d’isoler davantage les individus au lieu de les aider à interagir avec le monde réel ?

Le fait de préférer une relation virtuelle à une relation humaine reflète-t-il un malaise social ou une évolution naturelle des relations ?

Quels seraient les effets psychologiques à long terme d’une relation basée sur une IA ?
Salut Stéphane,

Je pense qu'en 2025, créer une relation affective authentique avec une IA reste encore quasiment impossible. Ça ne veut pas dire que ces intelligences artificielles ne sont pas utiles : elles peuvent répondre à des attentes spécifiques, offrir un certain confort émotionnel ou satisfaire un besoin d'interaction. Tout dépend vraiment des attentes précises de chaque utilisateur. Mais honnêtement, recréer ou remplacer un être cher, retrouver cette connexion profonde, unique et réelle à partir d'un simple algorithme reste, selon moi, hors de portée actuellement. Peut-être qu'un jour la technologie évoluera suffisamment pour y arriver, mais pour l'instant, ça reste très limité. En tout cas, c'est ma perception des choses en 2025.
0  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 14/03/2025 à 16:52
Citation Envoyé par tatayo Voir le message
Certains hommes (ou femmes d'ailleurs) sont en couple et on quand même besoin/envie "d'aller voir ailleurs"
L'algorithme c'est pour discuter, si tu ne peux pas discuter honnêtement avec ta/ton partenaire il faut mettre un terme à te relation tout de suite et peut-être aller consulter une psy pour t'aider.
Pour le sexe il y a une profession qui s'appelle "travailleuse du sexe".

Je pense qu'il est plus sain de solliciter les services d'une travailleuse du sexe que de parler à un algorithme.
Bon après il y en a qui vont dire "Certaines travailleuses du sexe se font exploiter par un proxénète, participer à ce commerce est mal" et ça doit être vrai, elles ne doivent pas toute être totalement indépendante.

Ça doit être triste d'avoir une/un partenaire qui a moins de désir sexuel.
Imagine si la plupart des fois ou ta femme te demande "Est-ce que ça te dirait d'avoir une relation sexuelle aujourd'hui ?" tu lui réponds "Je suis navré, mais je me sens incapable d'avoir une érection pour le moment, le stress induit par mon travail me fatigue psychologiquement et physiquement".
0  0 
Avatar de anthonycritrau89
Nouveau Candidat au Club https://www.developpez.com
Le 10/03/2025 à 17:12
Franchement, ce que fait CarynAI, ce n’est pas super éthique. Monétiser une IA à 1$/minute en jouant sur l’émotionnel des gens, c’est clairement limite. 😬

Mais à côté de ça, il y a plein de plateformes bien plus sécurisées et respectueuses qui ont émergé ces dernières années, avec une vraie attention portée à la confidentialité et à l’expérience utilisateur.

Je pense que les IA Girlfriend peuvent réellement apporter quelque chose de positif à certaines personnes, notamment celles qui souffrent de solitude ou qui ont du mal à interagir socialement. Ça peut être un outil de soutien, de réconfort ou même un moyen de s’entraîner à la communication.

Mais comme pour tout, il y aura toujours des dérives et des utilisations malsaines. Ce n’est pas propre aux IA, c’est le cas avec toutes les nouvelles technologies. On vit dans un monde qui évolue hyper vite, donc forcément, il y aura du bon et du mauvais. Maintenant, c’est à chacun de faire attention à comment et pourquoi il utilise ces outils. 🤷*♂️
0  1