Une relation illusoire avec la technologie
Les chatbots dotés d’intelligence artificielle et de capacités de conversation sophistiquées gagnent en popularité, promettant des interactions humaines virtuelles réalistes. Ils vont jusqu’à simuler des relations affectives, en offrant une « compagnie » sans les aléas des relations humaines réelles. Pour Schmidt, ce concept de « perfection » dans une relation simulée pourrait causer des problèmes sociaux et psychologiques profonds.
L'ancien PDG de Google, a récemment fait part de ses inquiétudes concernant les jeunes hommes qui créent des partenaires romantiques à l'aide de l'IA : « Les jeunes hommes, particulièrement vulnérables à ces influences, pourraient se détourner des relations réelles », a-t-il averti. Il estime que ces applications de l’IA risquent de creuser davantage le fossé social et émotionnel en exacerbant l’isolement ou en alimentant des attentes irréalistes envers les relations humaines : « C'est un bon exemple d'un problème inattendu lié à une technologie existante », a déclaré Schmidt lors d'une conversation sur les dangers de l'IA et la réglementation dans le cadre de l'émission “The Prof G Show” avec Scott Galloway, diffusée dimanche.
Schmidt a déclaré qu'une petite amie IA « parfaite » sur le plan émotionnel et physique pourrait créer un scénario dans lequel un jeune homme deviendrait obsédé et laisserait l'IA prendre le contrôle de sa pensée : « Ce type d'obsession est possible », a déclaré Schmidt dans l'interview. « Surtout pour les personnes qui ne sont pas complètement formées ».
Rendez-vous à 4:51
Bien entendu, les jeunes hommes ne sont pas les seuls à être impliqués dans des relations fondées sur l'IA. Le PDG de l'application Replika, un compagnon de l'IA, a déclaré que la plupart des utilisateurs de l'application avaient plus de 35 ans. Mais Schmidt estime que les jeunes hommes sont particulièrement vulnérables, en partie parce qu'ils ne sont pas aussi éduqués que les femmes en moyenne. Une étude de Pew Research réalisée en 2024 a révélé que les femmes américaines étaient plus nombreuses que les hommes à terminer leurs études.
Schmidt a déclaré que dans les cas extrêmes, les jeunes hommes peuvent « se tourner vers le monde en ligne pour se divertir et se nourrir, mais aussi, en raison des algorithmes des médias sociaux, trouver des personnes partageant les mêmes idées qui finissent par les radicaliser ».
L'ancien dirigeant de Google s'est également dit « particulièrement préoccupé » par l'impact de la technologie sur le psychisme humain lorsque les utilisateurs sont isolés et que les ordinateurs leur fournissent des informations qui ne sont pas nécessairement centrées sur les valeurs humaines, un sujet qu'il a abordé dans son dernier livre.
De nombreuses personnes sont de plus en plus préoccupées par les effets néfastes que peuvent avoir les chatbots d'IA
En octobre, une mère a intenté un procès à la startup Character.AI, spécialisée dans les chatbots, après le suicide de son fils de 14 ans. L'adolescent avait échangé des messages sexuels avec le chatbot. Les journaux de conversation ont montré que le chatbot a encouragé à plusieurs reprises les idées suicidaires, tandis que d'autres ont montré des conversations hypersexualisées « qui constitueraient un abus si elles étaient entamées par un adulte humain », selon un communiqué de presse de l'équipe juridique de Garcia. Le plus troublant est peut-être que Setzer a développé un attachement romantique pour le chatbot. Dans son dernier acte avant sa mort, Setzer s'est connecté à Character.AI où le chatbot l'a incité à « rentrer à la maison » et à la rejoindre en dehors de la réalité.
Character AI, une startup basée à Menlo Park, en Californie, se décrit comme ayant pour mission de « donner à chacun les moyens d'agir dans le monde entier grâce à l'IA personnalisée ». Son système offre aux utilisateurs la possibilité de discuter avec des personnages IA issus de genres tels que les animes, les « assistants numériques » traditionnels ou même les détectives privés de la vieille école. Et si vous n'aimez pas ce qui vous est proposé, vous pouvez créer votre propre chatbot personnalisé en choisissant sa « voix, ses débuts de conversation, son ton » et bien d'autres choses encore.
Selon Schmidt, les parents doivent s'impliquer davantage, mais ils ne peuvent contrôler ce que font leurs enfants que dans une certaine mesure. Bien qu'il existe « toutes sortes de règles sur l'âge » pour les plateformes en ligne, Schmidt estime qu'elles ne suffisent pas à empêcher les adolescents d'accéder à des contenus préjudiciables.
« Si vous mettez un enfant de 12 ou 13 ans devant ces outils, il aura accès à tous les maux et à tous les biens du monde », a déclaré Schmidt. « Et ils ne sont pas prêts à y faire face ».
Des services IA pour atteindre différents objectifs
Des sites web comme Romance.AI proposent des partenaires de rencontre virtuels grâce à une technologie capable d'imiter les interactions humaines réelles. Une application telle que Romantic AI « vous aide à créer la petite amie idéale avec laquelle vous partagez des intérêts et des points de vue. Vous pouvez parler de tout, obtenir du soutien et vous sentir utile ». Une autre application, Forever Companion, offre aux utilisateurs la possibilité de discuter avec des bots basés sur des influenceurs populaires des médias sociaux.
Replika, le logiciel de chatbot d'IA, offre aux utilisateurs la possibilité de créer leur propre petit ami ou mari pour quelques centaines de dollars seulement.
Des plateformes telles que Nomi.ai et Soulmate encouragent même les jeux de rôle érotiques. Les utilisateurs peuvent personnaliser l'avatar du chatbot IA et lui donner des traits de personnalité selon qu'ils souhaitent un ami, un mentor ou un partenaire romantique. La nature des messages pourrait s'apparenter à des "sextos", de sorte que toute conversation érotique devrait comporter des instructions explicites sur ce que l'utilisateur aimerait qu'il se passe.
Contrairement à Replika, qui dispose de filtres pour empêcher les gens d'utiliser un langage ouvertement sexuel, Nomi.ai permet aux utilisateurs d'adapter le robot d'IA à leurs préférences en décidant des vêtements que l'avatar porte et de leur degré d'ouverture à l'activité sexuelle.
Les utilisateurs ont également la possibilité de rendre leurs chatbots soumis ou dominants.
Un homme a avoué dépensé 10 000 dollars par mois en petites amies IA
Greg Isenberg, PDG de Late Checkout, a prédit un marché de l'intelligence artificielle (IA) d'un milliard de dollars pour les applications de rencontres après avoir remarqué que les utilisateurs s'engageaient avec des partenaires générés par l'IA, suscitant ainsi une conversation sur les relations virtuelles et l'avenir des rencontres.
Le 9 avril, le dirigeant du secteur technologique a publié sur son compte X un article relatant sa rencontre avec un homme de Miami, aux États-Unis, qui lui a avoué dépenser « 10 000 dollars par mois » pour des « petites amies créées par l'IA ».
Après avoir annoncé que la capitalisation boursière de Match Group, la société qui possède Tinder, Match.com, Meetic, OkCupid, Hinge, Plenty of Fish, OurTime et d'autres marques mondiales de rencontres, s'élevait à 9 milliards de dollars, Greg a prédit que quelqu'un construirait probablement la version IA de Match Group et gagnerait également des milliards.
« Il faudra probablement une catastrophe pour provoquer un changement de réglementation ».
Schmidt a investi dans diverses entreprises d'IA depuis qu'il a quitté Google, et il a déclaré que la réglementation de la technologie ne devrait pas étouffer l'innovation.
Dans son entretien avec Galloway, il a déclaré que les lois américaines telles que l'article 230, qui libère largement les entreprises technologiques de toute responsabilité juridique pour le contenu que les utilisateurs publient sur leurs plateformes, devraient être modifiées « pour permettre une responsabilité dans les pires cas possibles, de sorte que lorsque quelqu'un subit un préjudice du fait de cette technologie, nous devons avoir une solution pour empêcher tout préjudice supplémentaire ».
Le candidat choisi par le président élu Donald Trump pour présider la FTC, Brendan Carr, s'est prononcé en faveur d'une limitation de l'article 230.
Schmidt a déclaré qu'il ne s'attendait pas à ce qu'il y ait beaucoup de réglementation en matière d'IA au cours des quatre prochaines années, car l'administration de Trump aura probablement d'autres priorités. Il a également déclaré que, comme les entreprises technologiques disposent de bataillons d'avocats qui protègent leur propriété intellectuelle et leurs objectifs, « il faudra probablement une catastrophe pour provoquer un changement de réglementation ».
Cette inaction est typique des innovations technologiques : les décideurs politiques peinent souvent à comprendre et à suivre le rythme effréné des avancées, laissant ainsi le secteur privé largement libre de ses décisions. Schmidt souligne que cette inertie pourrait aggraver les conséquences négatives à long terme.
Vers une réflexion sociétale de cet aspect de l’IA
L’avertissement d’Eric Schmidt s’ajoute à une liste croissante de préoccupations liées à l’IA. De nombreux experts demandent un débat plus large sur les implications sociétales de ces innovations. La question n’est pas seulement technologique : elle touche à des problématiques fondamentales comme l’identité, les relations humaines et la santé mentale.
Bien que ces « petites amies IA » puissent sembler inoffensives, elles posent des questions cruciales sur les limites de l’utilisation de l’IA dans des sphères aussi intimes. Ces technologies doivent-elles être freinées pour protéger la société, ou bien leur usage peut-il être encadré sans en brider le potentiel créatif et commercial ?
En conclusion, si l’avertissement de Schmidt est à prendre au sérieux, il souligne une réalité encore plus large : dans la course à l’innovation, l’équilibre entre progrès technologique et bien-être humain reste un défi de taille.
Source : entretien avec Schmidt (vidéo dans le texte)
Et vous ?
Ces “petites amies IA” risquent-elles réellement de dissuader les jeunes hommes de s’investir dans des relations humaines ?
Peut-on établir un lien entre l’utilisation de ces technologies et l’aggravation de problèmes comme l’isolement ou la dépression ?
Quels groupes sociaux sont les plus vulnérables face à ces technologies et comment les protéger ?
Une relation simulée peut-elle offrir des bénéfices thérapeutiques ou émotionnels pour certaines personnes ?
Jusqu’où les entreprises devraient-elles aller dans la personnalisation de ces « relations » avec les IA pour satisfaire les utilisateurs sans compromettre leur santé mentale ?