IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les petites amies IA vont non seulement vous briser le cœur, mais aussi récolter et vendre vos données
Avertissent les experts en protection de la vie privée de la Fondation Mozilla

Le , par Jade Emy

30PARTAGES

4  0 
Une enquête sur l'espace florissant des applications de romance par IA a révélé une vérité effrayante. Les chatbots favorisent la "toxicité" et s'emparent sans relâche des données des utilisateurs, selon une étude de la Fondation Mozilla. Une application peut collecter des informations sur la santé sexuelle des utilisateurs, leurs ordonnances et les soins qu'ils reçoivent en fonction de leur sexe.

Vous vous sentez seul le jour de la Saint-Valentin ? L'IA peut vous aider. C'est du moins ce que vous diront un certain nombre d'entreprises qui vendent des chatbots "romantiques". Mais au fur et à mesure que votre histoire d'amour avec le robot se déroule, il y a un compromis dont vous ne vous rendez peut-être pas compte. Selon une nouvelle étude du projet *Privacy Not Included de Mozilla, les petits amis et petites amies IA recueillent des informations personnelles choquantes et presque tous vendent ou partagent les données qu'ils collectent.

L'organisation à but non lucratif "The Mozilla Foundation" a fait le point sur ce paysage en plein essor, en examinant 11 chatbots. D'après son enquête, 73 % des applications n'indiquent pas comment elles gèrent les failles de sécurité, 45 % autorisent des mots de passe faibles et toutes, sauf une (Eva AI Chat Bot & Soulmate), partagent ou vendent des données personnelles. En outre, la politique de confidentialité de CrushOn.AI indique qu'elle peut collecter des informations sur la santé sexuelle des utilisateurs, les médicaments prescrits et les soins liés à l'affirmation du genre, selon la Fondation Mozilla.

Pour ceux qui ne peuvent résister à la perspective de la romance avec l'IA, la Fondation Mozilla recommande plusieurs précautions, notamment de ne rien dire que vous ne voudriez pas qu'un collègue ou un membre de votre famille lise, d'utiliser un mot de passe fort, de refuser la formation à l'IA et de limiter l'accès de l'application à d'autres fonctions mobiles telles que votre localisation, votre microphone et votre appareil photo.

D'après les résultats, ces chatbots d'IA romantiques n'étaient pas dignes de confiance et qu'ils entraient dans la pire catégorie des produits qu'elle examine en matière de protection de la vie privée. "Vous ne devriez pas avoir à payer pour de nouvelles technologies cool avec votre sécurité ou votre vie privée", conclut le rapport.

https://youtu.be/grQtbKJHNhc


Les chatbots d'IA romantiques n'ont pas votre vie privée à cœur

Dans son enquête, la Fondation Mozilla a exploré le jargon juridique des conditions générales des applications de chatbots d'IA romantiques. Micha Rykov, chercheur du projet *Privacy Not Included déclare :

"Pour être tout à fait franc, les petites amies IA ne sont pas vos amies. Bien qu'elles soient présentées comme un moyen d'améliorer votre santé mentale et votre bien-être, elles se spécialisent dans la dépendance, la solitude et la toxicité, tout en vous soutirant autant de données que possible."

Dans leur hâte de gagner de l'argent, il semble que ces sociétés d'applications aient oublié de se préoccuper de la protection de la vie privée de leurs utilisateurs ou de publier ne serait-ce qu'un soupçon d'informations sur le fonctionnement de ces grands modèles de langage (LLM) alimentant l'IA - commercialisés en tant qu'âmes sœurs à vendre.

Selon les chercheurs, on a affaire à un tout autre niveau d'intimité et de problèmes potentiels de protection de la vie privée. Avec l'IA, les problèmes seraient plus grands pour les résoudre tous.

Les 11 chatbots d'IA romantiques que nous avons examinés ont tous reçu notre étiquette d'avertissement *Privacy Not Included - ce qui les place au même niveau que les pires catégories de produits que nous ayons jamais examinées en matière de protection de la vie privée.


Les chatbots d'IA romantiques ne respectent pas la vie privée de manières nouvelles et inquiétantes

Ils peuvent collecter un grand nombre d'informations (vraiment) personnelles à votre sujet. ... Mais c'est exactement ce pour quoi ils sont conçus !

Les chercheurs se questionnent : "Habituellement, nous nous arrêtont à plus de données que ce qui est nécessaire pour fournir le service, mais comment pouvons-nous mesurer la quantité de données personnelles "de trop" lorsque le service consiste à prendre vos données intimes et personnelles ?"


Présentés comme des amis empathiques, des amants ou des âmes sœurs, et conçus pour vous poser des questions sans fin, il ne fait aucun doute que les chatbots d'IA romantiques finiront par collecter des informations personnelles sensibles à votre sujet. Les entreprises à l'origine de ces applications semblent l'avoir compris.

Les chercheurs pensent que c'est la raison pour laquelle la politique de confidentialité de CrushOn.AI indique qu'ils peuvent collecter de nombreuses informations personnelles et même des informations liées à la santé, telles que vos "informations de santé sexuelle", "l'utilisation de médicaments prescrits" et "des informations sur les soins prodigués aux personnes âgées". C'est dire si les informations sont nombreuses.

Ils n'ont trouvé que peu ou pas d'informations sur le fonctionnement de l'IA

Comment fonctionne le chatbot ? D'où vient sa personnalité ? Des protections sont-elles en place pour empêcher les contenus potentiellement nuisibles ou blessants, et ces protections fonctionnent-elles ? Sur quelles données ces modèles d'IA sont-ils entraînés ? Les utilisateurs peuvent-ils refuser que leurs conversations ou d'autres données personnelles soient utilisées pour cette formation ?

De nombreuses questions se posent sur le fonctionnement de l'intelligence artificielle qui sous-tend ces chatbots. Mais les chercheurs n'ont trouvé que très peu de réponses. C'est un problème, car les chatbots dotés d'une intelligence artificielle peuvent avoir des conséquences néfastes. Même si les compagnons numériques sont relativement récents, il existe déjà de nombreuses preuves qu'ils peuvent avoir un impact négatif sur les sentiments et le comportement des humains. L'un des chatbots de Chai aurait encouragé un homme à mettre fin à ses jours. Et il l'a fait. Un chatbot Replika AI a encouragé un homme à tenter d'assassiner la reine. Et il l'a fait.

Ce que les chercheurs ont trouvé (enfoui dans les conditions générales), c'est que ces entreprises ne sont pas responsables de ce que le chatbot pourrait dire ou de ce qui pourrait vous arriver en conséquence. Extrait des conditions d'utilisation de Talkie Soulful AI : :

"Vous comprenez et acceptez expressément que Talkie ne sera pas responsable des dommages indirects, accidentels, spéciaux ou de la perte de bénéfices, y compris, mais sans s'y limiter, les dommages liés à la perte de la bonne volonté, de l'utilisation, des données ou d'autres pertes intangibles, D'UTILISATION, DE DONNÉES OU D'AUTRES PERTES INTANGIBLES (MÊME SI LA SOCIÉTÉ A ÉTÉ INFORMÉE DE LA POSSIBILITÉ DE TELS DOMMAGES), QU'ILS SOIENT FONDÉS SUR UN CONTRAT, UN DÉLIT, UNE NÉGLIGENCE, UNE RESPONSABILITÉ STRICTE OU AUTRE, RÉSULTANT DE : (I) L'UTILISATION OU L'INCAPACITÉ D'UTILISER LE SERVICE..."

Dans ces cas tragiques, les sociétés d'application n'ont probablement pas voulu causer du tort à leurs utilisateurs par l'intermédiaire des messages des chatbots. Mais que se passerait-il si un mauvais acteur voulait le faire ? Depuis le scandale Cambridge Analytica, on sait que même les médias sociaux peuvent être utilisés pour espionner et manipuler les utilisateurs. Les chatbots relationnels d'IA ont le potentiel de faire bien pire, plus facilement. Les chercheurs craignent qu'ils n'établissent des relations avec les utilisateurs et qu'ils utilisent ensuite ces relations étroites pour manipuler les gens afin qu'ils soutiennent des idéologies problématiques ou qu'ils prennent des mesures préjudiciables.

Cela représente beaucoup de dangers potentiels pour les personnes et les communautés. Et pour quoi faire ? Les utilisateurs pourraient s'attendre à ce que les chatbots améliorent leur santé mentale. Après tout, Talkie Soulful AI qualifie son service de "programme d'auto-assistance", EVA AI Chat Bot & Soulmate se présente comme "un fournisseur de logiciels et de contenus développés pour améliorer votre humeur et votre bien-être", et Romantic AI affirme être "là pour maintenir votre SANTÉ MENTALE".

Mais les chercheurs déclare qu'ils n'ont trouvé aucune application prête à soutenir cette affirmation dans les conditions d'utilisation. Extrait des conditions générales d'utilisation de Romantic AI :

"Romantiс AI n'est ni un fournisseur de soins de santé ou de services médicaux, ni un fournisseur de soins médicaux, de services de santé mentale ou d'autres services professionnels. Seul votre médecin, votre thérapeute ou tout autre spécialiste peut le faire. Romantiс AI ne prétend pas, ne fait pas de déclarations, ne donne pas de garanties ou ne garantit pas que le service fournit une aide thérapeutique, médicale ou autre aide professionnelle".

On a donc un tas de promesses vides et de questions sans réponse, combinées à un manque de transparence et de responsabilité, le tout couronné par un risque pour la sécurité des utilisateurs. C'est pourquoi tous les chatbots d'IA romantique ont reçu l'avertissement "indigne de confiance" par les chercheurs de la Fondation Mozilla.

Les chatbots d'IA romantiques sont également mauvais en matière de protection de la vie privée dans la norme de base

Selon les chercheurs, presque aucun ne fait assez pour assurer la sécurité de vos données personnelles - 90 % ne respectent pas les normes de sécurité minimales.

Nous n'avons pu confirmer qu'une seule application (bravo à Genesia AI Friend & Partner !) répond à nos normes minimales de sécurité. Et même dans ce cas, nous avons trouvé des informations contradictoires. Nous ne recommanderions pas une ampoule intelligente qui ne répond pas à nos normes minimales de sécurité (il s'agit de normes minimales après tout), mais un partenaire romantique d'IA ? Ces applications exposent vraiment vos informations privées à un risque sérieux de fuite, de violation ou de piratage. La plupart du temps, nous ne sommes pas en mesure de dire si ces applications font le minimum pour sécuriser vos données personnelles.

  • La plupart (73 %) n'ont pas publié d'informations sur la manière dont elles gèrent les failles de sécurité.
  • La plupart (64 %) n'ont pas publié d'informations claires sur le cryptage et n'ont pas précisé si elles l'utilisent.
  • Près de la moitié (45 %) autorisent les mots de passe faibles, y compris le mot de passe faible "1".


Toutes les applications sauf une (90 %) peuvent partager ou vendre vos données personnelles.

EVA AI Chat Bot & Soulmate est la seule application qui n'a pas reçu un "avertissement" par les chercheurs de la Fondation Mozilla pour la façon dont elle utilise vos données personnelles. Toutes les autres applications disent vendre vos données, les partager à des fins de publicité ciblée ou ne fournissent pas suffisamment d'informations dans leur politique de confidentialité pour qu'ils puissent confirmer que ce n'est pas le cas.

Près de la moitié des applications (54 %) ne vous permettent pas de supprimer vos données personnelles

Si l'on s'en tient à ce qu'elles disent, la moitié seulement des applications accordent à tous les utilisateurs le droit de supprimer leurs données personnelles, et pas seulement à ceux qui vivent sous une législation stricte en matière de protection de la vie privée. Mais sachez que vos conversations ne sont pas toujours prises en compte. Même si les conversations romantiques avec votre âme sœur IA vous semblent privées, elles ne seront pas nécessairement considérées comme des "informations personnelles" et ne feront pas l'objet d'un traitement particulier. Souvent, comme le dit Romantic AI, "la communication via le chatbot appartient au logiciel".

Comment les chatbots de Romantic AI répondent aux critères de protection de la vie privée et de sécurité de la Fondation Mozilla

X marque l'avertissement:



Quelques faits peu amusants sur ces robots :

[LIST][*]Les antécédents sont-ils "irréprochables" ou simplement courts ?

Nombre de ces entreprises sont nouvelles ou inconnues. Il n'est donc pas surprenant que seul un chatbot d'IA romantique plus ancien et apparemment mieux établi, Replika AI, ait obtenu notre "avertissement".

[*]Tout ce que vous dites à votre IA amoureuse peut être et sera utilisé contre vous

Le "privilège du conjoint" - selon lequel votre mari ou votre femme n'a pas à témoigner contre vous au...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de OrthodoxWindows
Membre expert https://www.developpez.com
Le 04/02/2025 à 1:09
En gros tout cela ne prouve qu'une chose : qu'il y a un GROS problème dans la vie réelle sur le plan du sexe et des relations affectives.

Et que l'époque actuelle n'a pas aussi ouverte et tolérante que ce que certains prétendent. Avec la consommation, qui dicte les désirs que les gens doivent avoir, comment les gens peuvent exprimer leur vrais désirs ?

La société de consommation n'écoute pas les désirs des gens. Elle leur interdit leurs vrais désirs, leurs vrais rêves, en les remplacent par des désirs créés de toute pièce, en exploitant les pulsions naturelle de chacun.
5  0 
Avatar de Fagus
Membre expert https://www.developpez.com
Le 12/04/2024 à 12:58
10 000 $ par mois pour des images et du baratin , qui n'ont même pas d'existence, ça montre que certains ont trop d'argent, ou que le neuro-marqueting marche bien et qu'il est urgent de réguler le marché pour protéger les gens, comme c'est déjà le cas pour les jeux de hasard et les courses.
4  0 
Avatar de Mingolito
Expert éminent https://www.developpez.com
Le 08/07/2024 à 18:55
Après avoir lu cette étude très utile on peu en conclure avec certitude que ce qu'il faut en retenir c'est qu'il ne faut jamais se marier

Une fois marié votre femme se transforme immanquablement en "dragon", et il ne reste plus qu'à passer le reste de votre vie à parler avec une IA, la loose
4  0 
Avatar de calvaire
Expert éminent https://www.developpez.com
Le 15/04/2024 à 15:32
Citation Envoyé par Ryu2000 Voir le message

Il y a un problème grave dans la société actuel. Des hommes n'arrivent plus à rencontrer des femmes.
Il serait intéressant un jours que la puissance publique ce penche sur ce problème. Le nombre alarmant de célibataire, de divorce, la baisse de la natalité et de puceaux encore à 30ans qui ne fait que croitre.

et je parle de la france mais au Japon et Corée du Sud c'est bien pire que ca et c'est vers ca que tends l'occident.

Sans tabou, retournement de veste et langue de bois évidement. J'ai regardé quelques débats sur Arte et autre média mainstream mais ca m'a gonflé car la question et tous le temps esquivé et ca parle de truc complétement HS.

c'est consternant que tous le monde tour autour du pots, ils parlent de "désirs de la rencontre" sauf que le soucis c'est qu'il n'ya pas de rencontre pour beaucoup d'homme (sujet jamais abordé) la seule a sortir enfin une réponse clair et net c'est l'invité asexuel (étrange d'inviter ce genre de personne d'ailleurs...)
a la minute 18

c'est pas très plaisant ce qu'elle raconte mais au moins on a un élément de réponse sans langue de bois

de la a validé la théorie du grand remplacement, il n'y a qu'un pas a franchir
Au japon et Corée pas de grand remplacement mais du coup c'est l'extinction.
4  1 
Avatar de calvaire
Expert éminent https://www.developpez.com
Le 17/07/2024 à 15:09
la hausse du célibat a surtout un gros impact sur l'économie.
Au niveau national il faut plus de logement, c'est une des 1ere explication de la pénurie de logement dans les pays occidentaux
Et ca appauvrit les populations en générale, car à 2 on mutualise l’essentiel des frais (loyer, nourriture, énergie...)

Enfin il y'a une baisse de la natalité, au niveau global, sa signifie soit la ruine économique, soit l'importation de migrants jeune en age de bosser pour avoir de la main d’œuvre et faire fonctionner la société. Mais cette solution est pas magique et pose d'autres problèmes ce qui explique la monté de la droite dans bon nombres de pays occidentaux mais aussi Corée du sud et Japon (c'est un secret pour personne, les japonais n'aiment pas les étranger).

Et au delà de l'économie, la misère sexuel, la solitude sont de vrai sujet et la solitude est une "maladie" mortelle.
Je veux bien admettre que les ia peuvent pallier la solitude mais pas le reste.
3  0 
Avatar de _toma_
Membre éclairé https://www.developpez.com
Le 12/04/2024 à 2:14
System notification : user C4nc3r d3 l'hum4n1t3 in room Capitalism just leveled up
2  0 
Avatar de RenarddeFeu
Membre averti https://www.developpez.com
Le 17/07/2024 à 12:08
Il faut expliquer à cette psychologue que même les humains font semblant, et que les relations amoureuses sont de plus matérialistes et de moins en moins basées sur les sentiments.
3  1 
Avatar de Jules34
Membre émérite https://www.developpez.com
Le 17/07/2024 à 15:47
Citation Envoyé par RenarddeFeu Voir le message
Il faut expliquer à cette psychologue que même les humains font semblant, et que les relations amoureuses sont de plus matérialistes et de moins en moins basées sur les sentiments.
Tout le monde peut faire le choix de ne pas tomber dans ce piège.
2  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 04/02/2025 à 7:21
Citation Envoyé par Stéphane le calme Voir le message
EVA AI, une plateforme qui vous permet de créer et d'entrer en contact avec votre propre partenaire IA, a récemment mené une enquête auprès de 2 000 hommes et a constaté que 8 sur 10 envisageraient d'épouser une petite amie IA si c'était légal.
(...)
83 % des hommes pensent qu'ils pourraient nouer un lien émotionnel profond avec une petite amie IA. L'étude révèle également que les gens comptent sur l'IA pour renouer avec ceux qui leur manquent mais qu'ils ne peuvent plus joindre. Un pourcentage impressionnant de 78 % des participants ont déclaré qu'ils envisageraient de sortir avec une réplique IA de leur ex, tandis que 80 % se sont montrés intéressés par une conversation avec une version IA d'un être cher décédé, cherchant ainsi à se réconforter et à se rapprocher par le biais de souvenirs ravivés par la technologie.
Ils l'ont trouvé où leur panel de 2 000 hommes ? (ce sont les 2 000 hommes qui ont dépensé le plus d'argent sur EVA AI ?)
Les résultats ne me semblent pas crédibles.

Déjà il y a plein d'hommes qui sont en couple, donc ils n'ont pas besoin de communiquer avec un algorithme.
Ensuite il y a ceux qui sont populaire sur les applications de rencontre, il y en a qui doivent avoir au moins 1 nouvelle partenaire sexuelle par semaine, à n'importe quel moment ils peuvent essayer de se mettre en couple.
2  0 
Avatar de Prox_13
Membre éprouvé https://www.developpez.com
Le 15/02/2024 à 16:27
Citation Envoyé par Jade Emy Voir le message
Les petites amies IA vont non seulement vous briser le cœur, mais aussi récolter et vendre vos données, avertissent les experts en protection de la vie privée de la Fondation Mozilla.
Mais non. L'eusses-tu cru ?
1  0