IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les petites amies IA vont non seulement vous briser le cœur, mais aussi récolter et vendre vos données
Avertissent les experts en protection de la vie privée de la Fondation Mozilla

Le , par Jade Emy

8PARTAGES

4  0 
Une enquête sur l'espace florissant des applications de romance par IA a révélé une vérité effrayante. Les chatbots favorisent la "toxicité" et s'emparent sans relâche des données des utilisateurs, selon une étude de la Fondation Mozilla. Une application peut collecter des informations sur la santé sexuelle des utilisateurs, leurs ordonnances et les soins qu'ils reçoivent en fonction de leur sexe.

Vous vous sentez seul le jour de la Saint-Valentin ? L'IA peut vous aider. C'est du moins ce que vous diront un certain nombre d'entreprises qui vendent des chatbots "romantiques". Mais au fur et à mesure que votre histoire d'amour avec le robot se déroule, il y a un compromis dont vous ne vous rendez peut-être pas compte. Selon une nouvelle étude du projet *Privacy Not Included de Mozilla, les petits amis et petites amies IA recueillent des informations personnelles choquantes et presque tous vendent ou partagent les données qu'ils collectent.

L'organisation à but non lucratif "The Mozilla Foundation" a fait le point sur ce paysage en plein essor, en examinant 11 chatbots. D'après son enquête, 73 % des applications n'indiquent pas comment elles gèrent les failles de sécurité, 45 % autorisent des mots de passe faibles et toutes, sauf une (Eva AI Chat Bot & Soulmate), partagent ou vendent des données personnelles. En outre, la politique de confidentialité de CrushOn.AI indique qu'elle peut collecter des informations sur la santé sexuelle des utilisateurs, les médicaments prescrits et les soins liés à l'affirmation du genre, selon la Fondation Mozilla.

Pour ceux qui ne peuvent résister à la perspective de la romance avec l'IA, la Fondation Mozilla recommande plusieurs précautions, notamment de ne rien dire que vous ne voudriez pas qu'un collègue ou un membre de votre famille lise, d'utiliser un mot de passe fort, de refuser la formation à l'IA et de limiter l'accès de l'application à d'autres fonctions mobiles telles que votre localisation, votre microphone et votre appareil photo.

D'après les résultats, ces chatbots d'IA romantiques n'étaient pas dignes de confiance et qu'ils entraient dans la pire catégorie des produits qu'elle examine en matière de protection de la vie privée. "Vous ne devriez pas avoir à payer pour de nouvelles technologies cool avec votre sécurité ou votre vie privée", conclut le rapport.



Les chatbots d'IA romantiques n'ont pas votre vie privée à cœur

Dans son enquête, la Fondation Mozilla a exploré le jargon juridique des conditions générales des applications de chatbots d'IA romantiques. Micha Rykov, chercheur du projet *Privacy Not Included déclare :

"Pour être tout à fait franc, les petites amies IA ne sont pas vos amies. Bien qu'elles soient présentées comme un moyen d'améliorer votre santé mentale et votre bien-être, elles se spécialisent dans la dépendance, la solitude et la toxicité, tout en vous soutirant autant de données que possible."
Dans leur hâte de gagner de l'argent, il semble que ces sociétés d'applications aient oublié de se préoccuper de la protection de la vie privée de leurs utilisateurs ou de publier ne serait-ce qu'un soupçon d'informations sur le fonctionnement de ces grands modèles de langage (LLM) alimentant l'IA - commercialisés en tant qu'âmes sœurs à vendre.

Selon les chercheurs, on a affaire à un tout autre niveau d'intimité et de problèmes potentiels de protection de la vie privée. Avec l'IA, les problèmes seraient plus grands pour les résoudre tous.

Les 11 chatbots d'IA romantiques que nous avons examinés ont tous reçu notre étiquette d'avertissement *Privacy Not Included - ce qui les place au même niveau que les pires catégories de produits que nous ayons jamais examinées en matière de protection de la vie privée.

Les chatbots d'IA romantiques ne respectent pas la vie privée de manières nouvelles et inquiétantes

Ils peuvent collecter un grand nombre d'informations (vraiment) personnelles à votre sujet. ... Mais c'est exactement ce pour quoi ils sont conçus !

Les chercheurs se questionnent : "Habituellement, nous nous arrêtont à plus de données que ce qui est nécessaire pour fournir le service, mais comment pouvons-nous mesurer la quantité de données personnelles "de trop" lorsque le service consiste à prendre vos données intimes et personnelles ?"


Présentés comme des amis empathiques, des amants ou des âmes sœurs, et conçus pour vous poser des questions sans fin, il ne fait aucun doute que les chatbots d'IA romantiques finiront par collecter des informations personnelles sensibles à votre sujet. Les entreprises à l'origine de ces applications semblent l'avoir compris.

Les chercheurs pensent que c'est la raison pour laquelle la politique de confidentialité de CrushOn.AI indique qu'ils peuvent collecter de nombreuses informations personnelles et même des informations liées à la santé, telles que vos "informations de santé sexuelle", "l'utilisation de médicaments prescrits" et "des informations sur les soins prodigués aux personnes âgées". C'est dire si les informations sont nombreuses.

Ils n'ont trouvé que peu ou pas d'informations sur le fonctionnement de l'IA

Comment fonctionne le chatbot ? D'où vient sa personnalité ? Des protections sont-elles en place pour empêcher les contenus potentiellement nuisibles ou blessants, et ces protections fonctionnent-elles ? Sur quelles données ces modèles d'IA sont-ils entraînés ? Les utilisateurs peuvent-ils refuser que leurs conversations ou d'autres données personnelles soient utilisées pour cette formation ?

De nombreuses questions se posent sur le fonctionnement de l'intelligence artificielle qui sous-tend ces chatbots. Mais les chercheurs n'ont trouvé que très peu de réponses. C'est un problème, car les chatbots dotés d'une intelligence artificielle peuvent avoir des conséquences néfastes. Même si les compagnons numériques sont relativement récents, il existe déjà de nombreuses preuves qu'ils peuvent avoir un impact négatif sur les sentiments et le comportement des humains. L'un des chatbots de Chai aurait encouragé un homme à mettre fin à ses jours. Et il l'a fait. Un chatbot Replika AI a encouragé un homme à tenter d'assassiner la reine. Et il l'a fait.

Ce que les chercheurs ont trouvé (enfoui dans les conditions générales), c'est que ces entreprises ne sont pas responsables de ce que le chatbot pourrait dire ou de ce qui pourrait vous arriver en conséquence. Extrait des conditions d'utilisation de Talkie Soulful AI : :

"Vous comprenez et acceptez expressément que Talkie ne sera pas responsable des dommages indirects, accidentels, spéciaux ou de la perte de bénéfices, y compris, mais sans s'y limiter, les dommages liés à la perte de la bonne volonté, de l'utilisation, des données ou d'autres pertes intangibles, D'UTILISATION, DE DONNÉES OU D'AUTRES PERTES INTANGIBLES (MÊME SI LA SOCIÉTÉ A ÉTÉ INFORMÉE DE LA POSSIBILITÉ DE TELS DOMMAGES), QU'ILS SOIENT FONDÉS SUR UN CONTRAT, UN DÉLIT, UNE NÉGLIGENCE, UNE RESPONSABILITÉ STRICTE OU AUTRE, RÉSULTANT DE : (I) L'UTILISATION OU L'INCAPACITÉ D'UTILISER LE SERVICE..."
Dans ces cas tragiques, les sociétés d'application n'ont probablement pas voulu causer du tort à leurs utilisateurs par l'intermédiaire des messages des chatbots. Mais que se passerait-il si un mauvais acteur voulait le faire ? Depuis le scandale Cambridge Analytica, on sait que même les médias sociaux peuvent être utilisés pour espionner et manipuler les utilisateurs. Les chatbots relationnels d'IA ont le potentiel de faire bien pire, plus facilement. Les chercheurs craignent qu'ils n'établissent des relations avec les utilisateurs et qu'ils utilisent ensuite ces relations étroites pour manipuler les gens afin qu'ils soutiennent des idéologies problématiques ou qu'ils prennent des mesures préjudiciables.

Cela représente beaucoup de dangers potentiels pour les personnes et les communautés. Et pour quoi faire ? Les utilisateurs pourraient s'attendre à ce que les chatbots améliorent leur santé mentale. Après tout, Talkie Soulful AI qualifie son service de "programme d'auto-assistance", EVA AI Chat Bot & Soulmate se présente comme "un fournisseur de logiciels et de contenus développés pour améliorer votre humeur et votre bien-être", et Romantic AI affirme être "là pour maintenir votre SANTÉ MENTALE".

Mais les chercheurs déclare qu'ils n'ont trouvé aucune application prête à soutenir cette affirmation dans les conditions d'utilisation. Extrait des conditions générales d'utilisation de Romantic AI :

"Romantiс AI n'est ni un fournisseur de soins de santé ou de services médicaux, ni un fournisseur de soins médicaux, de services de santé mentale ou d'autres services professionnels. Seul votre médecin, votre thérapeute ou tout autre spécialiste peut le faire. Romantiс AI ne prétend pas, ne fait pas de déclarations, ne donne pas de garanties ou ne garantit pas que le service fournit une aide thérapeutique, médicale ou autre aide professionnelle".
On a donc un tas de promesses vides et de questions sans réponse, combinées à un manque de transparence et de responsabilité, le tout couronné par un risque pour la sécurité des utilisateurs. C'est pourquoi tous les chatbots d'IA romantique ont reçu l'avertissement "indigne de confiance" par les chercheurs de la Fondation Mozilla.

Les chatbots d'IA romantiques sont également mauvais en matière de protection de la vie privée dans la norme de base

Selon les chercheurs, presque aucun ne fait assez pour assurer la sécurité de vos données personnelles - 90 % ne respectent pas les normes de sécurité minimales.

Nous n'avons pu confirmer qu'une seule application (bravo à Genesia AI Friend & Partner !) répond à nos normes minimales de sécurité. Et même dans ce cas, nous avons trouvé des informations contradictoires. Nous ne recommanderions pas une ampoule intelligente qui ne répond pas à nos normes minimales de sécurité (il s'agit de normes minimales après tout), mais un partenaire romantique d'IA ? Ces applications exposent vraiment vos informations privées à un risque sérieux de fuite, de violation ou de piratage. La plupart du temps, nous ne sommes pas en mesure de dire si ces applications font le minimum pour sécuriser vos données personnelles.
  • La plupart (73 %) n'ont pas publié d'informations sur la manière dont elles gèrent les failles de sécurité.
  • La plupart (64 %) n'ont pas publié d'informations claires sur le cryptage et n'ont pas précisé si elles l'utilisent.
  • Près de la moitié (45 %) autorisent les mots de passe faibles, y compris le mot de passe faible "1".


Toutes les applications sauf une (90 %) peuvent partager ou vendre vos données personnelles.

EVA AI Chat Bot & Soulmate est la seule application qui n'a pas reçu un "avertissement" par les chercheurs de la Fondation Mozilla pour la façon dont elle utilise vos données personnelles. Toutes les autres applications disent vendre vos données, les partager à des fins de publicité ciblée ou ne fournissent pas suffisamment d'informations dans leur politique de confidentialité pour qu'ils puissent confirmer que ce n'est pas le cas.

Près de la moitié des applications (54 %) ne vous permettent pas de supprimer vos données personnelles

Si l'on s'en tient à ce qu'elles disent, la moitié seulement des applications accordent à tous les utilisateurs le droit de supprimer leurs données personnelles, et pas seulement à ceux qui vivent sous une législation stricte en matière de protection de la vie privée. Mais sachez que vos conversations ne sont pas toujours prises en compte. Même si les conversations romantiques avec votre âme sœur IA vous semblent privées, elles ne seront pas nécessairement considérées comme des "informations personnelles" et ne feront pas l'objet d'un traitement particulier. Souvent, comme le dit Romantic AI, "la communication via le chatbot appartient au logiciel".

Comment les chatbots de Romantic AI répondent aux critères de protection de la vie privée et de sécurité de la Fondation Mozilla

X marque l'avertissement:



Quelques faits peu amusants sur ces robots :

  • Les antécédents sont-ils "irréprochables" ou simplement courts ?

    Nombre de ces entreprises sont nouvelles ou inconnues. Il n'est donc pas surprenant que seul un chatbot d'IA romantique plus ancien et apparemment mieux établi, Replika AI, ait obtenu notre "avertissement".

  • Tout ce que vous dites à votre IA amoureuse peut être et sera utilisé contre vous

    Le "privilège du conjoint" - selon lequel votre mari ou votre femme n'a pas à témoigner contre vous au tribunal - n'existe pas avec les partenaires d'IA. La plupart des entreprises affirment qu'elles peuvent partager vos informations avec le gouvernement ou les forces de l'ordre sans avoir besoin d'une ordonnance du tribunal. Les chatbots d'IA romantiques ne font pas exception à la règle.

  • Des centaines et des milliers de traqueurs !

    Les trackers sont des petits bouts de code qui recueillent des informations sur votre appareil, sur votre utilisation de l'application, voire sur vos données personnelles, et qui les communiquent à des tiers, souvent à des fins publicitaires. Les chercheurs ont constaté que ces applications contenaient en moyenne 2 663 traceurs par minute. Pour être honnête, Romantic AI a fait grimper cette moyenne en flèche, avec 24 354 traceurs détectés en une minute d'utilisation. L'application EVA AI Chat Bot & Soulmate est la deuxième à avoir détecté le plus de traceurs, avec 955 traceurs au cours de la première minute d'utilisation.

  • Le contenu de la NSFL s'éloigne des clics

    Les chercheurs s'attendaient à trouver des contenus dangereux pour le travail lorsqu'ils ont examiné les chatbots d'IA romantiques !

    Nous ne sommes pas là pour juger, sauf en ce qui concerne les pratiques en matière de protection de la vie privée. Ce à quoi nous ne nous attendions pas, c'est qu'il y ait autant de contenus tout simplement dérangeants - comme des thèmes de violence ou d'abus de mineurs - dans les descriptions des personnages des chatbots. CrushOn.AI, Chai et Talkie Soulful AI sont accompagnés d'un avertissement de notre part.
  • La gentillesse n'est pas incluse !

    Si votre compagnon IA n'a rien de gentil à dire, cela ne l'empêchera pas de discuter avec vous. Bien que cela soit vrai pour tous les chatbots d'IA romantiques puisqu'ils n'ont pas trouvé de garantie de personnalité, Replika AI, iGirl : AI Girlfriend, Anima : Friend & Companion, et Anima : My Virtual Boyfriend ont spécifiquement mis en garde sur leurs sites web contre le caractère offensant, dangereux ou hostile des chatbots.


Que pouvez-vous faire à ce sujet ?

Contrairement à d'autres catégories de produits qui semblent être tous mauvais en matière de protection de la vie privée, il existe une certaine nuance entre les chatbots. Les chercheurs de l'étude recommandent de lire les avis pour comprendre votre niveau de risque et choisir un chatbot qui vous semble en valoir la peine. Mais, au moins pour tous les chatbots d'IA romantiques qu'ils ont examinés jusqu'à présent, aucun n'a reçu leur approbation et tous sont accompagnés d'un avertissement : *Privacy Not Included (Confidentialité non incluse).

Si vous décidez de vous aventurer dans le monde de l'IA, voici ce que les chercheurs suggèreny de faire (et de ne pas faire) pour être un peu plus en sécurité :

Le plus important : NE DITES RIEN à votre ami IA que vous ne voudriez pas que votre cousin ou vos collègues lisent. Mais aussi :

FAIRE

  • Pratiquer une bonne hygiène cybernétique en utilisant un mot de passe fort et en gardant l'application à jour.

  • Supprimez vos données personnelles ou demandez à l'entreprise de les supprimer lorsque vous n'utilisez plus le service.

  • Refusez que le contenu de vos conversations personnelles soit utilisé pour entraîner les modèles d'intelligence artificielle, si possible.

  • Limitez l'accès à votre localisation, à vos photos, à votre appareil photo et à votre microphone dans les paramètres de votre appareil.


Autre chose que vous pouvez faire ? Osez rêver d'une norme de protection de la vie privée plus élevée et d'une IA plus éthique ! Vous ne devriez pas avoir à payer pour de nouvelles technologies cool en sacrifiant votre sécurité ou votre vie privée. Il est temps d'apporter quelques droits et libertés au dangereux Far West du web. Avec votre aide, nous pouvons relever la barre de la vie privée et de l'IA éthique dans le monde entier.
Source : The Mozilla Foundation

Et vous ?

Pensez-vous que cette étude est crédible ou pertinente ?
Quel est votre avis sur le sujet ?

Voir aussi :

Les utilisateurs ne peuvent plus parler à leur petite amie virtuelle CarynAI car le PDG de l'entreprise qui fournit le service est en prison et ainsi expose un inconvénient de la dépendance à une IA

Les influenceurs virtuels animés par l'IA prennent de plus en plus de place aux humains actifs dans cette filière, ce qui ravive le débat sur les avantages et les inconvénients de cette tendance

Conséquences néfastes de l'IA : cette technologie pourrait-elle entraîner un déclin de notre intelligence ? Le chercheur Umberto Domínguez de l'université de Monterrey exprime ses craintes

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Fagus
Membre expert https://www.developpez.com
Le 12/04/2024 à 12:58
10 000 $ par mois pour des images et du baratin , qui n'ont même pas d'existence, ça montre que certains ont trop d'argent, ou que le neuro-marqueting marche bien et qu'il est urgent de réguler le marché pour protéger les gens, comme c'est déjà le cas pour les jeux de hasard et les courses.
4  0 
Avatar de Mingolito
Membre extrêmement actif https://www.developpez.com
Le 08/07/2024 à 18:55
Après avoir lu cette étude très utile on peu en conclure avec certitude que ce qu'il faut en retenir c'est qu'il ne faut jamais se marier

Une fois marié votre femme se transforme immanquablement en "dragon", et il ne reste plus qu'à passer le reste de votre vie à parler avec une IA, la loose
4  0 
Avatar de calvaire
Expert éminent https://www.developpez.com
Le 15/04/2024 à 15:32
Citation Envoyé par Ryu2000 Voir le message
Il y a un problème grave dans la société actuel. Des hommes n'arrivent plus à rencontrer des femmes.
Il serait intéressant un jours que la puissance publique ce penche sur ce problème. Le nombre alarmant de célibataire, de divorce, la baisse de la natalité et de puceaux encore à 30ans qui ne fait que croitre.

et je parle de la france mais au Japon et Corée du Sud c'est bien pire que ca et c'est vers ca que tends l'occident.

Sans tabou, retournement de veste et langue de bois évidement. J'ai regardé quelques débats sur Arte et autre média mainstream mais ca m'a gonflé car la question et tous le temps esquivé et ca parle de truc complétement HS.

c'est consternant que tous le monde tour autour du pots, ils parlent de "désirs de la rencontre" sauf que le soucis c'est qu'il n'ya pas de rencontre pour beaucoup d'homme (sujet jamais abordé) la seule a sortir enfin une réponse clair et net c'est l'invité asexuel (étrange d'inviter ce genre de personne d'ailleurs...)
a la minute 18

c'est pas très plaisant ce qu'elle raconte mais au moins on a un élément de réponse sans langue de bois

de la a validé la théorie du grand remplacement, il n'y a qu'un pas a franchir
Au japon et Corée pas de grand remplacement mais du coup c'est l'extinction.
4  1 
Avatar de calvaire
Expert éminent https://www.developpez.com
Le 17/07/2024 à 15:09
la hausse du célibat a surtout un gros impact sur l'économie.
Au niveau national il faut plus de logement, c'est une des 1ere explication de la pénurie de logement dans les pays occidentaux
Et ca appauvrit les populations en générale, car à 2 on mutualise l’essentiel des frais (loyer, nourriture, énergie...)

Enfin il y'a une baisse de la natalité, au niveau global, sa signifie soit la ruine économique, soit l'importation de migrants jeune en age de bosser pour avoir de la main d’œuvre et faire fonctionner la société. Mais cette solution est pas magique et pose d'autres problèmes ce qui explique la monté de la droite dans bon nombres de pays occidentaux mais aussi Corée du sud et Japon (c'est un secret pour personne, les japonais n'aiment pas les étranger).

Et au delà de l'économie, la misère sexuel, la solitude sont de vrai sujet et la solitude est une "maladie" mortelle.
Je veux bien admettre que les ia peuvent pallier la solitude mais pas le reste.
3  0 
Avatar de _toma_
Membre éclairé https://www.developpez.com
Le 12/04/2024 à 2:14
System notification : user C4nc3r d3 l'hum4n1t3 in room Capitalism just leveled up
2  0 
Avatar de RenarddeFeu
Membre averti https://www.developpez.com
Le 17/07/2024 à 12:08
Il faut expliquer à cette psychologue que même les humains font semblant, et que les relations amoureuses sont de plus matérialistes et de moins en moins basées sur les sentiments.
3  1 
Avatar de Jules34
Membre émérite https://www.developpez.com
Le 17/07/2024 à 15:47
Citation Envoyé par RenarddeFeu Voir le message
Il faut expliquer à cette psychologue que même les humains font semblant, et que les relations amoureuses sont de plus matérialistes et de moins en moins basées sur les sentiments.
Tout le monde peut faire le choix de ne pas tomber dans ce piège.
2  0 
Avatar de Prox_13
Membre éprouvé https://www.developpez.com
Le 15/02/2024 à 16:27
Citation Envoyé par Jade Emy Voir le message
Les petites amies IA vont non seulement vous briser le cœur, mais aussi récolter et vendre vos données, avertissent les experts en protection de la vie privée de la Fondation Mozilla.
Mais non. L'eusses-tu cru ?
1  0 
Avatar de OrthodoxWindows
Membre expert https://www.developpez.com
Le 12/04/2024 à 11:34
Le troisième article simultané traitant de la décadence de la course à la technologie dans le monde moderne, avec celui là et celui ci.

Citation Envoyé par Mathis Lucas Voir le message
Pourquoi le recours aux compagnons virtuels propulsés par l'IA prend de l'ampleur ?
Parce que l'on vie dans un système qui isole les gens de plus en plus, alors que le nombre de personne sur Terre n'a jamais été élevé.
Les compagnons virtuels propulsés par l'IA sont le symptôme d'un profond mal être chez certains, il ne sont en aucun cas une solution à quoi que se soit. Tout au plus la version "relationnel" de ce que comble le porno (symptôme de la misère sexuel).
1  0 
Avatar de calvaire
Expert éminent https://www.developpez.com
Le 12/04/2024 à 14:26
Respirer, boire de l'eau, avoir des relations amoureuses, le système tends a ce que tous deviennent des services payant en abonnemen,.

en chine il y'a des distributeurs d'oxygene, l'eau est désormais impropre dans les rivières (obligation de payer), et le capitalisme a su bien exploité la femme, désormais les femmes doivent travailler (fini les femmes aux foyers c'est tres mal vu), ce qui augmente de 50% les esclaves sur le marché du travailer permet de baisser les alaires.
Les vieux pareils, très mal vu qu'ils vivent chez leurs enfants, ils doivent aller a l'ehpad payant. Les bébés à la crèche payante.
Le corps des femmes est vendu à toute les sauces (les pubs c'est tous le temps des jolies femmes a poil photoshopé car même les femmes réel sont laide )
Et les rencontres grâce au féminisme, c'est plus dans la rue ou dans les bars (attention aux "agressions") mais sur des sites de rencontre payant.

la prochaine étape c'est de se débarrasser de la femme, imaginer une entreprise comme tinder, plutôt que de demander bénévolement aux femmes de s'y inscrire, autant vendre aux hommes une ia qui va converser et des robots sexuels as a services.
Même chose coté influenceurs, bien plus intéressant d'avoir une influenceuse robot qu'une vrai femme

Le monde d'avant n'était pas parfait, c'est sur que la femme qui ne pouvait pas avoir de compte bancaire c'était pas le système parfait, je dis pas que c'est à la femme d'ailleurs de s'occuper des enfants et de la cuisine, ca peut être l'homme.
Mais aujourd'hui les enfants passent plus de temps à la crèche/nounou que d’être éduqué par les parents (ça doit expliquer la délinquance d'ailleurs), pour les rares qui ont encore des enfants, la société pousse plutôt a avoir régulièrement des plans cul sans lendemain et plutôt que d'acheter une maison et fonder une famille il faut acheter 2 studios (ça explique en partie la crise du logement) et vivre chacun sa vie. Ca permet de consommer plus. Et évidement finir comme à la naissance, les vieux direction l'ehpad plutôt que de vivre avec ces enfants.

Natalité en baisse, délinquance en hausse, maltraitance à l’Ehpad et les féminazies qui traite les hommes de monstre, forcément de plus en plus les relations seront payante et virtuels avec des bots. Physique avec les robots sexuels, mais c'est évident que c'est vers ça qu'on va.
1  0