IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

La diffamation par l'IA : les hallucinations de ChatGPT peuvent-elles avoir des conséquences dramatiques ?
Les géants de l'IA prévoiraient probablement d'esquiver les plaintes

Le , par Bruno

15PARTAGES

4  0 
Peu d'avancées technologiques ont été aussi transformatrices ou controversées que l'intelligence artificielle (IA). L'IA promet un avenir d'efficacité accrue, de sécurité renforcée et de précision inégalée, mais à quel prix ? Les chatbots d’IA produisent quelques fois de fausses affirmations diffamatoires. Un maire australien a par exemple menacé de poursuivre OpenAI pour diffamation après que ChatGPT ait affirmé à tort qu’il avait été emprisonné pour corruption. L’affaire a été réglée à l’amiable lorsque OpenAI a retiré les fausses déclarations de son chatbot.

L'IA est un terme général qui désigne la capacité des machines ou des logiciels à imiter l'intelligence humaine. Elle recouvre plusieurs technologies, notamment l'apprentissage automatique, où les algorithmes apprennent et s'améliorent grâce à l'expérience, et la robotique, où les machines effectuent des tâches traditionnellement dévolues à l'homme. Dans le secteur de la construction, l'IA a trouvé une variété d'applications prometteuses, comme la génération de texte.

L'IA générative est une forme émergente d'intelligence artificielle qui génère du contenu, notamment du texte, des images, des vidéos et de la musique. L'IA générative utilise des algorithmes pour analyser des modèles dans des ensembles de données afin d'imiter le style ou la structure pour reproduire un large éventail de contenus.


Microsoft a investi quelque 1 milliard de dollars dans OpenAI, la société à l'origine de ChatGPT. Son succès, qui démontre que l'intelligence artificielle pourrait changer la façon dont les humains travaillent et apprennent, a suscité des craintes chez certains.

Imaginez que vous soyez accusé par un chatbot d’IA d’un acte horrible. Vous seriez choqué, outré, et peut-être même en danger. Mais qui est responsable de ces erreurs robotiques ? Les lois sur ces questions sont floues et insuffisantes. C’est ce que dénoncent plusieurs victimes qui attaquent en justice les géants de l’IA. Ces derniers, par contre, veulent se protéger de toute poursuite, et ont montré comment ils pouvaient facilement se défausser de leur responsabilité face aux accusations infondées de leurs chatbots.

Comment l’IA porte atteinte à la réputation et à la crédibilité des personnes

Ces derniers mois, ChatGPT a créé de fausses histoires sur de nombreuses personnes à travers le monde et cite parfois même des sources inexistantes pour étayer ses récits. Dans un cas aux États-Unis, ChatGPT a inventé un scandale de harcèlement sexuel et a désigné un vrai professeur de droit comme l'accusé. En Australie, il a accusé à tort un maire de corruption avec de fausses preuves. De telles histoires pullulent sur Internet, y compris en France.

Jonathan Turley, professeur de droit à l'université George Washington, a soudainement appris qu'il était l'accusé dans une affaire de harcèlement sexuel. Le professeur n'avait pas connaissance de cette histoire jusqu'à présent parce qu'elle vient tout juste d'être inventée de toutes pièces par ChatGPT. En fait, dans le cadre d'une étude, un collègue avocat californien a demandé à ChatGPT de générer une liste de juristes ayant harcelé sexuellement quelqu'un. À sa grande surprise, le nom de Turley figurait sur la liste générée par le Chatbot d'IA d'OpenAI. Le collègue a ensuite envoyé un courriel à Turley pour l'informer de sa découverte.

« Nous nous dirigeons à grands pas vers un Internet fortement influencé par l'IA, bourré de pépins, de spams et d'escroqueries », a récemment écrit un journaliste du MIT Technology Review. Dans une affaire judiciaire inhabituelle, un avocat a été sanctionné par un juge pour avoir cité six affaires fictives générées par ChatGPT. ChatGPT a causé des ennuis à un avocat qui l’a utilisé pour citer des affaires imaginaires dans un document juridique. Le juge était furieux et a menacé de le sanctionner. Quand le juge a demandé les copies des affaires, l’avocat a fait appel à ChatGPT, qui a inventé des informations sur les affaires fantômes.

L’avocat, Steven A. Schwartz, défendait un homme qui attaquait Avianca en justice après avoir été blessé au genou par un chariot de service pendant un vol vers New York en 2019. Schwartz a dit qu’il ne connaissait pas ChatGPT et qu’il ignorait qu’il fabriquait des affaires. Il a même dit qu’il avait vérifié avec ChatGPT si les affaires étaient vraies. Le chatbot a dit que oui.

Le juge a qualifié cette pratique d’ « inédite » et de « trompeuse », et a ordonné à l’avocat de payer une amende de 10 000 dollars et de suivre une formation sur l’éthique professionnelle. Le juge a également mis en garde contre les risques de l’utilisation de l’intelligence artificielle dans le domaine juridique, et a appelé à une réglementation plus stricte. L’avocat a cité six affaires fictives dans ses mémoires. Ces affaires avaient été générées par ChatGPT, un système d’intelligence artificielle qui produit du texte à partir d’un mot-clé. Il a présenté ses excuses et a affirmé qu’il ne recommencerait plus.

ChatGPT a suscité la controverse et l’enquête de la FTC

Les analystes ont qualifié le ChatGPT d'OpenAI d'application grand public à la croissance la plus rapide de l'histoire, et son succès précoce a déclenché une course aux armements parmi les entreprises de la Silicon Valley pour déployer des chatbots concurrents. Le directeur général de la société, Sam Altman, est devenu une figure influente dans le débat sur la réglementation de l'IA, témoignant à Capitol Hill, dînant avec des législateurs et rencontrant le président Biden et le vice-président Harris.

Mais OpenAI a un problème : la FTC lui a envoyé une demande d’information de 20 pages. Elle lui demande des documents sur ses modèles de langage, ses données personnelles, ses informations vérifiées et corrigées, et ses risques pour les consommateurs, comme la diffamation.

ChatGPT est « essentiellement un outil high-tech de plagiat » et un « moyen d'éviter d'apprendre », selon le célèbre penseur et chercheur intellectuel américain Noam Chomsky, qui a également déclaré que l'utilisation par les étudiants de technologies de pointe est un signe que « le système éducatif ne fonctionne plus ». « Pendant des années, il y a eu des programmes qui ont aidé les professeurs à détecter les essais plagiés », souligne Chomsky. « Maintenant, ça va être plus difficile, parce que c'est plus facile de plagier. Mais c'est à peu près la seule contribution à l'éducation à laquelle je peux penser ». Il admet que les systèmes de type ChatGPT « peuvent avoir une certaine valeur pour quelque chose », mais que ce « quelque chose » n'est pas une évidence.

Certains des plus grands éditeurs de revues universitaires du monde ont interdit ou restreint l'utilisation par leurs auteurs du chatbot avancé ChatGPT. Comme le robot utilise des informations provenant d'Internet pour produire des réponses très lisibles à des questions, les éditeurs craignent que des travaux inexacts ou plagiés n'entrent dans les pages de la littérature universitaire. Plusieurs chercheurs ont déjà inscrit le chatbot en tant que coauteur dans des études universitaires, et certains éditeurs ont décidé d'interdire cette pratique. Mais le rédacteur en chef de Science, l'une des principales revues scientifiques au monde, est allé plus loin en interdisant toute utilisation du texte du programme dans les articles soumis.

En intelligence artificielle, une hallucination est une réponse plausible de l'IA qui est insuffisante, biaisée ou carrément fausse. Ces hallucinations surviennent parce que ChatGPT (et d'autres grands modèles de langage ou LLM qui sont à la base des plateformes d'IA générative) répondent aux questions qui leur sont posées en se basant sur les sources, les liens, les blogs et les statistiques disponibles dans la vaste étendue d'Internet, qui ne sont pas toujours les données d'entraînement les plus solides.

Les risques des hallucinations de paquets d’IA pour la chaîne d’approvisionnement en logiciels

Des chercheurs ont découvert que les cybercriminels peuvent exploiter la tendance de ChatGPT à renvoyer de fausses informations pour diffuser des paquets de codes malveillants. Cela représente un risque important pour la chaîne d'approvisionnement en logiciels, car cela peut permettre à des codes malveillants et à des chevaux de Troie de se glisser dans des applications légitimes et des dépôts de code tels que npm, PyPI, GitHub et d'autres.

En tirant parti de ce que l'on appelle les « hallucinations de paquets d'IA », les acteurs de la menace peuvent créer des paquets de code recommandés par ChatGPT, mais malveillants, qu'un développeur pourrait télécharger par inadvertance lorsqu'il utilise le chatbot, et les intégrer dans des logiciels qui sont ensuite utilisés à grande échelle, ont révélé les chercheurs de l'équipe Voyager18 de Vulcan Cyber dans un article de blog publié.

On parle d'hallucination dans les chatbots d'IA lorsqu'une machine fournit des réponses convaincantes, mais complètement inventées. Ce phénomène n'est pas nouveau et des développeurs ont mis en garde contre des modèles d'IA convaincus de faits totalement faux, en tentant de répondre à des questions par des réponses inventées. Les hallucinations sont l'une des principales caractéristiques des modèles d'IA, car ils exigent la capacité de reformuler, de résumer et de présenter des textes complexes sans contraintes. Cela soulève le problème des faits qui ne sont pas avérés et qui peuvent être traités dans leur contexte lorsqu'on présente l'information comme crible.

Beren Millidge, responsable de la recherche IA chez Conjecture, explique dans un billet de blog pourquoi le terme de confabulation est plus approprié que celui d’hallucination pour décrire le comportement des LLM (modèles de langage à grande échelle) lorsqu’ils inventent des informations fausses mais plausibles. Il compare la confabulation des LLM à celle des humains souffrant de certaines lésions cérébrales qui les amènent à fabriquer des histoires pour répondre à des questions qu’ils ne peuvent pas traiter. Il suggère que les LLM sont comme des humains amnésiques et sans cohérence centrale.

Les poursuites judiciaires contre OpenAI et Microsoft

En juillet, Jeffery Battle, basé dans le Maryland, a poursuivi Microsoft, affirmant qu'il avait perdu des millions et que sa réputation avait été ruinée après avoir découvert que les moteurs de recherche Bing et Bing Chat le qualifiaient à tort de terroriste condamné. Le même mois, Mark Walters, un animateur radio de Géorgie (États-Unis), a intenté une action en justice contre OpenAI à la suite d'un incident impliquant le service ChatGPT. Walters aurait intenté une action en justice pour diffamation, affirmant que ChatGPT l'a faussement accusé d'avoir détourné des fonds de la Second Amendment Foundation (SAF), une organisation à but non lucratif défendant les droits des armes à feu.

Dans son action en justice, l'avocat de Walters affirme que le chatbot d'OpenAI, au cours d'une interaction avec Fred Riehl, rédacteur en chef d'un site web consacré aux armes à feu, a diffusé un contenu diffamatoire sur Walters. Riehl avait demandé un résumé d'une affaire impliquant le procureur général de l'État de Washington, Bob Ferguson, et la Second Amendment Foundation.

Contrairement à Hood, Walters n'a pas tenté de faire supprimer les allégations prétendument diffamatoires de ChatGPT à son sujet avant d'intenter son action en justice. Selon Walters, les lois sur la diffamation n'obligent pas les utilisateurs de ChatGPT à prendre des mesures supplémentaires pour informer OpenAI du contenu diffamatoire avant de déposer des plaintes. Walters espère que le tribunal reconnaîtra que si OpenAI sait que son produit génère des réponses diffamatoires, elle devrait être tenue pour responsable de la publication de déclarations diffamatoires.

OpenAI sous le feu des critiques : ChatGPT a provoqué des plaintes et une enquête de la FTC

OpenAI a récemment demandé le rejet des plaintes de Walters, mais ce dernier n'abandonne pas si facilement. Il a modifié sa plainte en septembre, dans l'espoir de convaincre le tribunal de maintenir l'affaire en vie et de lui demander de déterminer les dommages réels au cours du procès. L'avocat de Walters, John Monroe, a déclaré qu'il était « irresponsable » de la part d'OpenAI « de mettre à la disposition du public une plateforme qui fait sciemment de fausses déclarations sur les gens ».

Cet été, le PDG d'OpenAI, Sam Altman, n'a pu que promettre vaguement que son entreprise prendrait environ deux ans pour « améliorer considérablement le problème des hallucinations », a rapporté Fortune.

Fin juillet, la FTC a envoyé à OpenAI une demande d'information de 20 pages, augmentant ainsi la pression sur OpenAI pour qu'elle fasse preuve de transparence sur les plaintes des utilisateurs concernant ses produits d'IA. Plus précisément, la FTC a demandé à OpenAI de lui communiquer toutes les plaintes d'utilisateurs alléguant que ChatGPT avait généré des « déclarations fausses, trompeuses ou désobligeantes » à leur sujet.

La FTC veut savoir si ChatGPT a fait des déclarations fausses ou nuisibles sur les utilisateurs, ce qui pourrait constituer une violation de la loi. OpenAI est également poursuivie par Walters, un utilisateur qui affirme que ChatGPT a diffamé sa réputation. OpenAI dit qu’elle coopère avec la FTC, mais ne donne pas beaucoup de détails sur l’enquête.

Qualifié d'hallucination, de confabulation ou tout simplement d'invention, ce phénomène pose désormais un problème à toutes les entreprises, organisations et lycéens qui tentent de faire en sorte qu'un système d'intelligence artificielle générative puisse rédiger des documents et effectuer du travail.

Sources : Jeffery Battle's complaint 1, 2), (Mark Walters' complaint 1, 2), Micrososft's reply to Battle's complaint

Et vous ?

Selon vous, les hallucinations de ChatGPT peuvent-elles ruiner une vie ?

Quelles sont les mesures préventives ou correctives que OpenAI ou ses utilisateurs peuvent prendre pour éviter ou réparer ces dommages ?

Voir aussi :

Un homme poursuit OpenAI après que ChatGPT a prétendu à tort qu'il avait détourné de l'argent, d'une organisation à but non lucratif

Comment ChatGPT crée de fausses histoires de toutes pièces pour diffamer lourdement des innocents, cela donne-t-il raison aux détracteurs des chatbots ?

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de petitours
Membre chevronné https://www.developpez.com
Le 31/01/2024 à 8:42
Une fois que l'on a compris que ChatGPT n'est qu'un agent conversationnel on peut le trouver super.
Dans le détail ça ne vaut pas plus qu'une discussion de lundi matin à la machine à café basée sur le fait qu'il faut absolument dire un truc et où le plus bavard, ici chatGPT, va absolument avoir un anecdote et répondre un truc quel que soit le sujet.
J'ai testé, longuement, et reçu des réponses régulièrement débiles.
Aujourd'hui je ne l'utilise que sur des sujets que je connais très bien pour voir ce qu'il me répond, notamment dans le cadre d'enseignements que je donne pour voir ce que mes étudiants vont avoir comme informations en passant par lui. Ce qu'il raconte est au mieux très vague, au pire profondément faux, souvent parce que révélant des mauvaises pratiques.
Cette médiocrité de l'information est à mon sens le plus négatif, sans doute basée sur le volume de données qu'il va chercher copieusement "enrichies" par des forums, blogs ou autres écrits par des non spécialistes.
Le fait qu'il fouine partout et utilise des données personnelles ou viole les droits des auteurs est un autre problème majeur mais personnellement je le le mettrait en 2, après celui de donner des informations fausses ou médiocres qui tirent vers le bas celui qui pose la question.
8  0 
Avatar de L33tige
Membre expérimenté https://www.developpez.com
Le 13/02/2024 à 13:01
Citation Envoyé par Ryu2000 Voir le message
Ça ne sert à rien que trop d'étudiants apprennent à se servir de l'IA, puisqu'avec l'IA il faudra moins d'humains pour réaliser autant de travail.
Au bout d'un moment ceux qui bossent dans l'IA ne trouveront plus de boulot.

Si ça se trouve le bon plan c'est de partir totalement à l'opposé.
L'avenir c'est peut-être l'artisanat sans machine, entièrement fait à la main.
On ne sait pas, il y aura peut-être des riches près à mettre beaucoup d'argent dans des produits humains.

C'est clair que beaucoup de gens vont perdre leur boulot à cause de l'IA.
Et ils vont galérer à se reconvertir.

Ce n'est pas dans la conception des IA ou dans la maintenance des robots qu'il y aura beaucoup de boulot.
Parce qu'il y a besoin de peu d'humains pour faire beaucoup.
Je me pose quand même la question, toute cette augmentation de productivité, qui va pouvoir en acheter les fruits, si on se retrouve avec des gens sans travail, qui va acheter ce que produit l'IA ?
6  0 
Avatar de smobydick
Membre averti https://www.developpez.com
Le 16/02/2024 à 7:57
Il y a tellement d'experts qui disent tout et son contraire qu'il y en aura bien un qui finira par avoir raison.
6  0 
Avatar de calvaire
Expert confirmé https://www.developpez.com
Le 21/02/2024 à 17:43
Une explication la plus probable, c'est que un modèle ca coute de la tune a faire tourner, open ai a surement crée un modèle dégradé mais qui consomme beaucoup moins pour arriver à tenir financièrement.

si demain google search utilisait un système comme openai, google serait surement en faillite, les couts sont multiplié par 10 je crois par rapport au algos de recherche classique au dernnier articles que j'avais lu (ca date de plus d'1ans cela dit, les couts ont surrement baissé)
mais même un facteur x2 c'est trop cher, ca signifierais que google devrait mettre 2 fois plus de pub ou augmenter le prix du référencement par 2.
6  0 
Avatar de L33tige
Membre expérimenté https://www.developpez.com
Le 06/12/2023 à 12:11
Citation Envoyé par Ryu2000 Voir le message
C'est ce qu'il va se passer.

Il est probable que dans le futur 1 humain + 1 IA, réalisent plus de travail que 5 humains.
Il y aura besoin de moins d'humains pour réaliser la même quantité de travail.
L'IA fera gagner beaucoup de temps.
Oui mais dans quel but ? Produire plus ? Consommer plus ? Avec quelles ressources ? Comment des humains qui vont perdre leur emploi vont pouvoir acheter ce qui est vendu ? Dans un monde de plus en plus toxique pour les humains, quel progrès y a-t-il à chercher.

Je vais créer un équivalent au label bio pour l'IA, certifié humains de bout en bout.

Comme d'habitude, on va gagner en productivité, mais on en verra pas la couleur, ça va juste augmenter la charge de travail, et diminuer l'expertise, donc les salaires, et augmenter la réplicabilité des gens. Que du bonus pour les employeurs.
4  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 18/01/2024 à 10:28
Je pense que tout cela est très grave, et que la société responsable de la mise à disposition d'un outil tel que ChatGPT doit être considérée comme responsable des dires de son outil.

SI ChatGPT met en cause une personne physique à tort, c'est que l'outil n'est pas bon, et doit être corrigé. Les torts causés doivent être attribués à son propriétaire.

Ça calmerait peut-être un peu les gourous fous d'IA, à nous sortir des soi-disant Intelligences Artificielles comme LA solution d'avenir !
5  1 
Avatar de seedbarrett
Membre éclairé https://www.developpez.com
Le 08/04/2024 à 17:27
Citation Envoyé par Stéphane le calme Voir le message

« L'IA pourrait remplacer toutes les formes de travail », selon Larry Summers, membre du conseil d'administration d'OpenAI
Et dire qu'il y a des gens qui vont le croire... Pour rappel, on nous avait vendu des voitures volantes et des robots pour faire les corvées à la maison pour l'an 2000, on a eu le 11 septembre. Vivement la fin de cette bulle ridicule et un retour des GPU accessible, parce qu'on sait tous qu'on va devoir travailler encore plus, pour un salaire toujours plus bas. Sauf ceux qui sont biens nés, eux ils vont apprécier
4  0 
Avatar de L33tige
Membre expérimenté https://www.developpez.com
Le 06/12/2023 à 13:03
Citation Envoyé par Ryu2000 Voir le message
Le but c'est d'appauvrir les gens pour qu'ils consomment moins et donc qu'ils polluent moins.

La suite ce sera de diminuer la population mondiale. (les gens deviennent stérile et on des problèmes de santé)
Parce qu'on ne peut pas être 8 milliards a vivre correctement.
On ne peut pas tous avoir un PC, un smartphone, une voiture, etc. On ne peut pas tous prendre l'avion pour aller au New Jersey ou je ne sais où.

Profitez d'aujourd'hui demain ce sera pire.
Je sais même pas si c'est un plan aussi élaboré que ça, si ça se trouve, c'est encore pire, on est face à une marrée de gens qui globalement s'en fichent et font du business as usual comme à la révolution industrielle et "advienne que pourra".

Des humains bien trop peu responsables entourés de béni-oui-oui avec bien trop de responsabilités et de pouvoir.

Je crois que je préfèrerais encore qu'il y ai un plan.
3  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 13/02/2024 à 9:24
Citation Envoyé par Jade Emy Voir le message
"Pour les éducateurs, l'évolution de l'IA souligne l'importance de doter nos étudiants d'outils innovants qui remodèlent le travail dans divers secteurs", a déclaré Debbie Compeau, doyenne par intérim du Carson College of Business. "Nous avons constitué un groupe de travail sur l'IA générative afin d'intégrer ces avancées dans nos programmes existants et d'explorer la manière dont l'IA peut transformer l'enseignement des affaires. Lorsque nous embrassons le potentiel de l'IA pour créer de la valeur et transformer le travail - tout en répondant aux préoccupations légitimes concernant son utilisation et son impact - nous créons un environnement d'apprentissage qui permet à nos étudiants d'exceller dans un avenir axé sur l'IA."
Ça ne sert à rien que trop d'étudiants apprennent à se servir de l'IA, puisqu'avec l'IA il faudra moins d'humains pour réaliser autant de travail.
Au bout d'un moment ceux qui bossent dans l'IA ne trouveront plus de boulot.

Si ça se trouve le bon plan c'est de partir totalement à l'opposé.
L'avenir c'est peut-être l'artisanat sans machine, entièrement fait à la main.
On ne sait pas, il y aura peut-être des riches près à mettre beaucoup d'argent dans des produits humains.

Citation Envoyé par Patrick Ruiz Voir le message
Dans le domaine de la traduction, nous assistons déjà à la perte massive d'emplois chez Duolingo et dans toutes les grandes entreprises multilingues du monde. Les sociétés d'enseignement ont été les premières à constater les gains de productivité et ont licencié des milliers de personnes. L'idée qu'il n'y a pas eu ou qu'il n'y aura pas de remplacement d'emplois réels est absurde. C'est une belle phrase à lancer lors de conférences pour obtenir des applaudissements chaleureux, mais elle est dangereusement naïve. Les orateurs ont tendance à vouloir être aimés, plutôt que d'affronter l'inconfortable vérité économique selon laquelle les changements techniques majeurs entraînent TOUJOURS des pertes d'emplois », souligne-t-il.
C'est clair que beaucoup de gens vont perdre leur boulot à cause de l'IA.
Et ils vont galérer à se reconvertir.

Ce n'est pas dans la conception des IA ou dans la maintenance des robots qu'il y aura beaucoup de boulot.
Parce qu'il y a besoin de peu d'humains pour faire beaucoup.
3  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 13/02/2024 à 14:53
Citation Envoyé par calvaire Voir le message
les possédants.
il faut bien comprendre que la classe moyenne disparait.
Je pense aussi que la classe moyenne est en train de disparaitre.
Nous perdons du pouvoir d'achat, nos niveaux de vies se dégradent.

Profitez d'aujourd'hui demain sera pire.

Il est possible que dans un futur proche la population humaine diminue. (espérance de vie qui diminue et les gens deviennent stérile)

Citation Envoyé par calvaire Voir le message
des smartphones de pauvres à 200 balles et des hdg à +1000€
Il y a des gens au SMIC qui ont un téléphone à 1000€, ils sont complétement taré les types.

Citation Envoyé par calvaire Voir le message
ou des voitures electrique à 50k-70k.
C'est effectivement un truc de riche.
Ça a une autonomie faible et une espérance de vie réduite (ça tiendra pas 30 ans et 300 000 km comme une Diesel).

Les riches peuvent acheter une voiture électrique puisqu'il ont plusieurs grosses voitures thermique à côté.
3  0