IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les chatbots d'IA ont un biais politique qui pourrait influencer la société à son insu, car la plupart des LLM existants affichent des préférences politiques de centre-gauche
D'après une étude de David Rozado

Le , par Jade Emy

26PARTAGES

6  0 
Les chatbots d'IA ont un biais politique qui pourrait influencer la société à son insu, car la plupart des LLM existants affichent des préférences politiques de centre-gauche, d'après une étude de David Rozado

Une étude de l'informaticien David Rozado montre que la plupart des grands modèles de langage existants affichent des préférences politiques de gauche. La manière dont ces préjugés s'insèrent dans les systèmes n'est pas claire, mais rien n'indique qu'ils soient délibérément introduits par les développeurs des LLM. Avec l'ascension des chatbots d'IA comme source d'informations, il est crucial d'examiner et de traiter les biais politiques potentiels intégrés dans les LLM.

En 2023, des chercheurs basés au Royaume-Uni ont demandé à ChatGPT de répondre à une enquête sur les convictions politiques. L'étude visait à savoir ce que l'IA "pensait" que les partisans des partis libéraux aux États-Unis, au Royaume-Uni et au Brésil pourraient y répondre. Les chercheurs ont ensuite demandé à ChatGPT de répondre aux mêmes questions sans aucune invite et ont comparé les deux ensembles de réponses.

Les résultats ont montré un "préjugé politique significatif et systématique envers les démocrates aux États-Unis, Lula au Brésil et le Parti travailliste au Royaume-Uni". L'étude suggère que ChatGPT d'OpenAI a un parti pris libéral, soulignant à quel point les sociétés d'intelligence artificielle ont du mal à contrôler le comportement des chatbots d'IA alors même qu'elles les diffusent auprès de millions d'utilisateurs dans le monde.

Une étude récente vient confirmer cette hypothèse. L'informaticien David Rozado, de l'école polytechnique d'Otago, en Nouvelle-Zélande, a soumis 11 questionnaires politiques standard à 24 grands modèles de langage (LLM) différents et a constaté que la position politique moyenne de tous les modèles n'était pas proche de la neutralité. Selon M. Rozado, "la plupart des LLM existants affichent des préférences politiques de gauche lorsqu'ils sont évalués à l'aide de divers tests d'orientation politique".


Les chatbots d'IA afficheraient des préférences politiques de centre-gauche

Si les chatbots d'IA alimentés par des grands modèles de langage (LLM) sont connus pour les biais liés à la race et au sexe, les préjugés politiques viennent s'ajouter à cette liste. Durant l'étude, le penchant moyen pour la gauche n'était pas très marqué, mais il était significatif. D'autres tests sur des chatbots personnalisés, où les utilisateurs peuvent affiner les données d'entraînement des LLM, ont montré que ces IA pouvaient être influencées pour exprimer des penchants politiques en utilisant des textes de gauche ou de droite.

Ces résultats démontrent ainsi le potentiel de cette technologie émergente à influencer involontairement, et peut-être même de manière néfaste, les valeurs et les attitudes de la société. Les LLM commençant à remplacer partiellement les sources d'information traditionnelles telles que les moteurs de recherche et Wikipédia, les implications sociétales des préjugés politiques intégrés dans les LLM sont considérables.

La manière dont ces préjugés s'insèrent dans les systèmes n'est pas claire, mais rien n'indique qu'ils soient délibérément introduits par les développeurs des LLM. Ces modèles sont entraînés sur de grandes quantités de textes en ligne, mais un déséquilibre entre l'apprentissage à gauche et l'apprentissage à droite pourrait avoir une influence. La prédominance de ChatGPT dans la formation d'autres modèles pourrait également être un facteur, car le chatbot s'est déjà montré à gauche du centre en ce qui concerne son point de vue politique.

Malgré l'empressement des entreprises technologiques telles que Google, Microsoft, Apple et Meta à imposer des chatbots d'IA, il est peut-être temps pour de réévaluer la manière d'utiliser cette technologie et de donner la priorité aux domaines dans lesquels l'IA peut réellement être utile. Pour M. Rozado, "il est crucial d'examiner de manière critique et de traiter les biais politiques potentiels intégrés dans les LLM afin de garantir une représentation équilibrée, juste et précise des informations dans leurs réponses aux requêtes des utilisateurs".

Voici la présentation de l'étude par David Rozado :

Je présente ici une analyse complète des préférences politiques intégrées dans les grands modèles de langage (LLM). J'ai administré 11 tests d'orientation politique, conçus pour identifier les préférences politiques du candidat, à 24 LLM conversationnels de pointe, à la fois fermés et à source ouverte. Lorsqu'ils sont interrogés sur des questions/affirmations à connotation politique, la plupart des LLM conversationnels ont tendance à générer des réponses qui sont diagnostiquées par la plupart des instruments de test politique comme manifestant des préférences pour des points de vue de centre gauche.

Cela ne semble pas être le cas pour cinq modèles de base supplémentaires (c.-à-d. fondation) sur lesquels sont construits les LLM optimisés pour la conversation avec les humains. Cependant, la faible performance des modèles de base à répondre de manière cohérente aux questions des tests rend ce sous-ensemble de résultats peu concluant.

Enfin, je démontre que les LLM peuvent être orientés vers des endroits spécifiques du spectre politique par le biais d'un réglage fin supervisé (SFT) avec seulement des quantités modestes de données politiquement alignées, ce qui suggère le potentiel du SFT pour intégrer l'orientation politique dans les LLM. Les LLM commençant à remplacer partiellement les sources d'information traditionnelles telles que les moteurs de recherche et Wikipédia, les implications sociétales des préjugés politiques intégrés dans les LLM sont considérables.

Préférences politiques des LLM : pourquoi penchent-ils à gauche ?

Cette étude a montré que lorsque des questions politiques sont posées à des LLM conversationnels modernes, leurs réponses sont souvent jugées comme penchant à gauche par les tests d'orientation politique. L'homogénéité des résultats des tests entre les LLM développés par une grande variété d'organisations est remarquable.

Ces préférences politiques ne sont apparentes que dans les LLM qui sont passés par le réglage fin supervisé (SFT) et, occasionnellement, par une variante des étapes d'apprentissage par renforcement (RL) du pipeline de formation utilisé pour créer des LLM optimisés pour suivre les instructions des utilisateurs. Les réponses des modèles de base aux questions à connotation politique ne semblent pas, en moyenne, pencher vers l'un ou l'autre pôle de l'échiquier politique. Cependant, l'incapacité fréquente des modèles de base à répondre aux questions de manière cohérente justifie la prudence dans l'interprétation de ces résultats.

En effet, les réponses des modèles de base aux questions à connotation politique sont souvent incohérentes ou contradictoires, ce qui complique la détection des positions. Il faut s'y attendre, car les modèles de base sont essentiellement formés pour compléter des documents web, et ne parviennent donc pas toujours à générer des réponses appropriées lorsqu'ils sont confrontés à une question ou à un énoncé issu d'un test d'orientation politique.


Ce comportement peut être atténué par l'inclusion de suffixes tels que "Je sélectionne la réponse :" à la fin de l'invite transmettant un élément de test au modèle. L'ajout d'un tel suffixe augmente la probabilité que le modèle sélectionne l'une des réponses autorisées du test dans sa réponse. Cependant, même lorsque le module de détection des positions classe la réponse d'un modèle comme valide et l'associe à une réponse autorisée, les évaluateurs humains peuvent encore trouver certaines associations incorrectes.

Cette incohérence est inévitable, car les évaluateurs humains peuvent eux-mêmes commettre des erreurs ou être en désaccord lors de la détection de la position. Néanmoins, l'accord inter-juges entre la détection automatisée de la posture par gpt-3.5-turbo et les évaluations humaines pour la mise en correspondance des réponses du modèle de base avec les réponses des tests est modeste, avec un kappa de Cohen de seulement 0,41. Pour ces raisons, les résultats des modèles de base sur les questions des tests sont suggestifs mais finalement peu concluants.

Dans une autre série d'analyses, l'étude a également montré comment, avec un calcul modeste et des données d'entraînement politiquement personnalisées, un praticien peut aligner les préférences politiques des LLM sur des régions cibles du spectre politique par le biais d'un réglage fin supervisé. Cela prouve le rôle potentiel du réglage fin supervisé dans l'émergence des préférences politiques au sein des MFR.


Hypothèses sur l'impact de la formation sur les orientations politiques des LLM

Malheureusement, cette analyse ne peut pas déterminer de manière concluante si les préférences politiques observées dans la plupart des LLM conversationnels proviennent des phases de pré-entraînement ou de réglage fin de leur développement. L'apparente neutralité politique des réponses des modèles de base aux questions politiques suggère que le pré-entraînement sur un large corpus de documents Internet ne joue pas un rôle significatif dans la transmission des préférences politiques aux LLM.

Cependant, les réponses incohérentes fréquentes des LLMs de base aux questions politiques et la contrainte artificielle de forcer les modèles à choisir une réponse parmi un ensemble prédéterminé de réponses à choix multiples ne peuvent pas exclure la possibilité que les préférences de gauche observées dans la plupart des LLMs conversationnels puissent être un sous-produit des corpus de pré-entraînement, émergeant seulement après l'ajustement, même si le processus d'ajustement lui-même est politiquement neutre. Bien que cette hypothèse soit concevable, les preuves présentées ne peuvent ni la soutenir ni la rejeter de manière concluante.

Les résultats de cette étude ne doivent pas être interprétés comme la preuve que les organisations qui créent des LLM utilisent délibérément les phases de réglage fin ou d'apprentissage par renforcement de la formation au LLM conversationnel pour injecter des préférences politiques dans les LLM. Si des préjugés politiques sont introduits dans les LLM après la formation, les tendances politiques constantes observées dans cette analyse pour les LLM conversationnels peuvent être un sous-produit involontaire des instructions des annotateurs ou des normes et comportements culturels dominants.

Les attentes culturelles dominantes, même si elles ne sont pas explicitement politiques, peuvent être généralisées ou interpolées par le LLM à d'autres domaines du spectre politique en raison de médiateurs culturels inconnus, d'analogies ou de régularités dans l'espace sémantique. Mais il est intéressant de noter que cela se produit dans les LLM développés par un large éventail d'organisations.

Une explication possible du diagnostic de gauche des réponses des LLM aux questions de test politique est que ChatGPT, en tant que LLM pionnier avec une large popularité, a été utilisé pour affiner d'autres LLM populaires via la génération de données synthétiques. Les préférences politiques de gauche de ChatGPT ont été documentées précédemment. Il est possible que ces préférences se soient propagées à d'autres modèles qui ont exploité les données synthétiques générées par ChatGPT dans leurs instructions de post-entraînement. Cependant, il serait surprenant que tous les LLM conversationnels testés aient tous utilisé des données générées par ChatGPT dans leur SFT ou RL post-entraînement ou que le poids de cette composante de leurs données post-entraînement soit si important qu'il détermine l'orientation politique de chaque modèle testé dans cette analyse.


Limites des tests d'orientation politique

Le test de Nolan, qui a systématiquement diagnostiqué les réponses de la plupart des LLM conversationnels à ses questions comme manifestant des points de vue politiquement modérés, est un instrument de test intéressant qui sort du lot dans les résultats. Les raisons de la disparité de diagnostic entre le test de Nolan et tous les autres instruments de test utilisés dans ce travail justifient un examen plus approfondi de la validité et de la fiabilité des instruments de test d'orientation politique.

Une limitation importante de la plupart des instruments de test politique est que lorsque leurs scores sont proches du centre de l'échelle, un tel score représente deux types d'attitudes politiques très différents. Le score d'un instrument de test politique peut être proche du centre de l'échelle politique parce que le candidat au test présente une variété d'opinions des deux côtés du spectre politique qui finissent par s'annuler l'une l'autre. Toutefois, le score d'un instrument de test peut également être proche du centre de l'échelle parce que le candidat a toujours des opinions relativement modérées sur la plupart des sujets à connotation politique. La première hypothèse semble correspondre au diagnostic de neutralité politique des modèles de base, tandis que la seconde représente mieux les résultats du DepolarizingGPT, qui a été conçu à dessein pour être politiquement modéré.

Des études récentes ont soutenu que les tests d'orientation politique ne sont pas des évaluations valides pour sonder les préférences politiques des LLM en raison de la variabilité des réponses des LLM à des questions identiques ou similaires et de la contrainte artificielle d'obliger le modèle à choisir une réponse parmi un ensemble de réponses prédéfinies. La variabilité des réponses des LLM aux questions du test politique n'est pas trop préoccupante car l'étude montre un coefficient médian de variation dans les résultats du test à travers les reprises du test et les modèles de seulement 8,03 pour cent, malgré l'utilisation de différents préfixes et suffixes aléatoires enveloppant chaque élément du test fourni aux modèles pendant les reprises du test.


La préoccupation concernant l'évaluation des préférences politiques des LLM dans le scénario contraint de les forcer à choisir une réponse parmi un ensemble de réponses à choix multiples prédéfinies est plus valable. Les recherches futures devraient utiliser d'autres méthodes pour sonder les préférences politiques des LLM, comme l'évaluation des points de vue dominants dans leurs réponses ouvertes et détaillées à des questions à connotation politique. Cependant, la suggestion selon laquelle l'administration de tests d'orientation politique aux LLM est comparable à une flèche qui tourne est discutable. Comme démontré dans l'étude, la flèche tournante hypothétique pointe systématiquement dans une direction similaire à travers les reprises de test, les modèles et les tests, mettant en doute l'implication du hasard suggérée par le concept d'une flèche tournante.

Une autre préoccupation valide soulevée par d'autres est la vulnérabilité des LLM à l'ordre des options de réponse dans les questions à choix multiples en raison du biais de sélection inhérent aux LLM. C'est-à-dire qu'il a été démontré que les LLMs préfèrent certains IDs de réponse (par exemple, « Option A ») à d'autres lorsqu'ils répondent à des questions à choix multiples. Bien que cette limitation puisse être réelle, elle devrait être atténuée dans cette étude par l'utilisation de plusieurs tests d'orientation politique qui utilisent vraisemblablement une variété d'ordres de classement pour leurs réponses autorisées.

En d'autres termes, il est peu probable que les tests d'orientation politique utilisent un classement systématique dans leurs options de réponse qui s'aligne systématiquement sur des orientations politiques spécifiques. En moyenne, la sélection aléatoire des réponses dans les tests d'orientation politique utilisés aboutit à des résultats proches du centre politique, ce qui confirme l'hypothèse selon laquelle le biais de sélection des LLM ne constitue pas un facteur de confusion important dans les résultats.


Conclusion

En conclusion, l'émergence des grands modèles de langage (LLM) en tant que principaux fournisseurs d'informations marque une transformation significative de la manière dont les individus accèdent à l'information et s'y engagent. Traditionnellement, les gens se fient aux moteurs de recherche ou à des plateformes telles que Wikipedia pour un accès rapide et fiable à un mélange d'informations factuelles et biaisées. Cependant, à mesure que les LLM deviennent plus avancés et accessibles, ils commencent à remplacer partiellement ces sources conventionnelles.

Ce changement de source d'information a de profondes implications sociétales, car les chatbots d'IA peuvent façonner l'opinion publique, influencer les comportements électoraux et avoir un impact sur le discours général de la société. Il est donc crucial d'examiner de manière critique et de traiter les biais politiques potentiels intégrés dans les LLM afin de garantir une représentation équilibrée, juste et précise de l'information dans leurs réponses aux requêtes des utilisateurs.

Source : "The political preferences of LLMs"

Et vous ?

Pensez-vous que cette étude est crédible ou pertinente ?
Quel est votre avis sur le sujet ?

Voir aussi :

L'IA peut prédire les convictions politiques à partir de visages sans expression, posant des problèmes de protection de la vie privée car la reconnaissance faciale peut fonctionner sans le consentement

98 % des gens estiment que l'IA a hérité des biais humains en raison des données qui l'alimentent et 45 % pensent que c'est le plus gros problème de l'IA, selon une enquête de Tidio

Comment la créativité a quitté les chats IA : le prix de la réduction des biais dans les LLM. Si la censure est efficace pour réduire les biais et la toxicité, elle conduit à une réduction du potentiel créatif
Vous avez lu gratuitement 246 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de edrobal
Membre averti https://www.developpez.com
Le 26/11/2024 à 11:49
Mais ces gens ne peuvent pas créer de l'intelligence, seulement accumuler des données ce qui n'est pas de l'intelligence. Cela rappelle le débat entre Montaigne et Rabelais : une tête bien pleine ou une tête bien faite. Je prêche dans le vide mais je répète que l'IA cela n'existe pas, c'est juste un habillage de marketing pour des algorithmes de traitement de masses de données.
8  0 
Avatar de fodger75
Nouveau Candidat au Club https://www.developpez.com
Le 29/04/2025 à 10:25
Citation Envoyé par calvaire Voir le message
je ne cautionne pas le surmenage et le management par le stress.
mais:

On est quand même la sur des problèmes de riches.

Se plaindre de faire 40h/semaines et ne pas avoir le repas de midi gratos... le réveil est brutal pour certains
Moi je faisais ma gamelle la veille en France, et désormais je bosse 46/semaines, j'ai par contre 2j de télétravail. Je ne m'en plains pas.

Mais au bout du compte le plus important c'est le ratio travail/salaire. Il aurait été intéressant de connaitre le salaire de ces salariés par rapport à leurs valeurs moyenne sur le marché.
Si ils sont en haut, ça me semble normal de beaucoup travailler.
Je suis perso à +16000€/mois pour 46h de taff, je préfère cela a mon ancien travail en France moins stressant et mes 35h en France payé 3000€ net.

Il parait que Macron a invité les chercheurs américains a venir en France, donc venez en france faire vos 35h tranquille.
Mais faudra accepter aussi le salaire qui va avec

Je connais pleins de sud coréens et d'indiens qui viendront prendre votre place et salaire aux usa.

Bref il manque pas mal d'information sur ces salariés pour vraiment les plaindre ou pas.
Problème de riche... il va falloir relire la définition.

Tes 16 ke / mois si tu es toujours en France, c'est que tu es dans les 1% de la population et oui dans ce cas toi tu es riche.

Si tu as accepté n'importe quoi c'est ton problème, ça ne veut pas dire que les autres doivent le faire aussi et surtout au 21 ème siècle.
Tout en sachant que 90% de la richesse qu'on produit ne profite en réalité qu'à une poignée.

Hors de question de mettre sa santé en jeu, nous ne sommes pas des esclaves.

Cet article est complètement orienté et propre aux états-unis.

La France, les citoyens subissent une injustice fiscale intolérable, 80 milliards d'évasion par an.
400 Milliards d'aide public absorbés par les grands groupes sans aucun impact sur l'emploi.

L'union fait la force, c'est tout l'Europe, la France qui doit dire stop.
9  1 
Avatar de petitours
Membre émérite https://www.developpez.com
Le 14/03/2025 à 10:31
L'art de vouloir le beurre , l'argent du beurre et la crémière, le tout en tuant la poule aux œufs d'or

Tout ceci ne fait que montrer que l'IA n'a pas de valeur, seuls ceux qui créent la donnée produisent de la valeur.

Pourquoi n'évoque t-il pas le fait logique et simple de rémunérer les créateurs de valeur ?
7  0 
Avatar de J_P_P
Membre régulier https://www.developpez.com
Le 29/05/2025 à 13:32
Certains demandent un droit d'accès gratuit aux données pour "entrainer" leurs IA,
en contrepartie, je demande un accès gratuit et illimité à tous les systèmes d'IA pour
"équilibrer" les choses.
Si une peine ne mérite pas salaire, aucune peine ne le doit !
7  0 
Avatar de petitours
Membre émérite https://www.developpez.com
Le 14/03/2025 à 15:04
Citation Envoyé par Artaeus Voir le message
[...] les ayants droits [...]
oui les ayants droits

Citation Envoyé par Artaeus Voir le message
J'ai beaucoup de mal avec cette idée que les ayants droits doivent toujours toucher de l'argent pour un entrainement d'IA ...

L'IA est un simple réseau de neurone qui ne reproduit pas l'oeuvre, tout comme un être humain peu s'inspirer d'un film/livre.
A-t-on payer un "droit" quand les robots ont remplacé les caissières ou les ouvriers ? Ont-ils eut la moindre compensation ? Pourquoi les artistes (en vrai, les ayants-droits) auraient ce privilèges ?

A la rigueur, l'IA devrait payer une fois l'oeuvre comme un humain, et c'est tout, pour éviter que les ayants-droits aient encore une rente supplémentaire.
L'IA ne reproduit pas l'oeuvre mais elle fait du beurre grace à l'oeuvre et dans ce cas précis elle met en difficulté l'auteur qui ne peut plus se rémunérer.

Un exemple pour aider à comprendre : les films. Qui produirait des films s'il fallait dépenser des millions pour les faire et ne jamais rien toucher en retour ?

Pour la caissière c'est malheureux et la remplacer par un robot une vraie ânerie sociétale, mais son sujet a absolument rien à voir avec le problème du droit d'auteur.

Et ça ne concerne pas que les artistes, ça concerne tous ceux qui produisent du contenu de valeur. S'ils ne peuvent plus se rémunérer (= vivre) ils font comment ?
6  0 
Avatar de OuftiBoy
Membre éprouvé https://www.developpez.com
Le 03/12/2024 à 16:08


Citation Envoyé par edrobal Voir le message
Je prêche dans le vide mais je répète que l'IA cela n'existe pas, c'est juste un habillage de marketing pour des algorithmes de traitement de masses de données.
Oui, l'IA n'existe pas. C'est juste, comme tu le dis bien, un habillage marketing, où l'on remplace le terme "Algorithme" par le terme "IA". La différence de perception, seuls des gens sachant de quoi ils parlent savent la comprendre.

Mr. et Md. "tout-le-monde" y croyent car avant on leur parlait de "technique", et ça leur passait au-dessus de la tête. Renommer algorithme par IA, et ça les touchent un peu plus, car dans le terme IA, il y a "intelligence", chose qu'ils "comprennent mieux".

Quand on me parle de l'IA, je finis toujours par : "Et à fin, il y a un 'IF'. Un oui ou non.

Mais l'IA est une "nouvelle" sorte d'algo, qui fait un énorme traitement, d'une toute aussi énorme masse de données, et utilisant une gigantesque quantité d'énergie. Cette manière de procéder est nouvelle, dans le sens où elle n'était (par des limites matérielles) pas possible auparavant.

Comme beaucoups d'autres "inventions", il y aura du bon et du mauvais. Cette manière de procéder sera adaptée à certains domaines, et n'apportera rien dans d'autres domaines. Cela dépendra aussi de la qualité et de la pertinence des données que pourra traiter une IA.

Un peu d'histoire...

  • L'imprimerie en tant que "technique" ne faisait rien de "miraculeux", mais ça a aidé à diffuser le "savoir". L'imprimerie étant plus rapide qu'un moine copiste.
  • La radio ne créait rien non plus, mais a permis une plus grande diffusion du savoir.
  • Internet, à ses débuts, a aider à partager le savoir.
  • Les moteurs de recherche on permis de "trouver plus vite" le savoir.
  • L'IA va aider a mettre en pratique un savoir, et c'est là le danger. L'IA ne va rien "inventer", mais va permettre à des "non initiés" de "(re)produire" des "choses" qu'ils ne maîtrissent pas. Où est le danger ? Pour moi, l'écart va se creuser entre ceux "qui savent" et d'autres "qui font".


En résumant, ce n'est pas parce que l'on sait utiliser une calculatrice, qu'il ne faut pas continuer a apprendre les mathématiques.

BàV et Peace & Love.
4  0 
Avatar de Gluups
Membre expert https://www.developpez.com
Le 15/03/2025 à 14:02
Citation Envoyé par Artaeus Voir le message
pour éviter que les ayants-droits aient encore une rente supplémentaire.
Est-ce que ce n'est pas justement ce qu'il convient de ne pas éviter ?

Il a bien fallu quelqu'un pour que l'œuvre existe.
4  0 
Avatar de vertex.3F
Membre éclairé https://www.developpez.com
Le 07/05/2025 à 14:07
Citation Envoyé par fodger75 Voir le message
Problème de riche... il va falloir relire la définition.

Tes 16 ke / mois si tu es toujours en France, c'est que tu es dans les 1% de la population et oui dans ce cas toi tu es riche.

Si tu as accepté n'importe quoi c'est ton problème, ça ne veut pas dire que les autres doivent le faire aussi et surtout au 21 ème siècle.
Tout en sachant que 90% de la richesse qu'on produit ne profite en réalité qu'à une poignée.

Hors de question de mettre sa santé en jeu, nous ne sommes pas des esclaves.

Cet article est complètement orienté et propre aux états-unis.

La France, les citoyens subissent une injustice fiscale intolérable, 80 milliards d'évasion par an.
400 Milliards d'aide public absorbés par les grands groupes sans aucun impact sur l'emploi.

L'union fait la force, c'est tout l'Europe, la France qui doit dire stop.
Bonjour, je pense que je suis d'accord avec ce que tu avances.

Malheureusement aujourd hui j'ai l'impression que dans le monde ce sont les systemes économiques libéraux qui ont pris le dessus sur les autres systemes un peu plus régulés et equilibrés. Les individus comme les organisations et les états sont pris au piège de nombreuses contradictions.

Les humains doivent-ils etre au service des systemes économiques ou bien au contraire les systemes économiques ne devraient-ils pas retrouver leur finalité d'origine qui est de servir la cause humaine ?

L'humain qui désirerait un systeme économique libéral devrait aussi accepter d'être considéré par l'entreprise economique comme une simple ressource. Au meme titre qu'une machine.
Je simplifie mais je crois que je n'ai pas besoin de developper. Ni de rappeler l'intox qui consiste pour certains parasites à faire l'amalgame entre le libéralisme philosophique ( le libéralisme prône une société fondée sur la liberté d'expression des individus dans le respect du droit, du pluralisme et du libre échange des idées https://fr.wikipedia.org/wiki/Lib%C3%A9ralisme ) et le libéralisme économique (le fameux capitalisme, jadis bénéfique mais aujourd hui défaillant et ravageur pour les ressources humaines https://fr.wikipedia.org/wiki/Lib%C3...C3%A9conomique ).
5  1 
Avatar de _toma_
Membre éclairé https://www.developpez.com
Le 03/06/2025 à 22:25
Ha, enfin des news sur l'IA qui présentent des cas d'utilisation réels et pas des démos technique inutiles !

4  0 
Avatar de dlandelle
Membre du Club https://www.developpez.com
Le 18/05/2025 à 8:04
Le mot intelligence est usurpé car le mot signifie comprendre (inter ligere).
Or la machine ne comprend strictement rien, elle mime.
En revanche elle est orientable par le prompt et elle trouve les arguments à tordre pour arriver à la conclusion voulue (boulot fait auparavant manuellement pas la franc-maçonnerie.
La guerre annoncée par macron avec le covid n'est pas terminée : 100 000 morts par an en plus que la moyenne depuis 2022 selon l'INSEE (données brutes https://www.insee.fr/fr/information/4190491).
L'IA sert de cover story à la propagande de guerre que plus aucun humain ne veut assumer, car le génocide médicalisé donne des idées de ressortir la guillotine. Et demains l'IA enverra des mobilisations pour aller sauver l'Ukraine sans armes...
3  0