IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Loi sur l'IA : un frein à l'innovation européenne ? Oui, selon John Loeber, qui souligne les limites de la loi
Et estime que son impact pourrait être dangereux pour les Européens à long terme

Le , par Stéphane le calme

5PARTAGES

9  0 
La semaine dernière, l’Union Européenne a adopté la loi sur l'intelligence artificielle, un ensemble de réglementations à l’échelle de l’UE qui marque un tournant dans l’utilisation de l’intelligence artificielle. Mais John Loeber, co-fondateur et PDG de Limit, une société de courtage numérique de série A pour l'assurance commerciale, tire la sonnette d'alarme. Il note que cette loi s’applique également à des outils conventionnels, comme la reconnaissance faciale et, si on la lit attentivement, à des choses comme la régression linéaire simple. Selon lui : « l’impact est considérable et je crains qu’il n’ait une fois de plus un effet refroidissant sur la technologie en Europe. Cela est dangereux pour les Européens : à long terme, cela pourrait être une pierre de plus sur la route de la servitude ».

La loi, appelée AI Act, établit une nouvelle référence mondiale pour les pays cherchant à exploiter les avantages potentiels de la technologie, tout en essayant de se protéger contre ses risques possibles, comme l'automatisation des emplois, la diffusion de fausses informations en ligne et la mise en danger de la sécurité nationale. La loi doit encore franchir quelques étapes finales avant d'être approuvée, mais l'accord politique signifie que ses grandes lignes ont été fixées.

Les décideurs politiques européens se sont concentrés sur les utilisations les plus risquées de l’IA par les entreprises et les gouvernements, notamment celles destinées à l’application des lois et à l’exploitation de services cruciaux comme l’eau et l’énergie. Les fabricants des plus grandes technologies d’IA à usage général les systèmes, comme ceux qui alimentent le chatbot ChatGPT, seraient confrontés à de nouvelles exigences de transparence. Les chatbots et les logiciels créant des images manipulées telles que les « deepfakes » devraient indiquer clairement que ce que les gens voient a été généré par l’IA, selon les fonctionnaires de l’UE et les versions antérieures de la loi.

L'utilisation de logiciels de reconnaissance faciale par la police et les gouvernements serait restreinte en dehors de certaines exemptions en matière de sûreté et de sécurité nationale. Les entreprises qui enfreignent la réglementation pourraient se voir infliger des amendes pouvant atteindre 7 % de leurs ventes mondiales.

Une loi qui pourrait se retourner contre l'UE, selon John Loeber

Dans un billet, John Loeber rappelle qu'il a grandi en Europe (principalement en Allemagne, au Danemark et en Suisse) et qu'il n'a quitté le continent qu'à ses 18 ans, lorsqu'il s'est installé aux États-Unis où il vit depuis 12 ans, principalement à San Francisco. Il estime que cela lui confère une certaine perspective sur le décalage entre les attitudes européennes et la création de prospérité par le progrès technologique.

Dans une tribune, il a expliqué :
  • en quoi la loi sur l’IA est mauvaise ;
  • pourquoi le “Providerism” est la raison pour laquelle l’Europe ne parvient pas à construire des technologies et à créer de la richesse ;
  • qu'est-ce que cela signifie pour l'Europe ?
  • comment y remédier.

En quoi la loi sur l’IA est mauvaise

Ci-dessous les propos de John Loeber :

Si vous lisez un résumé de l’AI Act Briefing, une chose vous remarquera immédiatement : tout est réglementé au niveau de l’application. L'essence de la réglementation est du genre « vous n'êtes pas autorisé à utiliser l'IA pour exploiter des groupes vulnérables », « si vous utilisez l'IA à des fins éducatives, elle doit réussir cet ensemble de tests de l'UE », « vous ne pouvez pas l'utiliser la reconnaissance faciale à ces fins interdites ». Ce style de régulation par patchwork de nombreuses règles distinctes mais liées est notoirement inefficace :
  • Faute de principes unificateurs/généraux, de nouvelles réglementations devront être ajoutées pour chaque nouveau cas futur. Il y a une nouvelle application ? Consacrons mille heures de temps aux législateurs pour ajouter un ensemble de règles supplémentaire.
  • Ironiquement, la spécificité des règles rend flou leur application ou non, ce qui invite au débat contradictoire : « ma demande utilise-t-elle réellement des données biométriques ? Non, ce sont des métadonnées… » ou « Mon application effectue-t-elle une notation de crédit social interdite ? Non, nous vendons en réalité une évaluation actuarielle des risques et vous choisissez comment l’utiliser… »
  • D’un autre côté, la loi sur l’IA réglemente les techniques si élémentaires que la plupart des entreprises technologiques seront techniquement en situation de non-conformité dès le premier jour.

Il s’agit de la pire réglementation : large, radicale, tout le monde est techniquement en infraction d’une manière ou d’une autre, mais vous pouvez payer pour la combattre. Les entrepreneurs obéissants et respectueux des règles perdront tout leur temps et leur argent à essayer de se conformer à chaque paragraphe de la loi sur l’IA. De plus en plus d’entrepreneurs soucieux de la Realpolitik placeront leur entreprise dans une zone grise, supposeront que s’ils réussissent, ils seront un jour poursuivis en justice et économiseront des fonds pour cette éventualité.

Et s’ils sont poursuivis, quelles sont les sanctions ? Jusqu'à 7% du chiffre d'affaires annuel mondial. C'est une farce. Si l’UE affirme que cette technologie est si dangereuse qu’elle nécessite une réglementation à l’échelle européenne, alors les sanctions devraient en réalité être beaucoup plus lourdes. S’il y a un mauvais acteur qui dirige une entreprise d’IA massivement abusive et que la plus grande menace à laquelle il est confronté est une pénalité de revenus de 7 % qu’il peut probablement réduire à 2 % après quelques années de litige, alors cela n’a aucun effet dissuasif ! Ces entreprises fonctionnent avec une marge brute de 75 %. Vous avez une année qui tourne à 73% ? Cela n’a pas d’importance.

Cela place la loi sur l’IA dans une situation intermédiaire lamentable en matière de réglementation : suffisamment ennuyeuse pour dissuader les entrepreneurs légitimes, suffisamment édentée pour ne pas empêcher des abus à grande échelle. Je suis choqué que la loi sur l’IA ne prévoie aucune possibilité d’interdire quelque chose qui serait réellement dangereux, comme une machine de propagande optimisée par l’IA et financée par l’État, se faisant passer pour un réseau social. S’ils ne peuvent pas interdire des produits, alors il ne s’agit pas de protection des consommateurs : il s’agit simplement d’extraction de richesses.

“Providerism”

John Loeber n’est pas en faveur de la régulation des technologies IA à l’heure actuelle, mais suggère que si une régulation devait être mise en place, elle devrait se faire au niveau de la production plutôt qu’à celui de la consommation. Il trouve ironique que les régulateurs européens se concentrent sur la consommation alors que l’Europe est décrite comme un continent de consommateurs, contrairement aux États-Unis qui sont productifs à grande échelle. Il souligne la différence entre vivre en Europe, où il a grandi entouré de biens de consommation étrangers et sans réelle exposition à la production, et vivre dans la Silicon Valley, où il rencontre des personnes qui créent les produits qu’il utilise.

Il introduit le terme “Providerism” pour décrire la tendance européenne à ignorer la réalité politico-économique, car tout est fourni, et les mécanismes sous-jacents sont masqués. Selon lui, cette mentalité est un danger pour l’Europe, car elle s’éloigne de la production de biens de valeur et devient complaisante, tandis que les régulateurs imposent des barrières locales croissantes, ce qui nuit à l’entrepreneuriat technologique européen. Pour John Loeber, la prospérité à long terme de l’Europe dépend de son innovation technologique et de sa capacité à produire des biens de valeur : « C’est terrible, car pour l’Europe, le principal moyen de maintenir et d’atteindre la prospérité à long terme est évidemment d’innover technologiquement et de produire des choses de valeur ».


Qu'est-ce que cela signifie pour l'Europe ?

John Loeber estime que l’Europe est à la traîne; elle a largement raté les booms d’internet et de l’informatique personnelle, et risque maintenant de manquer le prochain boom de l’IA. Les Européens d’aujourd’hui ne sont pas encore pauvres — ils vivent encore de la prospérité créée par les générations précédentes, ce qui permet leur consommation passive — mais ceux de demain pourraient l’être.

De plus, les manœuvres réglementaires européennes ne peuvent pas durer éternellement. Les entreprises étrangères doivent non seulement se conformer à la loi sur l'IA, mais aussi au RGPD et à de nombreuses autres normes de l’UE. À un moment donné, tout cela devient trop lourd et les entreprises étrangères vont se montrer fermes. Dans cette situation, l’UE perdra parce qu’elle n’a pas d’alternatives domestiques aux principaux produits logiciels étrangers, et les consommateurs de l’UE ne seront pas prêts à retourner à l’âge de pierre.

C’est une mauvaise configuration, tant pour les consommateurs européens que pour la prospérité de l’Europe. L’UE doit corriger rapidement et de manière décisive sa trajectoire.

Comment y remédier ?

L’Europe doit s’affranchir du “Providerism”, décourager la dépendance complaisante envers les biens et services extérieurs, et encourager la vertu inhérente à la création de nouvelles choses. Cela nécessitera un leadership considérable. La tâche à venir n’est pas mince affaire et sera impopulaire. Les gens aiment que les choses leur soient fournies, mais cette situation ne peut pas durer. Du point de vue des budgets publics, on voit déjà le “Providerism” s’effondrer dans l’UE. La grande tâche à venir pour les régulateurs européens est de faciliter la création de richesse, et non la consommation de richesse. Mes recommandations sont :
  • Déréglementer la technologie. Tout jeter et recommencer à zéro. À l’avenir, réguler les grandes externalités négatives, et non les potentielles imaginaires. Ne pas présumer du besoin.
  • Fédérer. L’UE doit faciliter l’expansion des entreprises sur l’ensemble du marché de l’UE. Actuellement, il existe de nombreux obstacles juridiques et financiers à cela.
  • Favoriser un état d’esprit de production. Il est important pour l’Europe de rapatrier une partie de la production de biens et services de pointe : pas seulement pour des raisons économiques, mais aussi culturellement. Se concentrer sur la fabrication de choses.
  • S’engager dans le boom de l’IA. Le boom de l’IA est une opportunité unique pour l’Europe car il est lié à la recherche académique, et les nombreuses universités de l’UE diplôment de grands talents sans dette. Mistral est une entreprise incroyable : il devrait y en avoir plus !

Des réactions plutôt mitigées

Un internaute lui a reproché de se limiter à son expérience vécue pour décrire tout un continent.

Un autre a déclaré :

J’aime l’article, mais je pense que les conséquences suggérées par l’auteur manquent de compréhension de ce qui retient réellement les entrepreneurs européens. À l’OMI, il s’agit de simplifier la réglementation. Simplifiez la fiscalité. Simplifiez la comptabilité. Simplifiez le recrutement et le licenciement.

J’ai vécu dans différents pays européens et j’ai toujours l’impression que tant d’énergie est dépensée pour résoudre chaque cas extrême avec une autre règle, en essayant de rendre le monde parfaitement juste. Cela arrange mieux le statu quo mais empêche de nombreux changements futurs.

D’une manière générale, je partage entièrement l’analyse de l’auteur. En ce qui concerne les technologies modernes comme les ordinateurs, la description du « providerism » est parfaite.
Et un autre a tenté de signaler les limites de son argumentation :

Les déclarations selon lesquelles le providerism et l’Europe ne produisent rien de valeur se concentrent uniquement sur la technologie informatique et non sur tout autre type de technologie. Prenez le secteur agricole*; l'Europe produit non seulement des tonnes de légumes/fruits et de viande, mais elle dispose également de solides programmes de R&D tels que l'enrichissement des graines, la modification de l'ADN, etc. Il existe de nombreux autres secteurs.
Source : John Loeber

Et vous ?

Quelle lecture faites-vous de l'analyse de John Loeber ? La trouver vous pertinente ou pas vraiment ? Dans quelle mesure ?
Pensez-vous que le projet de loi européen sur l’IA protège suffisamment les droits des citoyens ou entrave-t-il l’innovation dans le domaine de l’IA ?
Comment l’Europe peut-elle équilibrer la nécessité de réglementer l’IA tout en favorisant un environnement propice à la recherche et au développement ?
Quels sont les principaux obstacles que rencontrent les entreprises technologiques en Europe pour se développer à l’échelle de l’UE ?
Comment l’Europe peut-elle encourager un état d’esprit orienté vers la production et l’innovation technologique au sein de sa population ?
Quelles mesures spécifiques les régulateurs européens devraient-ils prendre pour faciliter la création de richesse plutôt que la consommation de richesse ?
En quoi le “Providerism” a-t-il affecté la compétitivité économique de l’Europe sur la scène mondiale ?
Quel rôle les universités européennes peuvent-elles jouer dans le soutien à l’essor de l’IA et de la technologie en Europe ?

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de OrthodoxWindows
Membre émérite https://www.developpez.com
Le 07/02/2024 à 22:16
Encore une étude de greenwashing
4  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 24/03/2024 à 11:22
Et comme pour le 99,9% des résolutions de l'ONU, strictement personne n'en tiendra compte!
4  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 10/04/2024 à 8:28
Je n'ai pas très bien compris ce qui était mesuré pour définir que l'IA émet moins de CO2 qu'un humain pour écrire une page.

Est-ce que l'empreinte carbone des datas center servant à l'IA pour produire sa page est comptée ou non ? Si c'est juste l'empreinte carbone pour l'écriture finale, c'est-à-dire le "pouillème" final, alors l'étude est biaisée.
4  0 
Avatar de mach1974
Membre averti https://www.developpez.com
Le 13/12/2023 à 16:20
Bonjour,
Un peu de rationalisation que diable. On reste sur de l'ia qui calcule les corrélations et en tire des arbres causaux sans décrire les mécaniques même avec LIME et SHAPE, alors que l'analyse grammaticale avec les COI et COD permet de déterminer le sujet et le complément , ce qui permet une logique de prédicat avec le respect des 3 lois d'ASIMOV. C'est un cauchemar. On va voir revenir le temps des sorciers même si Athur C Clarke parle de magie comme la techno qui disparaît. On va élever l'ordinateur au rang de Dieu dans la prochaine étape . C'est bien la peine de faire du modèle checking dans la norme ISO179 pour l'aéronautique ou dans le ferroviaire ....
2  0 
Avatar de totozor
Membre expert https://www.developpez.com
Le 10/04/2024 à 8:01
Citation Envoyé par Jade Emy Voir le message
Il est essentiel de se pencher sur le type d'impact environnemental que l'IA peut finir par avoir. Cependant, il s'avère que l'IA pourrait en fait produire moins d'émissions de carbone que les humains, ce qui la rendrait plus durable. L'IA émet des centaines de fois moins de gaz à effet de serre que l'homme lorsqu'il s'agit d'écrire et de créer des images.
C'est une analyse intéressante mais est ce que ça veut dire qu'utiliser une IA émet moins de carbone qu'utiliser une personne?
Non, pour une raison simple:
Quand la personne travaille et pas l'IA, l'IA n'émet rien
Quand l'IA travaille et pas la personne, la personne émet toujours.
Donc il faudrait comparer le surplus d'émission de la personne quand elle travaille à l'IA.
Les autres facteurs sont nombreux :
L'IA produit (probablement) peu de carbone quand elle travaille parce qu'elle est plus rapide que l'homme mais combien émet son apprentissage?
L'IA nécessite une revue de son travail plus importante que la personne donc combien émet la différence de revue?
Combien d'IA différente faut il pour remplacer toutes les taches d'une personne?
Et je n'ai pas encore parlé de l'apport social d'une personne...

Pensez-vous que cette étude est crédible ou pertinente ?
L'étude en tant que telle à l'air crédible (faite de façon honnête et rigoureuse) par contre le but de celle ci me parait beaucoup moins pertinent.
Quelle conclusion tirer? Qu'il faut faire travailler les IA plutôt que les personnes pour l'édition? Ce n'est pas ce que disent les chercheurs, c'est pourtant ce que nous lisons.
Qui a financer cette étude? Dans quel but? Avec ces réponses nous aurons peut être une clarification de sa pertinence.
On sait que l'un des auteur détient des actions chez NVIDIA mais je n'ai rien trouvé chez le financeur.
Quel est votre avis sur le sujet ?
L'IA n'a rien d'écologique parce qu'elle ajoute de la production de carbone à la production humaine, attaquer la question par cet angle est absurde. (A moins que l'on décide de "faire disparaitre" les personnes qui deviennent "inutiles" mais on dérive vers des gros problèmes éthiques).
Par contre l'IA a d'autres avantages qui méritent d'être étudiés.

Des gens essayent d'aborder les sujets de façon "rationnelle" en ce moment pour transformer des solutions plus ou moins absurdes en bon sens.
La Science n'apporte pas toujours les bonnes réponses aux problèmes parce qu'elle ignore les sciences humaines ou l'éthique.
Pourtant il me semble qu'Asimov nous avait déjà prévenu que cette méthode ne fonctionnait pas.
2  0 
Avatar de pierre-y
Membre chevronné https://www.developpez.com
Le 14/02/2024 à 13:03
L'UE c'est vraimment le bal de la corruption. Quand je pense que la parlementaire grec qui c'était fait choper a recevoir du blé du Qatar a put tranquillement reprendre son poste comme si de rien n'était... C'est vraiment a vomir.
2  1 
Avatar de Eye_Py_Ros
Nouveau membre du Club https://www.developpez.com
Le 10/04/2024 à 15:18
> Pensez-vous que cette étude est crédible ou pertinente ?
> Quel est votre avis sur le sujet ?

Que dire que dire, un petit essai improvisé.
Pour commencer cette étude à un objectif assez clair et malsain, contrer le bashing de l'IA qui pollue à cause de sa consommation excessive en ressource en ce qui concerne sa création / entraînement / formation.
Je dirais que l'étude est remplie de biais, mais aussi qu'elle souligne un sujet mortifère et dont les philosophes devraient se saisir.

Pour commencer en ce qui concerne les biais, les graphiques sont ultras simpliste et ne prenne pas en compte les ressources nécessaires pour l'entraînement des AI ni même les ressources consommées pour concevoir le hardware.
De la production de silicium au GPU en passant par l'humain qui a conçu le GPU à la chaîne d'assemblage jusqu'au data center où elle est en fonction à déjà consommé plusieurs années CO2 d'une ville humaine.

La conclusion stéréotypée que l'on peut faire de ce genre d'étude. Au mon dieu, un humain, ça respire ça émet du CO2, un caillou alimenté avec de l'Énergie pure sa ""n'émet pas"" de CO2. Il faut donc remplacer toute la population humaine par des cailloux qui imite les humains.
Je tire volontairement le trait, mais c'est une pente glissante vers lequel les bobo extrêmes écolos ont tendance à prendre de vouloir éliminer le vivant sous prétexte qu'il émet du CO2. Si on suit leur logique uniquement les plantes auraient le droit de vivre puisqu’elles n'émettent pas de CO2 (dans leurs schémas de pensée) ce qui est faux et sans CO2 elles ne peuvent se développer autant... Alors si on en fait la seule source de nourriture...

Concernant les schémas on nous montre une quantité d'Énergie consommée en instantané lorsque le réseau (de neurones en cailloux) fait une génération unique, versus le pc d'un auteur allumé.
Déjà pour commencer le biais, un serveur qui fait tourner de l'IA est allumé H24, consomme rien que pour être allumé 100W et peut monter à 3000W voir plus. Le pc d'un auteur est allumé disons 6-8h et un pc portable sobre peut, disons consommer au max 25w dans un standard sobre écoresponsable. De plus un auteur peut ne pas passer toute une session d'écriture sur un pc, on peut aussi avoir des machines tablette dans le futur à base d'epaper comme écran, utiliser le stylo et la feuille.... Donc déjà la méthode de travail est un biais choisi non représentatif des "travailleurs" du secteur. Doit-on compter les repas, et la tasse de café en terrasse ?

Idem dans la création d'images, un peintre ne va pas utiliser un ordinateur de la même manière voir pas du tout, un photographe non plus et un graphiste peut faire des recherches de diverses manières. Leur activité n'est pas 100% numérique.

Coté IA, ouaaa une génération consomme peux. Sauf que qui aujourd'hui ne demande pas à l'IA plusieurs générations pour avoir un résultat un peut exploitable et qui ne passe pas un peu de temps pour intégrer la réponse...
10 générations consommeraient déjà le CO2 pour une journée de travail humain. Or il est si facile de cliquer sur généré que l'étude ne prend pas en compte le fait que cette facilité va augmenter le nombre de générations demandé et donc pour une même tache incitée à consommer plus.
Plutôt qu'un travail réfléchis, fait et plutôt droit au but, on va frénétiquement cliqué sur générer, une, deux, 10, 20, 50 fois dans la journée jusqu'à avoir un travail prémâché qu'il faudra de toute façon relire puis intégrer.

Au final une IA, est un outil qui consomme, et sa facilité d'usage poussera a consommer par ce que dans un même espace de temps on le peut.
Et si on pense éliminer complètement les humains, alors nous allons créer une société de machine qui travaillera pour des machines.
Le summum du capitalisme, nous créons du travail/ de la valeur à l'aide de machine pour qu'elle soit consommée par d'autres machines et faire tourner le capitalisme.

Nous avons des Shadock qui pompe, que nous remplaçons par des machines qui pompes pour se maintenir entre elles en vie et soutenir artificiellement le capitalisme et "sa croissance infinie" artificielle.
On va basculer d'une économie pétrodollar en data dollar.
(et il faudra mettre des humains sur des vélos pour combler le manque de pétrole pour alimenter en Énergie les machines)

Tout ceci est absurde tout comme confondre un outil et une volonté créatrice vivante.
Le côté mortifère, c'est de vouloir a tout pris évincer l'humain de la composante économique pour des raisons de coûts. De l'autre côté, ce que l'on aura sacrifié... nous fera plonger vers une économie dystopique, avec une économie parallèle qui ne sert qu'aux machines et de l'autre, des humains tout tombés dans la précarité.
Et le risque, c'est un arrêt de la créativité, un grippage de l'inventivité et d'évolution.
Où à côté d'usines fumantes, nous aurions une population qui n'a plus les moyens de consommer.
Sauf, si la réalité réajuste la situation, car non viable et qu'un mixte des deux finissent par co exister.

Ce que je dirais, c'est que ce genre d'étude envoie un signal malsain coté sociétal, poussant des résonnements inachevés polarisant des questions légitimes en réponse absurde. Plantant les graines d'idéologie néfaste pour une société.

Nous sommes nés trop tard pour explorer les continents, trop tôt pour explorer Mars, mais dans l'époque de l'avènement de l'IA et d'un grand bouleversement économique et sociétal mondiaux en perspective que l'on veuille ou non.
L'avenir dépend de ce qui est en train de s'écrire, des luttes et intérêts de certains. De l'éducation ou du manque des masses en vers ce type d'enjeux, et si nous finissons tout droits vers un avenir dystopique d'une dictature mondiale et d'une misère qui fera régresser l'humanité ou si nous deviendrons tous lucide sur le sujet. comme le plat réchauffé que les mails allaient tuer le métier de postier. Que les livres numériques allaient faire disparaître les imprimeurs ect, ect.

Tous sa pour dire (sans se méprendre, ça reste intéressant que le site nous permette de faire une veille techno) y en a marre de ce genre d'étude de lobbying pondu par des cabinets com , la seule chose que ça génère c'est de la méfiance en vers les études et une perte de crédibilité du peuple en vers toutes analyses et réflexion.
Remplaçons les cabinets de com par de l'IA, peut être que l'on aura moins de mensonge comme ça.
1  0 
Avatar de denisys
Membre chevronné https://www.developpez.com
Le 13/12/2023 à 16:13
On a mis 1,5 milliard sur notre stratégie IA.
C’est qui : On ??,
La / le contribuable payé au smic ??
Les grosses pointures du CAC 40 ??
L’état ??
Etat = 80 % => La / le contribuable payé au smic .
0  0