IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Loi sur l'intelligence artificielle: l'Europe parvient à un accord sur les premières règles globales au monde en matière d'IA
Tentant d'exploiter les avantages potentiels de la technologie

Le , par Stéphane le calme

12PARTAGES

7  0 
Vendredi, les négociateurs du Parlement et du Conseil sont parvenus à un accord provisoire sur la législation sur l’intelligence artificielle. La loi sur l’IA a été conçue à l’origine pour atténuer les dangers liés à des fonctions spécifiques de l’IA en fonction de leur niveau de risque, de faible à inacceptable. Mais les législateurs ont décidé de l'étendre aux modèles à usage général, les systèmes avancés qui sous-tendent les services d'IA à usage général comme ChatGPT et le chatbot Bard de Google. Une entente qui arrive malgré l'opposition menée par la France et l'Allemagne, qui ont plutôt appelé à l'autorégulation pour aider les sociétés européennes d'IA générative locales à rivaliser avec leurs grands rivaux américains.

La loi, appelée AI Act, établit une nouvelle référence mondiale pour les pays cherchant à exploiter les avantages potentiels de la technologie, tout en essayant de se protéger contre ses risques possibles, comme l'automatisation des emplois, la diffusion de fausses informations en ligne et la mise en danger de la sécurité nationale. La loi doit encore franchir quelques étapes finales avant d'être approuvée, mais l'accord politique signifie que ses grandes lignes ont été fixées.

Les décideurs politiques européens se sont concentrés sur les utilisations les plus risquées de l’IA par les entreprises et les gouvernements, notamment celles destinées à l’application des lois et à l’exploitation de services cruciaux comme l’eau et l’énergie. Les fabricants des plus grandes technologies d’IA à usage général les systèmes, comme ceux qui alimentent le chatbot ChatGPT, seraient confrontés à de nouvelles exigences de transparence. Les chatbots et les logiciels créant des images manipulées telles que les « deepfakes » devraient indiquer clairement que ce que les gens voient a été généré par l’IA, selon les fonctionnaires de l’UE et les versions antérieures de la loi.

L'utilisation de logiciels de reconnaissance faciale par la police et les gouvernements serait restreinte en dehors de certaines exemptions en matière de sûreté et de sécurité nationale. Les entreprises qui enfreignent la réglementation pourraient se voir infliger des amendes pouvant atteindre 7 % de leurs ventes mondiales.

Une loi potentiellement efficace ?

« L'Europe s'est positionnée comme un pionnier, comprenant l'importance de son rôle de normalisateur mondial », a déclaré dans un communiqué Thierry Breton, le commissaire européen qui a aidé à négocier l'accord.

Pourtant, même si la loi a été saluée comme une avancée réglementaire, des questions subsistaient quant à son efficacité. De nombreux aspects de cette politique ne devraient pas entrer en vigueur avant 12 à 24 mois, un délai considérable pour le développement de l'IA. Et jusqu'à la dernière minute des négociations, les décideurs politiques et les pays se sont battus sur le texte et sur la manière de trouver un équilibre entre la promotion de l'innovation et la nécessité de se prémunir contre d'éventuels dommages.

L'accord conclu à Bruxelles a nécessité trois jours de négociations, dont une première session de 22 heures qui a débuté mercredi. L'accord final n'a pas été immédiatement rendu public car les discussions devraient se poursuivre en coulisses pour finaliser les détails techniques, ce qui pourrait retarder l'adoption finale. Les votes doivent avoir lieu au Parlement et au Conseil européen, qui comprennent des représentants des 27 pays de l'Union.


L'urgence déclenchée par la sortie de ChatGPT

Réguler l’IA est devenu urgent après la sortie l’année dernière de ChatGPT, qui est devenu une sensation mondiale en démontrant les capacités avancées de l’IA. Aux États-Unis, l’administration Biden a récemment publié un décret axé en partie sur les effets de l’IA sur la sécurité nationale. La Grande-Bretagne, le Japon et d’autres pays ont adopté une approche beaucoup moins interventionniste, tandis que la Chine a imposé certaines restrictions sur l’utilisation des données et les algorithmes de recommandation.

L’enjeu est de plusieurs milliards de dollars en valeur estimée, alors que l’IA devrait remodeler l’économie mondiale. « La domination technologique précède la domination économique et la domination politique », a déclaré cette semaine Jean-Noël Barrot, ministre français du Numérique.

L'Europe a été l'une des régions les plus avancées en matière de réglementation de l'IA, ayant commencé à travailler sur ce qui allait devenir le système de réglementation de l'AI Act en 2018. Ces dernières années, les fonctionnaires de l’UE ont tenté d’introduire un nouveau niveau de surveillance de la technologie, semblable à la réglementation des secteurs de la santé ou du secteur bancaire. Le bloc a déjà promulgué des lois de grande envergure liées à la confidentialité des données, à la concurrence et à la modération des contenus.

Une première ébauche de l’AI Act a été publiée en 2021. Mais les décideurs politiques se sont retrouvés à réécrire la loi à mesure que des avancées technologiques apparaissaient. La version initiale ne faisait aucune mention de l'IA à usage général, des modèles comme ceux qui alimentent ChatGPT.

Les décideurs politiques ont convenu de ce qu’ils ont appelé une « approche basée sur les risques » pour réglementer l’IA, dans laquelle un ensemble défini d’applications est soumis au plus grand nombre de surveillances et de restrictions. Les entreprises qui font de l’IA les outils qui posent le plus de préjudice potentiel aux individus et à la société, comme en matière d'embauche et d'éducation, devraient fournir aux régulateurs des preuves d'évaluations des risques, des détails sur les données utilisées pour former les systèmes et des assurances que le logiciel n'a pas causé de préjudice comme perpétuer les préjugés raciaux. Une surveillance humaine serait également nécessaire lors de la création et du déploiement des systèmes.

Certaines pratiques, comme la récupération aveugle d’images sur Internet pour créer une base de données de reconnaissance faciale, seraient purement et simplement interdites.


Les grandes lignes de l'AI Act

Des applications interdites

Reconnaissant la menace potentielle pour les droits des citoyens et la démocratie que représentent certaines applications de l’IA, les colégislateurs sont convenus d’interdire :

  • systèmes de catégorisation biométrique utilisant des caractéristiques sensibles (par exemple: opinions politiques, religieuses, philosophiques, orientation sexuelle, race));
  • extraction non ciblée d’images faciales sur Internet ou par vidéosurveillance pour créer des bases de données de reconnaissance faciale
  • reconnaissance des émotions sur le lieu de travail et les établissements d’enseignement;
  • la notation sociale basée sur le comportement social ou les caractéristiques personnelles ;
  • les systèmes d'IA qui manipulent le comportement humain pour contourner le libre arbitre ;
  • l'IA utilisée pour exploiter les vulnérabilités des personnes (en raison de leur âge, de leur handicap, de leur situation sociale ou économique).

Exemptions pour les services répressifs

Les négociateurs sont convenus d'une série de garanties et d'exceptions limitées pour l'utilisation des systèmes d'identification biométrique dans les espaces accessibles au public à des fins répressives, sous réserve d'une autorisation judiciaire préalable et pour des listes d'infractions strictement définies. Les systèmes d'identification biométrique "à distance" seront utilisés strictement dans le cadre de la recherche ciblée d'une personne condamnée ou soupçonnée d'avoir commis un crime grave.

Les systèmes d’identification biométrique "en temps réel" répondront à des conditions strictes et leur utilisation sera limitée dans le temps et dans l'espace :
  • recherche ciblée de victimes (enlèvement, traite, exploitation sexuelle),
  • la prévention d'une menace terroriste précise et actuelle, ou
  • la localisation ou l'identification d'une personne soupçonnée d'avoir commis l'un des crimes spécifiques mentionnés dans le règlement (terrorisme, traite, exploitation sexuelle, meurtre, enlèvement, viol, vol à main armée, participation à une organisation criminelle, crime contre l'environnement).

Des obligations pour les systèmes à haut risque

Pour les systèmes d’IA classés comme présentant un risque élevé (en raison de leur préjudice potentiel important pour la santé, la sécurité, les droits fondamentaux, l’environnement, la démocratie et l’État de droit), des obligations strictes ont été convenues. Les députés ont réussi à inclure une analyse d’impact obligatoire sur les droits fondamentaux, entre autres exigences, également applicable au secteur bancaire et des assurances. Les systèmes d’IA utilisés pour influencer le résultat des élections et le comportement des électeurs sont également classés comme étant à haut risque.

Les citoyens auront le droit de déposer des plaintes concernant les systèmes d'IA et de recevoir des explications sur les décisions basées sur des systèmes d'IA à haut risque qui ont une incidence sur leurs droits.

Des garde-fous pour les systèmes généraux d’intelligence artificielle

Pour tenir compte du large éventail de tâches que les systèmes d’IA peuvent accomplir et de l’expansion rapide de leurs capacités, il a été convenu que les systèmes d’IA à usage général, et les modèles sur lesquels ils sont basés, devront respecter des exigences de transparence, comme initialement proposé par le Parlement. Il s’agit notamment de mettre à jour la documentation technique, de se conformer à la législation de l’UE sur les droits d’auteurs et de diffuser des résumés détaillés sur le contenu utilisé pour leur formation.

Pour les systèmes d’IA à usage général présentant un risque systémique, les négociateurs du PE ont obtenu des obligations plus strictes. Si ces modèles répondent à certains critères, ils devront effectuer des évaluations de modèles, évaluer et atténuer les risques systémiques, effectuer des tests contradictoires, rendre compte à la Commission des incidents graves, assurer la cybersécurité et rendre compte de leur efficacité énergétique. Les députés ont également insisté sur le fait que, jusqu'à ce que des normes européennes harmonisées soient publiées, les systèmes d’IA à usage général présentant un risque systémique peuvent s'appuyer sur des codes de pratique pour se conformer à la réglementation.

Mesures de soutien à l’innovation et aux PME

Les députés voulaient veiller à ce que les entreprises, en particulier les PME, puissent développer des solutions d’IA sans pression excessive de la part des géants de l’industrie qui contrôlent la chaîne de valeur. À cette fin, l’accord promeut des "bacs à sable réglementaires", et des environnements réels, mis en place par les autorités nationales pour développer et tester une IA innovante avant sa mise sur le marché.

Sanctions

Le non-respect des règles peut entraîner des amendes allant de 7,5 millions d’euros ou 1,5 % du chiffre d’affaires à 35 millions d’euros ou 7 % du chiffre d’affaires mondial, en fonction de l’infraction et de la taille de l’entreprise.

Conclusion

Le débat sur l’Union européenne a été controversé, signe de la façon dont l'IA a déconcerté les législateurs. Les responsables étaient divisés sur l’ampleur de la réglementation du nouveau système d’IA, de peur de handicaper les start-up européennes qui tentent de rattraper les entreprises américaines comme Google et OpenAI.

Les nouvelles réglementations seront surveillées de près à l’échelle mondiale. Elles affecteront non seulement les principaux acteurs de l’IA, notamment Google, Meta, Microsoft et OpenAI, mais aussi d'autres entreprises qui devraient utiliser la technologie dans des domaines tels que l'éducation, les soins de santé et la banque. Les gouvernements se tournent également davantage vers l’IA en matière de justice pénale et d'attribution des avantages publics.

L’application reste floue. L'AI Act impliquera les régulateurs de 27 pays et nécessitera le recrutement de nouveaux experts à un moment où les budgets gouvernementaux sont serrés. « Les prouesses réglementaires de l’UE sont remises en question », a déclaré Kris Shrishak, chercheur principal au Conseil irlandais pour les libertés civiles, qui a conseillé les législateurs européens sur l’IA Act. « Sans une application stricte, cet accord n’aura aucun sens. »

Quoiqu'il en soit, le texte approuvé devra désormais être formellement adopté par le Parlement et le Conseil pour être intégré à la législation de l’UE. La commission du marché intérieur et des libertés civiles du Parlement votera sur l’accord lors d’une prochaine session.

Source : Parlement européen

Et vous ?

Quels sont les avantages et les inconvénients de l’AI Act pour les entreprises technologiques européennes ?
Comment l’interdiction de l’utilisation de l’IA dans la surveillance biométrique pourrait-elle affecter la sécurité publique et la vie privée ?
La divulgation du contenu généré par l’IA est-elle suffisante pour garantir la transparence et la confiance dans les systèmes d’IA ?
Les exigences de divulgation du matériel protégé par le droit d’auteur utilisé pour former les systèmes d’IA sont-elles réalisables ? Dans quelle mesure ?
Comment l’UE peut-elle équilibrer la protection des droits fondamentaux avec la promotion de l’innovation dans le domaine de l’IA ?
Les règles proposées par l’UE pourraient-elles devenir un modèle mondial pour la réglementation de l’IA ? Pourquoi ou pourquoi pas ?
Quel impact l’évaluation de l’impact environnemental des applications à « haut risque » pourrait-elle avoir sur le développement durable de l’IA ?

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de OrthodoxWindows
Membre émérite https://www.developpez.com
Le 07/02/2024 à 22:16
Encore une étude de greenwashing
4  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 24/03/2024 à 11:22
Et comme pour le 99,9% des résolutions de l'ONU, strictement personne n'en tiendra compte!
4  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 10/04/2024 à 8:28
Je n'ai pas très bien compris ce qui était mesuré pour définir que l'IA émet moins de CO2 qu'un humain pour écrire une page.

Est-ce que l'empreinte carbone des datas center servant à l'IA pour produire sa page est comptée ou non ? Si c'est juste l'empreinte carbone pour l'écriture finale, c'est-à-dire le "pouillème" final, alors l'étude est biaisée.
4  0 
Avatar de mach1974
Membre averti https://www.developpez.com
Le 13/12/2023 à 16:20
Bonjour,
Un peu de rationalisation que diable. On reste sur de l'ia qui calcule les corrélations et en tire des arbres causaux sans décrire les mécaniques même avec LIME et SHAPE, alors que l'analyse grammaticale avec les COI et COD permet de déterminer le sujet et le complément , ce qui permet une logique de prédicat avec le respect des 3 lois d'ASIMOV. C'est un cauchemar. On va voir revenir le temps des sorciers même si Athur C Clarke parle de magie comme la techno qui disparaît. On va élever l'ordinateur au rang de Dieu dans la prochaine étape . C'est bien la peine de faire du modèle checking dans la norme ISO179 pour l'aéronautique ou dans le ferroviaire ....
2  0 
Avatar de totozor
Membre expert https://www.developpez.com
Le 10/04/2024 à 8:01
Citation Envoyé par Jade Emy Voir le message
Il est essentiel de se pencher sur le type d'impact environnemental que l'IA peut finir par avoir. Cependant, il s'avère que l'IA pourrait en fait produire moins d'émissions de carbone que les humains, ce qui la rendrait plus durable. L'IA émet des centaines de fois moins de gaz à effet de serre que l'homme lorsqu'il s'agit d'écrire et de créer des images.
C'est une analyse intéressante mais est ce que ça veut dire qu'utiliser une IA émet moins de carbone qu'utiliser une personne?
Non, pour une raison simple:
Quand la personne travaille et pas l'IA, l'IA n'émet rien
Quand l'IA travaille et pas la personne, la personne émet toujours.
Donc il faudrait comparer le surplus d'émission de la personne quand elle travaille à l'IA.
Les autres facteurs sont nombreux :
L'IA produit (probablement) peu de carbone quand elle travaille parce qu'elle est plus rapide que l'homme mais combien émet son apprentissage?
L'IA nécessite une revue de son travail plus importante que la personne donc combien émet la différence de revue?
Combien d'IA différente faut il pour remplacer toutes les taches d'une personne?
Et je n'ai pas encore parlé de l'apport social d'une personne...

Pensez-vous que cette étude est crédible ou pertinente ?
L'étude en tant que telle à l'air crédible (faite de façon honnête et rigoureuse) par contre le but de celle ci me parait beaucoup moins pertinent.
Quelle conclusion tirer? Qu'il faut faire travailler les IA plutôt que les personnes pour l'édition? Ce n'est pas ce que disent les chercheurs, c'est pourtant ce que nous lisons.
Qui a financer cette étude? Dans quel but? Avec ces réponses nous aurons peut être une clarification de sa pertinence.
On sait que l'un des auteur détient des actions chez NVIDIA mais je n'ai rien trouvé chez le financeur.
Quel est votre avis sur le sujet ?
L'IA n'a rien d'écologique parce qu'elle ajoute de la production de carbone à la production humaine, attaquer la question par cet angle est absurde. (A moins que l'on décide de "faire disparaitre" les personnes qui deviennent "inutiles" mais on dérive vers des gros problèmes éthiques).
Par contre l'IA a d'autres avantages qui méritent d'être étudiés.

Des gens essayent d'aborder les sujets de façon "rationnelle" en ce moment pour transformer des solutions plus ou moins absurdes en bon sens.
La Science n'apporte pas toujours les bonnes réponses aux problèmes parce qu'elle ignore les sciences humaines ou l'éthique.
Pourtant il me semble qu'Asimov nous avait déjà prévenu que cette méthode ne fonctionnait pas.
2  0 
Avatar de pierre-y
Membre chevronné https://www.developpez.com
Le 14/02/2024 à 13:03
L'UE c'est vraimment le bal de la corruption. Quand je pense que la parlementaire grec qui c'était fait choper a recevoir du blé du Qatar a put tranquillement reprendre son poste comme si de rien n'était... C'est vraiment a vomir.
2  1 
Avatar de Eye_Py_Ros
Nouveau membre du Club https://www.developpez.com
Le 10/04/2024 à 15:18
> Pensez-vous que cette étude est crédible ou pertinente ?
> Quel est votre avis sur le sujet ?

Que dire que dire, un petit essai improvisé.
Pour commencer cette étude à un objectif assez clair et malsain, contrer le bashing de l'IA qui pollue à cause de sa consommation excessive en ressource en ce qui concerne sa création / entraînement / formation.
Je dirais que l'étude est remplie de biais, mais aussi qu'elle souligne un sujet mortifère et dont les philosophes devraient se saisir.

Pour commencer en ce qui concerne les biais, les graphiques sont ultras simpliste et ne prenne pas en compte les ressources nécessaires pour l'entraînement des AI ni même les ressources consommées pour concevoir le hardware.
De la production de silicium au GPU en passant par l'humain qui a conçu le GPU à la chaîne d'assemblage jusqu'au data center où elle est en fonction à déjà consommé plusieurs années CO2 d'une ville humaine.

La conclusion stéréotypée que l'on peut faire de ce genre d'étude. Au mon dieu, un humain, ça respire ça émet du CO2, un caillou alimenté avec de l'Énergie pure sa ""n'émet pas"" de CO2. Il faut donc remplacer toute la population humaine par des cailloux qui imite les humains.
Je tire volontairement le trait, mais c'est une pente glissante vers lequel les bobo extrêmes écolos ont tendance à prendre de vouloir éliminer le vivant sous prétexte qu'il émet du CO2. Si on suit leur logique uniquement les plantes auraient le droit de vivre puisqu’elles n'émettent pas de CO2 (dans leurs schémas de pensée) ce qui est faux et sans CO2 elles ne peuvent se développer autant... Alors si on en fait la seule source de nourriture...

Concernant les schémas on nous montre une quantité d'Énergie consommée en instantané lorsque le réseau (de neurones en cailloux) fait une génération unique, versus le pc d'un auteur allumé.
Déjà pour commencer le biais, un serveur qui fait tourner de l'IA est allumé H24, consomme rien que pour être allumé 100W et peut monter à 3000W voir plus. Le pc d'un auteur est allumé disons 6-8h et un pc portable sobre peut, disons consommer au max 25w dans un standard sobre écoresponsable. De plus un auteur peut ne pas passer toute une session d'écriture sur un pc, on peut aussi avoir des machines tablette dans le futur à base d'epaper comme écran, utiliser le stylo et la feuille.... Donc déjà la méthode de travail est un biais choisi non représentatif des "travailleurs" du secteur. Doit-on compter les repas, et la tasse de café en terrasse ?

Idem dans la création d'images, un peintre ne va pas utiliser un ordinateur de la même manière voir pas du tout, un photographe non plus et un graphiste peut faire des recherches de diverses manières. Leur activité n'est pas 100% numérique.

Coté IA, ouaaa une génération consomme peux. Sauf que qui aujourd'hui ne demande pas à l'IA plusieurs générations pour avoir un résultat un peut exploitable et qui ne passe pas un peu de temps pour intégrer la réponse...
10 générations consommeraient déjà le CO2 pour une journée de travail humain. Or il est si facile de cliquer sur généré que l'étude ne prend pas en compte le fait que cette facilité va augmenter le nombre de générations demandé et donc pour une même tache incitée à consommer plus.
Plutôt qu'un travail réfléchis, fait et plutôt droit au but, on va frénétiquement cliqué sur générer, une, deux, 10, 20, 50 fois dans la journée jusqu'à avoir un travail prémâché qu'il faudra de toute façon relire puis intégrer.

Au final une IA, est un outil qui consomme, et sa facilité d'usage poussera a consommer par ce que dans un même espace de temps on le peut.
Et si on pense éliminer complètement les humains, alors nous allons créer une société de machine qui travaillera pour des machines.
Le summum du capitalisme, nous créons du travail/ de la valeur à l'aide de machine pour qu'elle soit consommée par d'autres machines et faire tourner le capitalisme.

Nous avons des Shadock qui pompe, que nous remplaçons par des machines qui pompes pour se maintenir entre elles en vie et soutenir artificiellement le capitalisme et "sa croissance infinie" artificielle.
On va basculer d'une économie pétrodollar en data dollar.
(et il faudra mettre des humains sur des vélos pour combler le manque de pétrole pour alimenter en Énergie les machines)

Tout ceci est absurde tout comme confondre un outil et une volonté créatrice vivante.
Le côté mortifère, c'est de vouloir a tout pris évincer l'humain de la composante économique pour des raisons de coûts. De l'autre côté, ce que l'on aura sacrifié... nous fera plonger vers une économie dystopique, avec une économie parallèle qui ne sert qu'aux machines et de l'autre, des humains tout tombés dans la précarité.
Et le risque, c'est un arrêt de la créativité, un grippage de l'inventivité et d'évolution.
Où à côté d'usines fumantes, nous aurions une population qui n'a plus les moyens de consommer.
Sauf, si la réalité réajuste la situation, car non viable et qu'un mixte des deux finissent par co exister.

Ce que je dirais, c'est que ce genre d'étude envoie un signal malsain coté sociétal, poussant des résonnements inachevés polarisant des questions légitimes en réponse absurde. Plantant les graines d'idéologie néfaste pour une société.

Nous sommes nés trop tard pour explorer les continents, trop tôt pour explorer Mars, mais dans l'époque de l'avènement de l'IA et d'un grand bouleversement économique et sociétal mondiaux en perspective que l'on veuille ou non.
L'avenir dépend de ce qui est en train de s'écrire, des luttes et intérêts de certains. De l'éducation ou du manque des masses en vers ce type d'enjeux, et si nous finissons tout droits vers un avenir dystopique d'une dictature mondiale et d'une misère qui fera régresser l'humanité ou si nous deviendrons tous lucide sur le sujet. comme le plat réchauffé que les mails allaient tuer le métier de postier. Que les livres numériques allaient faire disparaître les imprimeurs ect, ect.

Tous sa pour dire (sans se méprendre, ça reste intéressant que le site nous permette de faire une veille techno) y en a marre de ce genre d'étude de lobbying pondu par des cabinets com , la seule chose que ça génère c'est de la méfiance en vers les études et une perte de crédibilité du peuple en vers toutes analyses et réflexion.
Remplaçons les cabinets de com par de l'IA, peut être que l'on aura moins de mensonge comme ça.
1  0 
Avatar de denisys
Membre chevronné https://www.developpez.com
Le 13/12/2023 à 16:13
On a mis 1,5 milliard sur notre stratégie IA.
C’est qui : On ??,
La / le contribuable payé au smic ??
Les grosses pointures du CAC 40 ??
L’état ??
Etat = 80 % => La / le contribuable payé au smic .
0  0