IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

L'Europe se prépare à voter une législation sur l'IA avec des amendes potentielles de 7% sur les revenus
Cette législation pourrait créer des divergences avec les approches américaine et britannique

Le , par Stéphane le calme

0PARTAGES

8  0 
L’Europe se prépare à voter une législation sur l’intelligence artificielle qui pourrait créer une divergence entre les approches réglementaires des États-Unis, du Royaume-Uni et de l’UE. Les propositions, qui seront soumises au Parlement européen cette semaine, comprennent une interdiction des systèmes d’identification biométrique à distance en temps réel dans les espaces publics, et des systèmes de catégorisation biométrique qui placent les personnes dans des groupes selon le genre, la race et l’ethnicité, par exemple, les systèmes de police prédictive et de reconnaissance émotionnelle.

L’AI Act est un projet de règlement proposé par la Commission européenne le 21 avril 2021, qui vise à introduire un cadre réglementaire et juridique commun pour l’intelligence artificielle. Son champ d’application couvre tous les secteurs (sauf le militaire) et tous les types d’intelligence artificielle.

Le projet de loi a pour objectif de promouvoir l’adoption de l’IA tout en garantissant le respect des valeurs, des droits fondamentaux et des principes de l’Union européenne. Il prévoit également des mesures pour renforcer la qualité des données, la transparence, la supervision humaine et la responsabilité des utilisateurs et des fournisseurs d’IA.

La pierre angulaire de l’AI Act est un système de classification qui détermine le niveau de risque qu’une technologie d’IA pourrait présenter pour la santé et la sécurité ou les droits fondamentaux d’une personne. Le cadre comprend quatre niveaux de risque : inacceptable, élevé, limité et minimal.

L’accent sur l’IA générative, comme le ChatGPT d’OpenAI, a grimpé à l’ordre du jour depuis que les lois ont été proposées pour la première fois. Une fois entré en vigueur, le texte pourrait infliger des amendes de 40 millions d’euros ou 7 % du chiffre d’affaires mondial total aux organisations qui ne respectent pas les règles.

Le Parlement européen doit débattre de sa législation mardi et la voter mercredi.


Une approche européenne différente de l'approche britannique...

Mais outre les applications interdites, la législation vise à mettre à la charge des développeurs et des utilisateurs d’IA de veiller à ce qu’ils respectent les exigences d’une approche fondée sur les risques, nettement différente de l’approche fondée sur les résultats proposée par le Royaume-Uni. Ce dernier a publié le 29 mars un livre blanc intitulé « une approche pro-innovation de la réglementation de l'IA », qui explique la position du gouvernement selon laquelle les régulateurs existants intégreront les principes dans l'application de leurs pouvoirs existants et fourniront les détails.

Le cabinet d'avocats Osborne Clarke l'a commenté en ces termes :

Le livre blanc propose une approche basée sur les résultats complètement différente de la loi sur l'IA de l'UE (un règlement complexe « descendant », toujours dans le processus législatif après près de deux ans). Il n'y a pas d'interdiction pure et simple proposée pour le Royaume-Uni, pas d'exigences de conformité détaillées sur les données, la documentation, les tests et la certification, pas de nouveau régulateur et pas de nouveaux pouvoirs pour imposer des amendes ou prendre des mesures. Au lieu de cela, le Royaume-Uni envisage une approche «ascendante», dévolue aux régulateurs.

Le risque avec cette approche est qu'un système d'IA problématique devra se présenter dans le bon format pour déclencher la compétence d'un régulateur, et alors le régulateur devra avoir les bons pouvoirs d'application en place pour prendre des mesures décisives et efficaces contre le préjudice et offrir réparation à la partie lésée. En ce qui concerne les sanctions et la réparation, en particulier, certains régulateurs disposent de pouvoirs considérables pour imposer des sanctions dissuasives et réparer les préjudices, mais beaucoup ne le font pas. Comme indiqué, ce paysage inégal ne semble pas avoir été cartographié : il semble que le gouvernement va simplement attendre et voir ce qui se passe.
La consultation du Royaume-Uni sur sa proposition de législation s'achève le 21 juin.

La Grande-Bretagne est optimiste quant à la promotion d'une « approche proportionnée qui favorise la croissance et l'innovation ». Michelle Donelan, secrétaire d'État aux sciences, à l'innovation et à la technologie, a déclaré :

Après avoir quitté l'Union européenne, nous sommes libres d'établir une approche réglementaire qui nous permet de faire du Royaume-Uni une superpuissance de l'IA. C'est une approche qui soutiendra activement l'innovation tout en tenant compte des risques et des préoccupations du public. Le Royaume-Uni abrite des start-up prospères, que notre framework soutiendra pour les aider à se développer et être compétitives à l'échelle internationale. Notre approche pro-innovation agira également comme une forte incitation lorsqu'il s'agira d'établir une présence au Royaume-Uni pour les entreprises d'IA basées à l'étranger. Le livre blanc énonce notre engagement à nous engager à l'échelle internationale pour soutenir l'interopérabilité entre différents régimes réglementaires. Non seulement cela allégera le fardeau des entreprises, mais cela nous permettra également d'intégrer nos valeurs à mesure que les approches mondiales de gouvernance de l'IA se développent.

Notre approche repose sur la collaboration entre le gouvernement, les régulateurs et les entreprises. Dans un premier temps, nous n'avons pas l'intention d'introduire de nouvelle législation. En se précipitant trop tôt pour légiférer, on risquerait d'imposer un fardeau indu aux entreprises. Mais en plus de donner aux régulateurs les moyens de prendre les devants, nous définissons également des attentes. Nos nouvelles fonctions de surveillance fourniront une évaluation en temps réel de la performance du cadre réglementaire afin que nous puissions être sûrs qu'il est proportionné. Le rythme du développement technologique signifie également que nous devons comprendre les risques nouveaux et émergents, en nous engageant avec des experts pour nous assurer que nous prenons des mesures si nécessaire. Un élément essentiel de cette activité consistera à dialoguer avec le public pour comprendre ses attentes, sensibiliser au potentiel de l'IA et démontrer que nous répondons aux préoccupations.
À la suite de sa rencontre avec le président américain Joe Biden, le Premier ministre britannique Rishi Sunak a annoncé son intention d'accueillir le premier sommet mondial sur la réglementation de l'IA cet automne. L'idée est que « des alliés et des entreprises partageant les mêmes idées » travailleraient à développer un cadre international pour assurer le développement et l'utilisation sûrs et fiables de l'IA.

... et de l'approche américaine

Jusqu'à présent, les États-Unis n'ont pas réussi à faire des propositions législatives fédérales spécifiques à l'IA, bien que la Maison-Blanche ait publié un projet de déclaration des droits de l'IA destiné à « guider une société ».

En octobre, a Maison-Blanche a proposé un "Blueprint for an AI Bill of Rights", un ensemble de principes et de pratiques visant à guider « la conception, l'utilisation et le déploiement de systèmes automatisés, dans le but de protéger les droits des Américains à l'ère de l'intelligence artificielle », selon la Maison-Blanche. Le plan directeur est un ensemble de lignes directrices non contraignantes ou de suggestions fournissant une "déclaration de valeurs nationales" et une boîte à outils pour aider les législateurs et les entreprises à intégrer les protections proposées dans les politiques et les produits. La Maison-Blanche a élaboré ce projet après un processus d'un an qui a permis de recueillir les avis et observations de personnes de tout le pays « sur la question des préjudices causés par les algorithmes et les données et sur les solutions possibles ». Toutefois, les critiques affirment que ce plan manque de mordant et que les États-Unis ont besoin d'une réglementation encore plus stricte en matière d'IA.

Le document aborde les préoccupations concernant les préjugés dans les systèmes d'IA, la surveillance basée sur l'IA, les décisions injustes en matière de soins de santé ou d'assurance, la sécurité des données et bien plus encore dans le contexte des libertés civiles américaines, de la justice pénale, de l'éducation et du secteur privé. « Parmi les grands défis posés à la démocratie aujourd'hui figure l'utilisation de la technologie, des données et des systèmes automatisés d'une manière qui menace les droits du public américain. Trop souvent, ces outils sont utilisés pour limiter nos possibilités et empêcher notre accès à des ressources ou des services essentiels, peut-on lire dans l'avant-propos du plan directeur.

Un ensemble de cinq principes élaborés par le Bureau de la politique scientifique et technologique de la Maison-Blanche incarne le cœur du plan directeur de l'IA :
  • "des systèmes sûrs et efficaces", qui mettent l'accent sur le retour d'information de la communauté dans le développement des systèmes d'IA et sur les protections contre l'IA "non sûre" ;
  • "des protections contre la discrimination algorithmique", qui propose que l'IA soit déployée de manière équitable sans discrimination ;
  • "la confidentialité des données", qui recommande que les gens aient un droit de regard sur la manière dont les données les concernant sont utilisées ;
  • "la notification et l'explication, qui signifie que les gens devraient savoir comment et pourquoi un système basé sur l'IA a pris une décision ;
  • "les alternatives humaines, la considération et le retour en arrière", qui recommande que les gens doivent être en mesure de refuser les décisions basées sur l'IA et d'avoir accès au jugement d'un humain dans le cas d'erreurs de l'IA.

L'administration Biden explique par exemple que les individus doivent être protégés de la discrimination par des algorithmes :

Vous ne devez pas être victime de discrimination par des algorithmes et les systèmes doivent être utilisés et conçus de manière équitable. La discrimination algorithmique se produit lorsque les systèmes automatisés contribuent à un traitement différent injustifié ou ont un impact défavorable sur les personnes en raison de leur race, couleur, origine ethnique, sexe (y compris grossesse, accouchement et conditions médicales connexes, identité de genre, statut intersexué et orientation sexuelle), religion, âge , origine nationale, handicap, statut d'ancien combattant, informations génétiques ou toute autre classification protégée par la loi.

Selon les circonstances spécifiques, une telle discrimination algorithmique peut violer les protections légales. Les concepteurs, développeurs et déployeurs de systèmes automatisés doivent prendre des mesures proactives et continues pour protéger les individus et les communautés contre la discrimination algorithmique et pour utiliser et concevoir des systèmes de manière équitable. Cette protection devrait inclure des évaluations proactives de l'équité dans le cadre de la conception du système, l'utilisation de données représentatives et une protection contre les proxys pour les caractéristiques démographiques, garantissant l'accessibilité pour les personnes handicapées dans la conception et le développement, le pré-déploiement et les tests et l'atténuation des disparités en cours, et une organisation claire de surveillance. Une évaluation indépendante et des rapports en langage clair sous la forme d'une évaluation d'impact algorithmique, y compris les résultats des tests de disparité et les informations d'atténuation, doivent être effectués et rendus publics dans la mesure du possible pour confirmer ces protections.


Sources : gouvernement britannique, Osborne Clarke, Maison Blanche

Et vous ?

Que pensez-vous de l’approche fondée sur les risques de l’UE pour réglementer l’IA?
Que pensez-vous de l'approche britannique qui relève plus de l'observation qu'autre chose ?
Que pensez-vous de l'approche américaine qui se contente de faire des recommandations sans faire de proposition de loi pour encadrer le développement de l'IA ?

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de mith06
Membre expérimenté https://www.developpez.com
Le 16/06/2023 à 11:34
Quand ils vont se rendre compte qu "l'IA" permet de faire de la surveillance de masse, ils vont renommer ca en "algorithme à réseaux de neurone profond" pour contourner leur propre interdiction

les applications et les systèmes qui créent un risque inacceptable, tels que les systèmes d'évaluation sociale gérés par le gouvernement, comme ceux utilisés en Chine, sont interdits ;
Le modèle Chinois c'est leur rêve....

les applications qui ne sont pas explicitement interdites ou répertoriées comme présentant un risque élevé échappent en grande partie à la réglementation.
Normalement tout c'est qui n'est pas interdit est autorisé.
Mais pour ces gens tout ce qui n'est pas autorisé devrait être interdit.
5  1 
Avatar de OrthodoxWindows
Membre émérite https://www.developpez.com
Le 07/02/2024 à 22:16
Encore une étude de greenwashing
4  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 24/03/2024 à 11:22
Et comme pour le 99,9% des résolutions de l'ONU, strictement personne n'en tiendra compte!
4  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 10/04/2024 à 8:28
Je n'ai pas très bien compris ce qui était mesuré pour définir que l'IA émet moins de CO2 qu'un humain pour écrire une page.

Est-ce que l'empreinte carbone des datas center servant à l'IA pour produire sa page est comptée ou non ? Si c'est juste l'empreinte carbone pour l'écriture finale, c'est-à-dire le "pouillème" final, alors l'étude est biaisée.
4  0 
Avatar de mach1974
Membre averti https://www.developpez.com
Le 13/12/2023 à 16:20
Bonjour,
Un peu de rationalisation que diable. On reste sur de l'ia qui calcule les corrélations et en tire des arbres causaux sans décrire les mécaniques même avec LIME et SHAPE, alors que l'analyse grammaticale avec les COI et COD permet de déterminer le sujet et le complément , ce qui permet une logique de prédicat avec le respect des 3 lois d'ASIMOV. C'est un cauchemar. On va voir revenir le temps des sorciers même si Athur C Clarke parle de magie comme la techno qui disparaît. On va élever l'ordinateur au rang de Dieu dans la prochaine étape . C'est bien la peine de faire du modèle checking dans la norme ISO179 pour l'aéronautique ou dans le ferroviaire ....
2  0 
Avatar de totozor
Membre expert https://www.developpez.com
Le 10/04/2024 à 8:01
Citation Envoyé par Jade Emy Voir le message
Il est essentiel de se pencher sur le type d'impact environnemental que l'IA peut finir par avoir. Cependant, il s'avère que l'IA pourrait en fait produire moins d'émissions de carbone que les humains, ce qui la rendrait plus durable. L'IA émet des centaines de fois moins de gaz à effet de serre que l'homme lorsqu'il s'agit d'écrire et de créer des images.
C'est une analyse intéressante mais est ce que ça veut dire qu'utiliser une IA émet moins de carbone qu'utiliser une personne?
Non, pour une raison simple:
Quand la personne travaille et pas l'IA, l'IA n'émet rien
Quand l'IA travaille et pas la personne, la personne émet toujours.
Donc il faudrait comparer le surplus d'émission de la personne quand elle travaille à l'IA.
Les autres facteurs sont nombreux :
L'IA produit (probablement) peu de carbone quand elle travaille parce qu'elle est plus rapide que l'homme mais combien émet son apprentissage?
L'IA nécessite une revue de son travail plus importante que la personne donc combien émet la différence de revue?
Combien d'IA différente faut il pour remplacer toutes les taches d'une personne?
Et je n'ai pas encore parlé de l'apport social d'une personne...

Pensez-vous que cette étude est crédible ou pertinente ?
L'étude en tant que telle à l'air crédible (faite de façon honnête et rigoureuse) par contre le but de celle ci me parait beaucoup moins pertinent.
Quelle conclusion tirer? Qu'il faut faire travailler les IA plutôt que les personnes pour l'édition? Ce n'est pas ce que disent les chercheurs, c'est pourtant ce que nous lisons.
Qui a financer cette étude? Dans quel but? Avec ces réponses nous aurons peut être une clarification de sa pertinence.
On sait que l'un des auteur détient des actions chez NVIDIA mais je n'ai rien trouvé chez le financeur.
Quel est votre avis sur le sujet ?
L'IA n'a rien d'écologique parce qu'elle ajoute de la production de carbone à la production humaine, attaquer la question par cet angle est absurde. (A moins que l'on décide de "faire disparaitre" les personnes qui deviennent "inutiles" mais on dérive vers des gros problèmes éthiques).
Par contre l'IA a d'autres avantages qui méritent d'être étudiés.

Des gens essayent d'aborder les sujets de façon "rationnelle" en ce moment pour transformer des solutions plus ou moins absurdes en bon sens.
La Science n'apporte pas toujours les bonnes réponses aux problèmes parce qu'elle ignore les sciences humaines ou l'éthique.
Pourtant il me semble qu'Asimov nous avait déjà prévenu que cette méthode ne fonctionnait pas.
2  0 
Avatar de OrthodoxWindows
Membre émérite https://www.developpez.com
Le 15/06/2023 à 1:24
Je suis d'accord avec cette loi dans les grandes ligne.

Par contre j'ai une interrogation ; plus ça va, plus les IA type OpanAI vont pouvoir êtres fabriqués par des individus, et plus forcément par des entreprises. Du coup, cela risque d'être impossible à réguler pour l'EU. Et si régulation, passage dans un régime autoritaire de censure sur les DNS et ainsi de suite... Surtout que les initiatives comme celle-si se multiplies : https://gpt4all.io/index.html

D'ailleurs :

Les entreprises et les groupes industriels avertissent toutefois que l'Europe doit trouver un juste équilibre. Sam Altman, PDG d'OpenAI, a exprimé son soutien à certains garde-fous en matière d'IA et a signé, avec d'autres dirigeants d'entreprises technologiques, une mise en garde contre les risques qu'elle représente pour l'humanité. Mais il a également déclaré que c'était "une erreur d'imposer une réglementation lourde dans ce domaine dès maintenant". Microsoft et IBM ont salué le vote de mercredi, mais attendent avec impatience que la législation proposée soit affinée. Mais d'autres acteurs comme Meta semblent minimiser les risques.
C'est justement Meta qui à ouvert les sources de ses algorithmes au chercheurs, puis qui a été victime d'une fuite.
1  0 
Avatar de Jules34
Membre expérimenté https://www.developpez.com
Le 27/10/2023 à 9:41
il prévoit la création d'un organisme international de l'IA
Bin si c'est pour faire l'OMS de l'IA ça va plus nous rapprocher de la fin du monde que nous en éloigner

Chaque organisme mondial supplémentaire réduit un peu plus le droit des peuples à disposer d'eux même.
1  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 15/11/2023 à 15:30
Mon avis est double. D'un coté, je pense qu'il est important et urgent de légiférer, d'un autre, qu'il est nécessaire de préserver les acteurs moindres dans leurs recherches au niveau de l'IA.
Je pense que la législation devrait mettre des barrières aux grandes entreprises afin de ne pas leur laisser le champ libre et de tuer dans l'œuf toute concurrence, comme ils savent si bien le faire.

Mais gageons que le poids des billets de ces cadors, soit plus audible que toutes les objections raisonnables émises par un groupe moins... pourvus de liasses.
1  0 
Avatar de TJ1985
Membre chevronné https://www.developpez.com
Le 17/11/2023 à 8:58
J'imagine les débats le jour où l'Homme à domestiqué le Feu...

Réguler l'IA comme l'entendent les politicards et les bien-pensants revient à pratiquer une stérilisation intellectuelle. Ce n'est pas parce que de plus en plus d'utilisateurs de l'informatique ne sont pas capables d'additionner 1 et 1 qu'il faut priver ceux qui savent que ça fait 10 de poursuivre les développements les plus prometteurs de ces derniers temps.

Les catastrophistes qui prédisent que mon Raspberry Pi tournant Llama va déclencher la fin du monde sont pathétiques, et dangereux, car ils offrent une occasion aux sempiternels protecteurs des populations une magnifique occasion de tenter encore une fois de prouver leur utilité.

Les travaux de Yann LeCun visant à contextualiser les données des LLMs sont prometteurs et pourraient aboutir à instiller un brin d'intelligence dans ces systèmes, qui sont pour le moment d'une totale indigence dès lors qu'on tente de les extraire de le leur cadre d'entraînement. Mais sur le fond, observez vous, voyez comment le vivant est fabriqué, évaluez les flux d'informations reçu en permanence par notre système nerveux central et comparez ces volumes à ceux que reçoit une système d'IA dans son boîtier...

Si nous ne voulons pas souffrir de l'émergence de l'IA au sens général, il faut que nous nous formions à son usage, que nous en comprenions les bases de fonctionnement et puissions en tirer parti. Nous devons aussi en mesurer les limites, savoir d'où ça vient. Nous devons en quelque sorte (re)devenir intelligents et cesser de sauter sur chaque superstition qui passe par là.
En bref, nous devons prouver que nous restons plus aptes que n'importe laquelle de nos créa-tion-tures (voilà t'y pas que je m'y mets aussi !). Nous priver d'un bulldozer nous empêchera de construire les routes dont nous aurons besoin dans le futur.
1  0