IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

L'Europe se prépare à voter une législation sur l'IA avec des amendes potentielles de 7% sur les revenus
Cette législation pourrait créer des divergences avec les approches américaine et britannique

Le , par Stéphane le calme

0PARTAGES

8  0 
L’Europe se prépare à voter une législation sur l’intelligence artificielle qui pourrait créer une divergence entre les approches réglementaires des États-Unis, du Royaume-Uni et de l’UE. Les propositions, qui seront soumises au Parlement européen cette semaine, comprennent une interdiction des systèmes d’identification biométrique à distance en temps réel dans les espaces publics, et des systèmes de catégorisation biométrique qui placent les personnes dans des groupes selon le genre, la race et l’ethnicité, par exemple, les systèmes de police prédictive et de reconnaissance émotionnelle.

L’AI Act est un projet de règlement proposé par la Commission européenne le 21 avril 2021, qui vise à introduire un cadre réglementaire et juridique commun pour l’intelligence artificielle. Son champ d’application couvre tous les secteurs (sauf le militaire) et tous les types d’intelligence artificielle.

Le projet de loi a pour objectif de promouvoir l’adoption de l’IA tout en garantissant le respect des valeurs, des droits fondamentaux et des principes de l’Union européenne. Il prévoit également des mesures pour renforcer la qualité des données, la transparence, la supervision humaine et la responsabilité des utilisateurs et des fournisseurs d’IA.

La pierre angulaire de l’AI Act est un système de classification qui détermine le niveau de risque qu’une technologie d’IA pourrait présenter pour la santé et la sécurité ou les droits fondamentaux d’une personne. Le cadre comprend quatre niveaux de risque : inacceptable, élevé, limité et minimal.

L’accent sur l’IA générative, comme le ChatGPT d’OpenAI, a grimpé à l’ordre du jour depuis que les lois ont été proposées pour la première fois. Une fois entré en vigueur, le texte pourrait infliger des amendes de 40 millions d’euros ou 7 % du chiffre d’affaires mondial total aux organisations qui ne respectent pas les règles.

Le Parlement européen doit débattre de sa législation mardi et la voter mercredi.


Une approche européenne différente de l'approche britannique...

Mais outre les applications interdites, la législation vise à mettre à la charge des développeurs et des utilisateurs d’IA de veiller à ce qu’ils respectent les exigences d’une approche fondée sur les risques, nettement différente de l’approche fondée sur les résultats proposée par le Royaume-Uni. Ce dernier a publié le 29 mars un livre blanc intitulé « une approche pro-innovation de la réglementation de l'IA », qui explique la position du gouvernement selon laquelle les régulateurs existants intégreront les principes dans l'application de leurs pouvoirs existants et fourniront les détails.

Le cabinet d'avocats Osborne Clarke l'a commenté en ces termes :

Le livre blanc propose une approche basée sur les résultats complètement différente de la loi sur l'IA de l'UE (un règlement complexe « descendant », toujours dans le processus législatif après près de deux ans). Il n'y a pas d'interdiction pure et simple proposée pour le Royaume-Uni, pas d'exigences de conformité détaillées sur les données, la documentation, les tests et la certification, pas de nouveau régulateur et pas de nouveaux pouvoirs pour imposer des amendes ou prendre des mesures. Au lieu de cela, le Royaume-Uni envisage une approche «ascendante», dévolue aux régulateurs.

Le risque avec cette approche est qu'un système d'IA problématique devra se présenter dans le bon format pour déclencher la compétence d'un régulateur, et alors le régulateur devra avoir les bons pouvoirs d'application en place pour prendre des mesures décisives et efficaces contre le préjudice et offrir réparation à la partie lésée. En ce qui concerne les sanctions et la réparation, en particulier, certains régulateurs disposent de pouvoirs considérables pour imposer des sanctions dissuasives et réparer les préjudices, mais beaucoup ne le font pas. Comme indiqué, ce paysage inégal ne semble pas avoir été cartographié : il semble que le gouvernement va simplement attendre et voir ce qui se passe.
La consultation du Royaume-Uni sur sa proposition de législation s'achève le 21 juin.

La Grande-Bretagne est optimiste quant à la promotion d'une « approche proportionnée qui favorise la croissance et l'innovation ». Michelle Donelan, secrétaire d'État aux sciences, à l'innovation et à la technologie, a déclaré :

Après avoir quitté l'Union européenne, nous sommes libres d'établir une approche réglementaire qui nous permet de faire du Royaume-Uni une superpuissance de l'IA. C'est une approche qui soutiendra activement l'innovation tout en tenant compte des risques et des préoccupations du public. Le Royaume-Uni abrite des start-up prospères, que notre framework soutiendra pour les aider à se développer et être compétitives à l'échelle internationale. Notre approche pro-innovation agira également comme une forte incitation lorsqu'il s'agira d'établir une présence au Royaume-Uni pour les entreprises d'IA basées à l'étranger. Le livre blanc énonce notre engagement à nous engager à l'échelle internationale pour soutenir l'interopérabilité entre différents régimes réglementaires. Non seulement cela allégera le fardeau des entreprises, mais cela nous permettra également d'intégrer nos valeurs à mesure que les approches mondiales de gouvernance de l'IA se développent.

Notre approche repose sur la collaboration entre le gouvernement, les régulateurs et les entreprises. Dans un premier temps, nous n'avons pas l'intention d'introduire de nouvelle législation. En se précipitant trop tôt pour légiférer, on risquerait d'imposer un fardeau indu aux entreprises. Mais en plus de donner aux régulateurs les moyens de prendre les devants, nous définissons également des attentes. Nos nouvelles fonctions de surveillance fourniront une évaluation en temps réel de la performance du cadre réglementaire afin que nous puissions être sûrs qu'il est proportionné. Le rythme du développement technologique signifie également que nous devons comprendre les risques nouveaux et émergents, en nous engageant avec des experts pour nous assurer que nous prenons des mesures si nécessaire. Un élément essentiel de cette activité consistera à dialoguer avec le public pour comprendre ses attentes, sensibiliser au potentiel de l'IA et démontrer que nous répondons aux préoccupations.
À la suite de sa rencontre avec le président américain Joe Biden, le Premier ministre britannique Rishi Sunak a annoncé son intention d'accueillir le premier sommet mondial sur la réglementation de l'IA cet automne. L'idée est que « des alliés et des entreprises partageant les mêmes idées » travailleraient à développer un cadre international pour assurer le développement et l'utilisation sûrs et fiables de l'IA.

... et de l'approche américaine

Jusqu'à présent, les États-Unis n'ont pas réussi à faire des propositions législatives fédérales spécifiques à l'IA, bien que la Maison-Blanche ait publié un projet de déclaration des droits de l'IA destiné à « guider une société ».

En octobre, a Maison-Blanche a proposé un "Blueprint for an AI Bill of Rights", un ensemble de principes et de pratiques visant à guider « la conception, l'utilisation et le déploiement de systèmes automatisés, dans le but de protéger les droits des Américains à l'ère de l'intelligence artificielle », selon la Maison-Blanche. Le plan directeur est un ensemble de lignes directrices non contraignantes ou de suggestions fournissant une "déclaration de valeurs nationales" et une boîte à outils pour aider les législateurs et les entreprises à intégrer les protections proposées dans les politiques et les produits. La Maison-Blanche a élaboré ce projet après un processus d'un an qui a permis de recueillir les avis et observations de personnes de tout le pays « sur la question des préjudices causés par les algorithmes et les données et sur les solutions possibles ». Toutefois, les critiques affirment que ce plan manque de mordant et que les États-Unis ont besoin d'une réglementation encore plus stricte en matière d'IA.

Le document aborde les préoccupations concernant les préjugés dans les systèmes d'IA, la surveillance basée sur l'IA, les décisions injustes en matière de soins de santé ou d'assurance, la sécurité des données et bien plus encore dans le contexte des libertés civiles américaines, de la justice pénale, de l'éducation et du secteur privé. « Parmi les grands défis posés à la démocratie aujourd'hui figure l'utilisation de la technologie, des données et des systèmes automatisés d'une manière qui menace les droits du public américain. Trop souvent, ces outils sont utilisés pour limiter nos possibilités et empêcher notre accès à des ressources ou des services essentiels, peut-on lire dans l'avant-propos du plan directeur.

Un ensemble de cinq principes élaborés par le Bureau de la politique scientifique et technologique de la Maison-Blanche incarne le cœur du plan directeur de l'IA :
  • "des systèmes sûrs et efficaces", qui mettent l'accent sur le retour d'information de la communauté dans le développement des systèmes d'IA et sur les protections contre l'IA "non sûre" ;
  • "des protections contre la discrimination algorithmique", qui propose que l'IA soit déployée de manière équitable sans discrimination ;
  • "la confidentialité des données", qui recommande que les gens aient un droit de regard sur la manière dont les données les concernant sont utilisées ;
  • "la notification et l'explication, qui signifie que les gens devraient savoir comment et pourquoi un système basé sur l'IA a pris une décision ;
  • "les alternatives humaines, la considération et le retour en arrière", qui recommande que les gens doivent être en mesure de refuser les décisions basées sur l'IA et d'avoir accès au jugement d'un humain dans le cas d'erreurs de l'IA.

L'administration Biden explique par exemple que les individus doivent être protégés de la discrimination par des algorithmes :

Vous ne devez pas être victime de discrimination par des algorithmes et les systèmes doivent être utilisés et conçus de manière équitable. La discrimination algorithmique se produit lorsque les systèmes automatisés contribuent à un traitement différent injustifié ou ont un impact défavorable sur les personnes en raison de leur race, couleur, origine ethnique, sexe (y compris grossesse, accouchement et conditions médicales connexes, identité de genre, statut intersexué et orientation sexuelle), religion, âge , origine nationale, handicap, statut d'ancien combattant, informations génétiques ou toute autre classification protégée par la loi.

Selon les circonstances spécifiques, une telle discrimination algorithmique peut violer les protections légales. Les concepteurs, développeurs et déployeurs de systèmes automatisés doivent prendre des mesures proactives et continues pour protéger les individus et les communautés contre la discrimination algorithmique et pour utiliser et concevoir des systèmes de manière équitable. Cette protection devrait inclure des évaluations proactives de l'équité dans le cadre de la conception du système, l'utilisation de données représentatives et une protection contre les proxys pour les caractéristiques démographiques, garantissant l'accessibilité pour les personnes handicapées dans la conception et le développement, le pré-déploiement et les tests et l'atténuation des disparités en cours, et une organisation claire de surveillance. Une évaluation indépendante et des rapports en langage clair sous la forme d'une évaluation d'impact algorithmique, y compris les résultats des tests de disparité et les informations d'atténuation, doivent être effectués et rendus publics dans la mesure du possible pour confirmer ces protections.


Sources : gouvernement britannique, Osborne Clarke, Maison Blanche

Et vous ?

Que pensez-vous de l’approche fondée sur les risques de l’UE pour réglementer l’IA?
Que pensez-vous de l'approche britannique qui relève plus de l'observation qu'autre chose ?
Que pensez-vous de l'approche américaine qui se contente de faire des recommandations sans faire de proposition de loi pour encadrer le développement de l'IA ?

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Pierre Louis Chevalier
Expert éminent sénior https://www.developpez.com
Le 05/06/2024 à 15:55
Citation Envoyé par Anselme45 Voir le message
Pour s'en convaincre, il suffit de lire les news de ce site: La majorité des news traitent maintenant de l'IA... Apparemment les autres technologies numériques ne sont plus dignes d'intérêt
C'est archifaux. Oui il y a sur developpez un tas de news sur l'IA mais c'est parfaitement normal, ça nous concerne, aussi bien les développeurs que les autres informaticiens.

Il n'en reste pas moins que developpez est quasiment le seul et unique site francophone qui passe aussi un tas de news sur l'actualité de la programmation, les nouvelles versions des langages, les nouvelles sorties des EDI (Jetbrains, Microsoft, Embarcadero, ...) , etc. Et c'est surtout devenu le "Médiapart/Canard enchainé" de l'informatique avec toutes les news à scandales sur HP, Microsoft, Google, etc. Exemple l'énorme scandale sur les imprimantes HP avec des centaines de commentaires, et quel rapport avec l'IA ? aucun... D 'ailleurs toi même tu viens de répondre à un sujet à scandale n'ayant rien à voir avec l'IA, à savoir : Google peut garder votre téléphone si vous l’envoyez en réparation avec des pièces qui ne sont pas d’origine

Regarde les rubriques programmation et EDI au lieu de dire n'importe quoi, et il y a toujours une colonne droite avec des tutoriels programmation et IT Pro, des articles gratuits alors que c'est devenu payant ailleurs (Udemy, Elephorm, etc). Developpez est devenu le meilleur site sur francophonie sur l'IA, mais il reste toujours le meilleur site pour les développeurs et même l'IT Pro, c'est bien simple il n'y en a pas d'autre de valables....
7  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 03/06/2024 à 22:27
Citation Envoyé par Mathis Lucas Voir le message
Que pensez-vous du lobbying intense des entreprises d'IA pour contrecarrer les initiatives visant à réglementer l'IA ?
On le voit déjà au niveau des news sur tous les sites et tous les canaux. On essaye de nous vendre de force un truc assez moyen, comme LA panacée.

En général, plus il y a de pub pour un produit, et plus il y a de chances qu'ils soit très mauvais.

Là, on a en plus des lobbyistes qui illustrent le capitalisme non-régulé dans toute sa splendeur, ou comment les plus riches sont capables de faire plier des gouvernements, par la corruption légale qu'est le lobbyisme. On le voit au niveau des entreprises et des communes ici: des avocats de l'IA (et juste avant c'était ceux du cloud des GAFAM) qui organisent des évènements avec les repas, parfois des cadeaux, des ateliers qui sont de la pub grossièrement déguisée, etc.

Bref, rien de neuf: le commercial qui fait sa danse du ventre, et le pigeon qui tombe dans le panneau.
6  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 10/04/2024 à 8:28
Je n'ai pas très bien compris ce qui était mesuré pour définir que l'IA émet moins de CO2 qu'un humain pour écrire une page.

Est-ce que l'empreinte carbone des datas center servant à l'IA pour produire sa page est comptée ou non ? Si c'est juste l'empreinte carbone pour l'écriture finale, c'est-à-dire le "pouillème" final, alors l'étude est biaisée.
5  0 
Avatar de mith06
Membre expérimenté https://www.developpez.com
Le 16/06/2023 à 11:34
Quand ils vont se rendre compte qu "l'IA" permet de faire de la surveillance de masse, ils vont renommer ca en "algorithme à réseaux de neurone profond" pour contourner leur propre interdiction

les applications et les systèmes qui créent un risque inacceptable, tels que les systèmes d'évaluation sociale gérés par le gouvernement, comme ceux utilisés en Chine, sont interdits ;
Le modèle Chinois c'est leur rêve....

les applications qui ne sont pas explicitement interdites ou répertoriées comme présentant un risque élevé échappent en grande partie à la réglementation.
Normalement tout c'est qui n'est pas interdit est autorisé.
Mais pour ces gens tout ce qui n'est pas autorisé devrait être interdit.
5  1 
Avatar de OrthodoxWindows
Membre expert https://www.developpez.com
Le 07/02/2024 à 22:16
Encore une étude de greenwashing
4  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 24/03/2024 à 11:22
Et comme pour le 99,9% des résolutions de l'ONU, strictement personne n'en tiendra compte!
4  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 05/06/2024 à 11:19
Citation Envoyé par Anselme45 Voir le message
La majorité des news traitent maintenant de l'IA...
C'est de la faute de l'industrie et non pas des rédacteurs d'actualités.
C'est comme avec Elon Musk, les médias écrivent un article par jour à son sujet donc ça atterrît ici aussi.
Les visiteurs ont le choix de lire les articles qu'ils veulent, il est possible d'ignorer toutes les actualités liées à l'IA si on le souhaite.

L'IA sera peut-être puissante dans 20 ans, j'espère que dans ces 20 ans l'IA ne restera pas le sujet principal dans le monde de la technologie.
Beaucoup de gens doivent être lassés par toutes ces actualités en rapport avec l'IA, les médias mainstream en parlent beaucoup.
Mais après ils ont peut-être raison d'en parler, l'IA pourrait devenir quelque chose d'extrêmement dangereux et avoir des conséquences dramatique sur le monde. Elle va peut-être vraiment prendre le travail de beaucoup de gens, qui vont se retrouver dans la pauvreté, parce qu'ils ne retrouveront plus de travail et n'auront plus de revenu.

Citation Envoyé par Mathis Lucas Voir le message
Pour ce faire, elles ont embauché une importante armée de lobbyistes chargés d'influencer les décideurs politiques et les gouvernements à travers le monde afin qu'ils adoptent des règles "laxistes" au détriment de l'intérêt général. Ils ont déjà réussi à court-circuiter le vote de nombreuses lois sur l'IA ou à façonner certaines législations.
C'est dingue que ces lobbystes arrivent à corrompre autant de décideurs politiques et de gouvernements à travers le monde.

On pourrait presque se dire que les politiciens sont tous pourris.
4  0 
Avatar de
https://www.developpez.com
Le 27/10/2024 à 9:59
L'enfer normatif européens a déjà réussi à laminer l'industrie et l'agriculture voilà qu'il s'attaque maintenant à la tech (dont l'IA).
Pour commencer à "Entreprendre" il faut désormais avoir les moyens de se doter d'une armée de juriste et d'avocat, sans parler des taxes et impôts. Étouffant !

Je comprend pas qu'on ne commence pas à faire de la prévention dans les écoles concernant l'IA ? (Une IA peut raconter n'importe quoi, et ça sera toujours le cas !)
Introduire les élèves dès le plus jeune âge à l'esprit critique et à la compréhension de ce qu'est l'IA n'est-il pas la meilleur solution ?
4  0 
Avatar de der§en
Membre éprouvé https://www.developpez.com
Le 02/08/2024 à 7:19
Petit pastiche d’une citation de Georges Clemenceau:

L’Europe est un continent extrêmement fertile : on y plante des fonctionnaires non élus et il y pousse des règlements abscons !
3  0 
Avatar de mach1974
Membre averti https://www.developpez.com
Le 13/12/2023 à 16:20
Bonjour,
Un peu de rationalisation que diable. On reste sur de l'ia qui calcule les corrélations et en tire des arbres causaux sans décrire les mécaniques même avec LIME et SHAPE, alors que l'analyse grammaticale avec les COI et COD permet de déterminer le sujet et le complément , ce qui permet une logique de prédicat avec le respect des 3 lois d'ASIMOV. C'est un cauchemar. On va voir revenir le temps des sorciers même si Athur C Clarke parle de magie comme la techno qui disparaît. On va élever l'ordinateur au rang de Dieu dans la prochaine étape . C'est bien la peine de faire du modèle checking dans la norme ISO179 pour l'aéronautique ou dans le ferroviaire ....
2  0