IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

AI Act : les nouvelles règles européennes en matière d'intelligence artificielle entrent en vigueur
L'objectif déclaré est d'encourager le développement et l'adoption de systèmes IA sûrs et fiables en UE

Le , par Stéphane le calme

26PARTAGES

7  0 
L'UE s'apprête à établir des règles en matière d'IA qui interdisent la surveillance et le classement du comportement social,
Les amendes pouvant atteindre 4 % du chiffre d'affaires

La surveillance de masse par les systèmes d’intelligence artificielle et le scoring continuent de faire l’objet de débat à travers le monde entier. Ce qui était l’objet d’une fiction dans l’épisode Nosedive de la série Black Mirror est en train de devenir une réalité dans certaines parties du monde, tandis que certains gouvernements cherchent à limiter les dégâts. Bruxelles s'apprête à imposer des limites strictes aux systèmes d'intelligence artificielle utilisés pour la surveillance de masse ou le classement du comportement social afin d'éviter des abus de la surveillance publique des citoyens européens. Les entreprises qui développent l'IA pourraient se voir infliger des amendes pouvant atteindre 4 % de leur chiffre d'affaires mondial si elles ne se conforment pas aux nouvelles règles régissant les applications logicielles.

Dans le domaine du marketing, le scoring est une technique qui permet d'affecter un score à un client ou prospect. Le score obtenu traduit généralement la probabilité qu'un individu réponde à une sollicitation marketing ou appartienne à la cible recherchée. Mais le scoring dont l’Union européenne veut faire face est une tout autre chose. L’idée ici est de collecter des centaines de données sur les individus et les entreprises à partir des réseaux sociaux et via les systèmes d’intelligence artificielle. Ces données seront ensuite passées au crible scrutant la légalité et la moralité d’un individu dans les domaines économiques, sociaux et politiques, avec pour but un score dont découleront des récompenses ou des sanctions.


Depuis 2018, la Chine a commencé à tester son projet de « système de crédit social » qui vise à mettre en place un système national pour noter ses citoyens. En effet, ce projet consiste à attribuer une note à chaque citoyen, fondée sur les données dont dispose le gouvernement sur les Chinois. Le système repose sur un outil de surveillance de masse et utilise les technologies d'analyse Big Data. Il permet aussi de noter les entreprises opérant sur le marché chinois.

Dès 2018, la liste noire du système de notation sociale chinois s'élargissait et impliquait plusieurs domaines. Alors que le système était prévu pour être pleinement opérationnel jusqu'en 2020, des millions de ressortissants chinois ont été empêchés de réserver des vols ou des trains depuis que ce système controversé a commencé à être testé dans certaines villes du pays. « Cela permettra aux personnes de confiance de circuler librement sous le ciel tout en entravant les personnes qui ne sont pas dignes de confiance dans leurs déplacements », expliquait le Parti communiste chinois. L’un des mauvais comportements pouvant faire baisser la note du crédit social des individus, c’est celui de passer d’un emploi à l’autre trop fréquemment. Des citoyens répertoriés pour ce comportement se voient infliger des sanctions.

L’UE veut éviter cela aux citoyens européens en interdisant les systèmes d'intelligence artificielle utilisés pour la surveillance de masse ou le classement des comportements sociaux. Les mesures à venir font partie de la législation qui doit être proposée par la Commission européenne, l'organe exécutif de l'Union européenne, selon un document de projet de nouvelles règles. Les nouvelles règles pourraient être dévoilées dès la semaine prochaine, et d’ici là, la Commission pourrait changer certains détails.

Les nouvelles règles sur l’intelligence artificielle

La proposition de la Commission européenne devrait inclure les règles suivantes :

  • Les systèmes d'IA utilisés pour manipuler le comportement humain, exploiter des informations sur des individus ou des groupes d'individus, utilisés pour effectuer du scoring social ou pour une surveillance systématique seraient tous interdits dans l'UE. Certaines exceptions liées à la sécurité publique s'appliqueraient.
  • Les systèmes d'identification biométrique à distance utilisés dans les lieux publics, comme la reconnaissance faciale, nécessiteraient une autorisation spéciale des autorités.
  • Les applications d'IA considérées comme "à haut risque" devront être soumises à des inspections avant d'être déployées, afin de garantir que les systèmes sont formés sur des ensembles de données impartiaux, de manière traçable et avec une supervision humaine.
  • L'IA à haut risque concernerait les systèmes susceptibles de mettre en danger la sécurité, la vie ou les droits fondamentaux des personnes, ainsi que les processus démocratiques de l'UE – comme les voitures à conduite autonome et la chirurgie à distance, entre autres.
  • Certaines entreprises seront autorisées à procéder elles-mêmes à des évaluations, tandis que d'autres seront soumises à des contrôles effectués par des tiers. Les certificats de conformité délivrés par les organismes d'évaluation seront valables pour une durée de cinq ans.
  • Les règles s'appliqueront de la même manière aux entreprises établies dans l'UE ou à l'étranger.

Les États membres de l'UE devront désigner des organismes d'évaluation chargés de tester, de certifier et d'inspecter les systèmes, d’après le projet de nouvelles règles. Les entreprises qui développent des services d'IA interdits, fournissent des informations incorrectes ou ne coopèrent pas avec les autorités nationales pourraient se voir infliger une amende pouvant atteindre 4 % de leur chiffre d'affaires mondial. Il y aura toutefois des exceptions. Les mesures ne s'appliqueront pas aux systèmes d'IA utilisés exclusivement à des fins militaires.

Des inquiétudes concernant l’utilisation des systèmes d’IA à des fins de classement des comportements sociaux ne datent pas de maintenant. Un groupe d'experts de haut niveau sur l'IA, réunis par l'Union européenne, a recommandé en 2018 l'interdiction d'utiliser l'IA pour le scoring des citoyens et la surveillance de masse. Le groupe, qui était composé d'un mélange d'experts de l'industrie de l'IA, de représentants de la société civile, de conseillers politiques, d'universitaires et d'experts juridiques, craint que les gouvernements, dans leur désir d'accroître la sécurité, poussent cette surveillance à des niveaux qu'ils qualifient de dangereux.


« Les gouvernements pourraient être tentés de sécuriser la société en construisant un système de surveillance généralisé basé sur des systèmes d'IA, mais cela serait extrêmement dangereux si on le poussait à des niveaux extrêmes. Les gouvernements devraient s’engager à ne pas participer à une surveillance massive des individus et à déployer et acquérir uniquement des systèmes d’IA fiables, conçus pour respecter la loi et les droits fondamentaux, alignés sur des principes éthiques et solides du point de vue sociotechnique », pouvait-on lire dans leur rapport.

Alors que l'intelligence artificielle a commencé à pénétrer dans chaque partie de la société, des suggestions d'achat et des assistants vocaux aux décisions concernant l'embauche, les assurances et l'application de la loi, l'UE veut s'assurer que la technologie déployée en Europe est transparente, bénéficie d'une supervision humaine et répond à ses normes élevées en matière de confidentialité des utilisateurs.

Les règles proposées interviennent alors que l'Union européenne tente de rattraper les États-Unis et la Chine dans le déploiement de l'intelligence artificielle et d'autres technologies avancées. Les nouvelles exigences pourraient empêcher les entreprises technologiques de la région de concurrencer leurs rivaux étrangers si elles tardent à dévoiler leurs produits parce qu'ils doivent d'abord être testés.

En janvier 2020, Bruxelles s’apprêtait également imposer des limites strictes à l'utilisation de la technologie de reconnaissance faciale dans les espaces publics afin d'éviter des abus de la surveillance publique des citoyens européens. L'objectif serait de limiter « l'utilisation aveugle de la technologie de reconnaissance faciale » par les entreprises et les pouvoirs publics. Selon le plan, les citoyens européens auraient le droit de « savoir quand les données [de reconnaissance faciale] sont utilisées », avec toutes les exceptions « strictement circonscrites » pour garantir une utilisation appropriée.

Mais au cours du même mois, la proposition de l'Union européenne a évolué, le groupe abandonnant la possibilité d’interdire l’utilisation dans l’espace public de technologies de reconnaissance faciale. À cette époque, les consultations sur le plan étaient en cours, la proposition pouvant être modifiée à nouveau.

Et vous ?

Quel est votre avis sur ces futures règles sur l’IA de l’UE ?
Que pensez-vous du classement des comportements sociaux par les gouvernements ?

Voir aussi :

Pourquoi les systèmes de crédit social de la Chine sont étonnamment populaires ? Ils combleraient la « méfiance mutuelle entre les citoyens »
Chine : les personnes qui changent d'emploi trop souvent pourraient être sanctionnées, par le système de crédit social
Bruxelles pourrait interdire l'utilisation des technologies de reconnaissance faciale dans les espaces publics sur cinq ans, le temps de légiférer sur des moyens permettant de prévenir des abus
L'UE devrait interdire le scoring des citoyens et la surveillance de masse à l'aide de l'IA, selon un groupe d'experts de haut niveau
Vous avez lu gratuitement 0 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de der§en
Membre expérimenté https://www.developpez.com
Le 02/08/2024 à 7:19
Petit pastiche d’une citation de Georges Clemenceau:

L’Europe est un continent extrêmement fertile : on y plante des fonctionnaires non élus et il y pousse des règlements abscons !
4  0 
Avatar de
https://www.developpez.com
Le 27/10/2024 à 9:59
L'enfer normatif européens a déjà réussi à laminer l'industrie et l'agriculture voilà qu'il s'attaque maintenant à la tech (dont l'IA).
Pour commencer à "Entreprendre" il faut désormais avoir les moyens de se doter d'une armée de juriste et d'avocat, sans parler des taxes et impôts. Étouffant !

Je comprend pas qu'on ne commence pas à faire de la prévention dans les écoles concernant l'IA ? (Une IA peut raconter n'importe quoi, et ça sera toujours le cas !)
Introduire les élèves dès le plus jeune âge à l'esprit critique et à la compréhension de ce qu'est l'IA n'est-il pas la meilleur solution ?
4  0 
Avatar de Eye_Py_Ros
Membre régulier https://www.developpez.com
Le 04/02/2025 à 14:13
Pendant que les autres avancent sur IA, la bureaucratie de l’UERSS pond des règlements, des mouchards pour les poubelles, des bouchons rattachés aux bouteilles. Pas étonnant que ces bouffons soient à la ramasse technologiquement et économiquement.

Ce commentaire est déplacé et limite dangereux.
Il n'est que le rabâchage racoleur de quelques un qui renie l'idée de souveraineté d'un état.
Je m'explique.
Oui il existe des règlementations débiles qui devrait etre supprimé, d'autre mal foutu (DPE), et certaine vicieuse contre lequel il faut luter. (DSA)
Question, est ce que créer un drone robot tueur alimenté à l'ia pour dézinguer par le sang une suspicion d'infraction est ce que vous appelez le progrès ?
Ou bien le progrès c'est d'établir des règles du jeu claire connu dès le départ permettant un environnement seins ?

Ce type de commentaire émane de meme groupe qui chiale quand google à un monopole, mais dès que l'on défini des règles chiale par ce que le droit existe.
Le progrès c'est le droit, le respect, le reste n'est qu'agitation.

Les américains n'ont que pour longueur d'avance la capacité isolante de bruler le dollar qu'il imprime.
L'innovation dans chat gpt est très limité, la réalité ils n'ont rien inventé rien. il sont juste limité à la seul quantité de données qu'ils sont capable de dérober. Pensez vous pouvoir vivre au far west seul en vous pensant tout puissant avec un flingue pour tirer sur tout ce qui bouge, ou seriez vous assez lâche pour vous cacher derrière un état de droit quand les brigands viendrons toquer à votre porte ?
La bulle IA éclatera lorsque les ricains ne pourront dérober plus de donnée sans représailles.

Vouloir la dérégulation c'est plaider pour le loup qui viendra vous bouffer tout cru.
La guillotine c'était de l'innovation, on en a fait un sport spectacle.
Une ia "petite amie" qui vous manipulera malgré vous sur l'achat de produit publicité, est ce du progrès ? ou un insolant holdup des personnes au profit de multinational que vous aimez tant dénoncer ?

La régulation ia à le bon coté de donner un coup de frein à la censure européen, c'est un coup de poignard au DSA de votre amie T.Breton mais vous n'êtes même pas capable d'être lucide sur vos propres combat car vous bêlé en masse ce que les bots vous donne en pâture. c'est affligeant et pathétique.
Vous répété le discours servie par les réseaux sociaux dont leur IA choisissent ce que vous devez pensez.

L'UE n'a pas inventé l'USBC, l'ue n'a pas inventé la nouvelle génération de bouchon. L'UE n'innove pas est à la pathologie de pondre des normes.
Mais en quoi vouloir faire sauter le peux de protection que la tech française tante de poser pour luter contre la concurrence féroce des US sur notre territoire vous avance t'elle ?

Qui vous a donnée cette idée de comparaison de l'ia américain au bouchon de bouteille dont on se fou royalement ?
Qui s'amuse a comparer un bordeau à la bière bluelight ?
4  1 
Avatar de
https://www.developpez.com
Le 02/08/2024 à 10:06
La Commission se prépare également à relancer ses investissements dans l'IA, avec une injection d'un milliard d'euros en 2024 et jusqu'à 20 milliards d'euros d'ici 2030.
Ridicule.
2  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 23/09/2024 à 15:16
Citation Envoyé par Jules34 Voir le message
Indispensable ? Il est indispensable qu'il ne soit pas responsable oui. Pour la démocratie mais aussi par simple jugeotte.

Smith & Wesson n'assiste pas à tout les procès de meurtre commis avec une arme fabriqué dans une de leur usine. Les fournisseurs d'accès à internet ne sont pas aux procès des pédophiles qui ont utilisés leurs services de communication et des résultats de référencement. Le pdg de nokia n'assiste pas les dealer qui ont vendu de la came avec un téléphone portable.

Il est indispensable que la responsabilité individuelle soit maintenue et qu'on ne puisse pas accuser les autres quand on mange un sachet de lessive parce qu'on a vu un challenge sur tiktok. Et ainsi de suite.

L'IA ne change rien au fait que les individus sont responsables de leurs actes, qu'ils mentent, désinforment, tue, vole ou qu'ils trafique ! Pas la peine de chercher de nouveau responsable comme si il s'agissait des nouveaux grands prêtre de la société.

Ensuite la loi ne doit pas permettre aux gens d'être bête. L'IA non plus. Si je te dis de sauter du pont et que tu le fais en principe j'ai rien fait de mal sauf si je t'ai harcelé/menacé/manipulé pour que tu le fasses.

J'enlève l'exemple du journalisme car écrire/sourcer/autres des articles avec l'IA c'est pas du journalisme à mon sens. De toute façon les journalistes sont déjà mis en sourdine par la censure collective et étatique pas besoin de l'IA. J'ai plutôt le sentiment que l'IA va nous servir de la belle désinformation et va être mise massivement au service du contrôle social.

Tout le monde sera charlie, vacciné, pro Ukraine, pour les hausses d'impôts et l'émigration et n'oubliera bien sûr jamais Gaza !
Je pense que tu n'as pas compris ce que j'ai dit.
Je vais prendre deux exemples différents pour éclaircir mes propos.

Cas 1 : Une personne demande à un logiciel IA de créer des photos d'une personnalité connue faisant quelque chose d’illégale. L'IA réalise ce qui est demandé et la personne le publie en faisant croire que c'est une vraie info.
Dans ce cas, la personne est responsable et la société conceptrice et productrice de l'IA n'a rien à se reprocher.

Cas 2 : Une personne demande des informations concernant une autre personne a un logiciel d'IA. L'IA renvoie des données fausses et préjudiciables sur cette personne. Le demandeur publie ces infos renvoyées pas l'IA. Alors, pour moi, l'IA est responsable, et donc la société conceptrice et productrice de l'IA est responsable.

Si je reprends ton exemple sur Smith&Wesson, si l'arme explose blessant son propriétaire et les personnes qui sont autour, qui est responsable ?
1  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 23/09/2024 à 13:36
Citation Envoyé par Stéphane le calme Voir le message
Et vous ?

Croyez-vous que la transparence des données utilisées pour entraîner les modèles d’IA est essentielle ? Pourquoi ?
C'est évident. Ne serait-ce que pour savoir si les données utilisées sont dignes de confiance ou risque d'être basées sur du grand n'importe quoi. Imaginons un AI entrainée à partir de TikTok et/ou X (twitter) !
Ensuite, il n'y a pas de raison que le droit d'auteurs ne soit pas respecté par ces entreprises.
Citation Envoyé par Stéphane le calme Voir le message
Quelles mesures supplémentaires proposeriez-vous pour améliorer la loi sur l’IA ?
Je pense qu'il est indispensable que les sociétés qui déploient ces AI soient pénalement responsables des résultats fournis par leurs outils. Ex du journaliste se voyant accusé à des affaires criminelles qu'il a couvert dans la cadre de son travail.
2  2 
Avatar de Jules34
Membre émérite https://www.developpez.com
Le 23/09/2024 à 14:31
Citation Envoyé par Jon Shannow Voir le message
Je pense qu'il est indispensable que les sociétés qui déploient ces AI soient pénalement responsables des résultats fournis par leurs outils.
Indispensable ? Il est indispensable qu'il ne soit pas responsable oui. Pour la démocratie mais aussi par simple jugeotte.

Smith & Wesson n'assiste pas à tout les procès de meurtre commis avec une arme fabriqué dans une de leur usine. Les fournisseurs d'accès à internet ne sont pas aux procès des pédophiles qui ont utilisés leurs services de communication et des résultats de référencement. Le pdg de nokia n'assiste pas les dealer qui ont vendu de la came avec un téléphone portable.

Il est indispensable que la responsabilité individuelle soit maintenue et qu'on ne puisse pas accuser les autres quand on mange un sachet de lessive parce qu'on a vu un challenge sur tiktok. Et ainsi de suite.

L'IA ne change rien au fait que les individus sont responsables de leurs actes, qu'ils mentent, désinforment, tue, vole ou qu'ils trafique ! Pas la peine de chercher de nouveau responsable comme si il s'agissait des nouveaux grands prêtre de la société.

Ensuite la loi ne doit pas permettre aux gens d'être bête. L'IA non plus. Si je te dis de sauter du pont et que tu le fais en principe j'ai rien fait de mal sauf si je t'ai harcelé/menacé/manipulé pour que tu le fasses.

J'enlève l'exemple du journalisme car écrire/sourcer/autres des articles avec l'IA c'est pas du journalisme à mon sens. De toute façon les journalistes sont déjà mis en sourdine par la censure collective et étatique pas besoin de l'IA. J'ai plutôt le sentiment que l'IA va nous servir de la belle désinformation et va être mise massivement au service du contrôle social.

Tout le monde sera charlie, vacciné, pro Ukraine, pour les hausses d'impôts et l'émigration et n'oubliera bien sûr jamais Gaza !
2  2 
Avatar de Zeeraptor
Membre régulier https://www.developpez.com
Le 27/10/2024 à 6:51
Sans conformité,impossible d'aboutir a de grand projets
1  1 
Avatar de noremorse
Membre actif https://www.developpez.com
Le 03/02/2025 à 15:18
Pendant que les autres avancent sur IA, la bureaucratie de l’UERSS pond des règlements, des mouchards pour les poubelles, des bouchons rattachés aux bouteilles. Pas étonnant que ces bouffons soient à la ramasse technologiquement et économiquement.
3  6