IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

L'UE s'apprête à établir des règles en matière d'IA qui interdisent la surveillance et le classement du comportement social,
Les amendes pouvant atteindre 4 % du chiffre d'affaires

Le , par Stan Adkens

125PARTAGES

16  0 
La surveillance de masse par les systèmes d’intelligence artificielle et le scoring continuent de faire l’objet de débat à travers le monde entier. Ce qui était l’objet d’une fiction dans l’épisode Nosedive de la série Black Mirror est en train de devenir une réalité dans certaines parties du monde, tandis que certains gouvernements cherchent à limiter les dégâts. Bruxelles s'apprête à imposer des limites strictes aux systèmes d'intelligence artificielle utilisés pour la surveillance de masse ou le classement du comportement social afin d'éviter des abus de la surveillance publique des citoyens européens. Les entreprises qui développent l'IA pourraient se voir infliger des amendes pouvant atteindre 4 % de leur chiffre d'affaires mondial si elles ne se conforment pas aux nouvelles règles régissant les applications logicielles.

Dans le domaine du marketing, le scoring est une technique qui permet d'affecter un score à un client ou prospect. Le score obtenu traduit généralement la probabilité qu'un individu réponde à une sollicitation marketing ou appartienne à la cible recherchée. Mais le scoring dont l’Union européenne veut faire face est une tout autre chose. L’idée ici est de collecter des centaines de données sur les individus et les entreprises à partir des réseaux sociaux et via les systèmes d’intelligence artificielle. Ces données seront ensuite passées au crible scrutant la légalité et la moralité d’un individu dans les domaines économiques, sociaux et politiques, avec pour but un score dont découleront des récompenses ou des sanctions.


Depuis 2018, la Chine a commencé à tester son projet de « système de crédit social » qui vise à mettre en place un système national pour noter ses citoyens. En effet, ce projet consiste à attribuer une note à chaque citoyen, fondée sur les données dont dispose le gouvernement sur les Chinois. Le système repose sur un outil de surveillance de masse et utilise les technologies d'analyse Big Data. Il permet aussi de noter les entreprises opérant sur le marché chinois.

Dès 2018, la liste noire du système de notation sociale chinois s'élargissait et impliquait plusieurs domaines. Alors que le système était prévu pour être pleinement opérationnel jusqu'en 2020, des millions de ressortissants chinois ont été empêchés de réserver des vols ou des trains depuis que ce système controversé a commencé à être testé dans certaines villes du pays. « Cela permettra aux personnes de confiance de circuler librement sous le ciel tout en entravant les personnes qui ne sont pas dignes de confiance dans leurs déplacements », expliquait le Parti communiste chinois. L’un des mauvais comportements pouvant faire baisser la note du crédit social des individus, c’est celui de passer d’un emploi à l’autre trop fréquemment. Des citoyens répertoriés pour ce comportement se voient infliger des sanctions.

L’UE veut éviter cela aux citoyens européens en interdisant les systèmes d'intelligence artificielle utilisés pour la surveillance de masse ou le classement des comportements sociaux. Les mesures à venir font partie de la législation qui doit être proposée par la Commission européenne, l'organe exécutif de l'Union européenne, selon un document de projet de nouvelles règles. Les nouvelles règles pourraient être dévoilées dès la semaine prochaine, et d’ici là, la Commission pourrait changer certains détails.

Les nouvelles règles sur l’intelligence artificielle

La proposition de la Commission européenne devrait inclure les règles suivantes :

  • Les systèmes d'IA utilisés pour manipuler le comportement humain, exploiter des informations sur des individus ou des groupes d'individus, utilisés pour effectuer du scoring social ou pour une surveillance systématique seraient tous interdits dans l'UE. Certaines exceptions liées à la sécurité publique s'appliqueraient.
  • Les systèmes d'identification biométrique à distance utilisés dans les lieux publics, comme la reconnaissance faciale, nécessiteraient une autorisation spéciale des autorités.
  • Les applications d'IA considérées comme "à haut risque" devront être soumises à des inspections avant d'être déployées, afin de garantir que les systèmes sont formés sur des ensembles de données impartiaux, de manière traçable et avec une supervision humaine.
  • L'IA à haut risque concernerait les systèmes susceptibles de mettre en danger la sécurité, la vie ou les droits fondamentaux des personnes, ainsi que les processus démocratiques de l'UE – comme les voitures à conduite autonome et la chirurgie à distance, entre autres.
  • Certaines entreprises seront autorisées à procéder elles-mêmes à des évaluations, tandis que d'autres seront soumises à des contrôles effectués par des tiers. Les certificats de conformité délivrés par les organismes d'évaluation seront valables pour une durée de cinq ans.
  • Les règles s'appliqueront de la même manière aux entreprises établies dans l'UE ou à l'étranger.

Les États membres de l'UE devront désigner des organismes d'évaluation chargés de tester, de certifier et d'inspecter les systèmes, d’après le projet de nouvelles règles. Les entreprises qui développent des services d'IA interdits, fournissent des informations incorrectes ou ne coopèrent pas avec les autorités nationales pourraient se voir infliger une amende pouvant atteindre 4 % de leur chiffre d'affaires mondial. Il y aura toutefois des exceptions. Les mesures ne s'appliqueront pas aux systèmes d'IA utilisés exclusivement à des fins militaires.

Des inquiétudes concernant l’utilisation des systèmes d’IA à des fins de classement des comportements sociaux ne datent pas de maintenant. Un groupe d'experts de haut niveau sur l'IA, réunis par l'Union européenne, a recommandé en 2018 l'interdiction d'utiliser l'IA pour le scoring des citoyens et la surveillance de masse. Le groupe, qui était composé d'un mélange d'experts de l'industrie de l'IA, de représentants de la société civile, de conseillers politiques, d'universitaires et d'experts juridiques, craint que les gouvernements, dans leur désir d'accroître la sécurité, poussent cette surveillance à des niveaux qu'ils qualifient de dangereux.


« Les gouvernements pourraient être tentés de sécuriser la société en construisant un système de surveillance généralisé basé sur des systèmes d'IA, mais cela serait extrêmement dangereux si on le poussait à des niveaux extrêmes. Les gouvernements devraient s’engager à ne pas participer à une surveillance massive des individus et à déployer et acquérir uniquement des systèmes d’IA fiables, conçus pour respecter la loi et les droits fondamentaux, alignés sur des principes éthiques et solides du point de vue sociotechnique », pouvait-on lire dans leur rapport.

Alors que l'intelligence artificielle a commencé à pénétrer dans chaque partie de la société, des suggestions d'achat et des assistants vocaux aux décisions concernant l'embauche, les assurances et l'application de la loi, l'UE veut s'assurer que la technologie déployée en Europe est transparente, bénéficie d'une supervision humaine et répond à ses normes élevées en matière de confidentialité des utilisateurs.

Les règles proposées interviennent alors que l'Union européenne tente de rattraper les États-Unis et la Chine dans le déploiement de l'intelligence artificielle et d'autres technologies avancées. Les nouvelles exigences pourraient empêcher les entreprises technologiques de la région de concurrencer leurs rivaux étrangers si elles tardent à dévoiler leurs produits parce qu'ils doivent d'abord être testés.

En janvier 2020, Bruxelles s’apprêtait également imposer des limites strictes à l'utilisation de la technologie de reconnaissance faciale dans les espaces publics afin d'éviter des abus de la surveillance publique des citoyens européens. L'objectif serait de limiter « l'utilisation aveugle de la technologie de reconnaissance faciale » par les entreprises et les pouvoirs publics. Selon le plan, les citoyens européens auraient le droit de « savoir quand les données [de reconnaissance faciale] sont utilisées », avec toutes les exceptions « strictement circonscrites » pour garantir une utilisation appropriée.

Mais au cours du même mois, la proposition de l'Union européenne a évolué, le groupe abandonnant la possibilité d’interdire l’utilisation dans l’espace public de technologies de reconnaissance faciale. À cette époque, les consultations sur le plan étaient en cours, la proposition pouvant être modifiée à nouveau.

Et vous ?

Quel est votre avis sur ces futures règles sur l’IA de l’UE ?
Que pensez-vous du classement des comportements sociaux par les gouvernements ?

Voir aussi :

Pourquoi les systèmes de crédit social de la Chine sont étonnamment populaires ? Ils combleraient la « méfiance mutuelle entre les citoyens »
Chine : les personnes qui changent d'emploi trop souvent pourraient être sanctionnées, par le système de crédit social
Bruxelles pourrait interdire l'utilisation des technologies de reconnaissance faciale dans les espaces publics sur cinq ans, le temps de légiférer sur des moyens permettant de prévenir des abus
L'UE devrait interdire le scoring des citoyens et la surveillance de masse à l'aide de l'IA, selon un groupe d'experts de haut niveau

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de marsupial
Expert éminent https://www.developpez.com
Le 07/10/2021 à 8:13
Espérons que ce règlement soit suivi d'effets en France.
6  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 03/06/2024 à 22:27
Citation Envoyé par Mathis Lucas Voir le message
Que pensez-vous du lobbying intense des entreprises d'IA pour contrecarrer les initiatives visant à réglementer l'IA ?
On le voit déjà au niveau des news sur tous les sites et tous les canaux. On essaye de nous vendre de force un truc assez moyen, comme LA panacée.

En général, plus il y a de pub pour un produit, et plus il y a de chances qu'ils soit très mauvais.

Là, on a en plus des lobbyistes qui illustrent le capitalisme non-régulé dans toute sa splendeur, ou comment les plus riches sont capables de faire plier des gouvernements, par la corruption légale qu'est le lobbyisme. On le voit au niveau des entreprises et des communes ici: des avocats de l'IA (et juste avant c'était ceux du cloud des GAFAM) qui organisent des évènements avec les repas, parfois des cadeaux, des ateliers qui sont de la pub grossièrement déguisée, etc.

Bref, rien de neuf: le commercial qui fait sa danse du ventre, et le pigeon qui tombe dans le panneau.
6  0 
Avatar de Pierre Louis Chevalier
Expert éminent sénior https://www.developpez.com
Le 05/06/2024 à 15:55
Citation Envoyé par Anselme45 Voir le message
Pour s'en convaincre, il suffit de lire les news de ce site: La majorité des news traitent maintenant de l'IA... Apparemment les autres technologies numériques ne sont plus dignes d'intérêt
C'est archifaux. Oui il y a sur developpez un tas de news sur l'IA mais c'est parfaitement normal, ça nous concerne, aussi bien les développeurs que les autres informaticiens.

Il n'en reste pas moins que developpez est quasiment le seul et unique site francophone qui passe aussi un tas de news sur l'actualité de la programmation, les nouvelles versions des langages, les nouvelles sorties des EDI (Jetbrains, Microsoft, Embarcadero, ...) , etc. Et c'est surtout devenu le "Médiapart/Canard enchainé" de l'informatique avec toutes les news à scandales sur HP, Microsoft, Google, etc. Exemple l'énorme scandale sur les imprimantes HP avec des centaines de commentaires, et quel rapport avec l'IA ? aucun... D 'ailleurs toi même tu viens de répondre à un sujet à scandale n'ayant rien à voir avec l'IA, à savoir : Google peut garder votre téléphone si vous l’envoyez en réparation avec des pièces qui ne sont pas d’origine

Regarde les rubriques programmation et EDI au lieu de dire n'importe quoi, et il y a toujours une colonne droite avec des tutoriels programmation et IT Pro, des articles gratuits alors que c'est devenu payant ailleurs (Udemy, Elephorm, etc). Developpez est devenu le meilleur site sur francophonie sur l'IA, mais il reste toujours le meilleur site pour les développeurs et même l'IT Pro, c'est bien simple il n'y en a pas d'autre de valables....
6  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 10/04/2024 à 8:28
Je n'ai pas très bien compris ce qui était mesuré pour définir que l'IA émet moins de CO2 qu'un humain pour écrire une page.

Est-ce que l'empreinte carbone des datas center servant à l'IA pour produire sa page est comptée ou non ? Si c'est juste l'empreinte carbone pour l'écriture finale, c'est-à-dire le "pouillème" final, alors l'étude est biaisée.
5  0 
Avatar de Refuznik
Membre éclairé https://www.developpez.com
Le 15/04/2023 à 21:57
Que pensez-vous de la proposition des parlementaires européens ?
Qu'ils sont complètement dans le flou.

Selon vous, quelles seraient les conséquences d'une telle réglementation pour les créateurs de chatbots d'IA ?
Bah, on n'a pas de règles claires (en tout vas je n'en vois pas dans cet article) donc c'est dur de se prononcer.

Par contre, la 1er régle donné elle est deja hors sol ou la virgule est mal placé. Je cite "...les applications et les systèmes qui créent un risque inacceptable, tels que les systèmes de notation sociale gérés par le gouvernement, comme ceux utilisés en Chine, sont interdits."
Oui, un système notation basé sur l'IA doit être interdit dans tous les cas et on a beaucoup d'exemples dans le monde professionnel.
Par contre parler de gouvernement chinois et de leur notation individuel est complètement à côté de la plaque vu que ce système n'existe pas.

Extrait d'un article du MIT :
Existe-t-il donc un score de crédit social centralisé calculé pour chaque citoyen chinois ?
Non. Contrairement à la croyance populaire, il n'y a pas de score central de crédit social pour les individus. Et franchement, le gouvernement central chinois n'a jamais parlé d'en vouloir un.


Y a-t-il une technologie de pointe, comme l'intelligence artificielle, impliquée dans le système ?
Pour la plupart, non. C'est un autre mythe courant sur le système de crédit social en Chine : les gens s'imaginent que pour suivre les comportements sociaux de plus d'un milliard de personnes, il doit y avoir un puissant algorithme central qui peut collecter et traiter les données.

Mais ce n'est pas vrai. Puisqu'il n'y a pas de système central qui note tout le monde, ce type d'algorithme puissant n'est même pas nécessaire. Les experts du système de crédit social chinois affirment que l'ensemble de l'infrastructure est étonnamment peu technologique. Alors que les responsables chinois nomment parfois des technologies telles que la blockchain et l'intelligence artificielle lorsqu'ils parlent du système, ils ne parlent jamais en détail de la manière dont ces technologies pourraient être utilisées. Si vous consultez le site Web de Credit China, ce n'est rien de plus qu'une bibliothèque numérisée de bases de données distinctes.


Lien : https://www.technologyreview.com/202...-does-it-mean/
4  0 
Avatar de mith06
Membre expérimenté https://www.developpez.com
Le 16/06/2023 à 11:34
Quand ils vont se rendre compte qu "l'IA" permet de faire de la surveillance de masse, ils vont renommer ca en "algorithme à réseaux de neurone profond" pour contourner leur propre interdiction

les applications et les systèmes qui créent un risque inacceptable, tels que les systèmes d'évaluation sociale gérés par le gouvernement, comme ceux utilisés en Chine, sont interdits ;
Le modèle Chinois c'est leur rêve....

les applications qui ne sont pas explicitement interdites ou répertoriées comme présentant un risque élevé échappent en grande partie à la réglementation.
Normalement tout c'est qui n'est pas interdit est autorisé.
Mais pour ces gens tout ce qui n'est pas autorisé devrait être interdit.
5  1 
Avatar de OrthodoxWindows
Membre expert https://www.developpez.com
Le 07/02/2024 à 22:16
Encore une étude de greenwashing
4  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 24/03/2024 à 11:22
Et comme pour le 99,9% des résolutions de l'ONU, strictement personne n'en tiendra compte!
4  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 23/04/2021 à 23:05
Citation Envoyé par tanaka59 Voir le message
Le projet de loi d'interdiction , c'est du flan . Vu qu'on l'utilise déjà et que des lois liberticides peuvent toujours passées. On l'a vu avec le covid.
Ouais, les lois Européennes sont utiles quand un gouvernement veut faire passer une mesure impopulaire. Il leur suffit de dire "C'est pas nous, c'est l'Europe".

Par contre quand ça ne va pas dans leur sens, ils s'en foutent complètement...
3  0 
Avatar de Cpt Anderson
Membre émérite https://www.developpez.com
Le 11/05/2022 à 16:02
Il n'y a rien de bien clair dans ce rapport : ni les buts, ni la façon de se donner les moyens de créer des pôles d'excellences. C'est flou.
Je le dis et je le répète encore, mais ailleurs, c'est le complexe militaro-industriel qui donne le tempo sur le développement de l'IA. Est les buts sont avant tout militaires.

Au niveau européen, on a pas de complexe militaro-industriel, donc ça ne marchera pas : les industriels privés veulent un retour sur investissent, il faut du concret.
5  2