IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les gendarmes européens des protections des données s'expriment au sujet du projet de l'UE visant à réglementer l'IA

Le , par Stéphane le calme

72PARTAGES

6  0 
Le 21 avril 2021, la Commission européenne a présenté sa proposition de règlement du Parlement européen et du Conseil établissant des règles harmonisées en matière d'intelligence artificielle (ci-après « la proposition »). Une politique inédite qui décrit comment les entreprises et les gouvernements peuvent utiliser cette technologie. Les nouvelles règles comprennent l'interdiction de la plupart des formes de surveillance, et visent à établir des normes mondiales pour une technologie clé dominée par la Chine et les États-Unis.

La Chine a pris de l’avance dans la course à l'IA, tandis que la pandémie de covid-19 a souligné l'importance des algorithmes et de l'IdO dans la vie quotidienne. Les technologues, les chefs d'entreprise et les responsables gouvernementaux considèrent l'intelligence artificielle, qui consiste à apprendre à des machines à effectuer des tâches par elles-mêmes en étudiant d'énormes volumes de données (Machine Learning), comme l'une des technologies les plus transformatrices au monde.

Mais à mesure que les systèmes deviennent plus sophistiqués, il peut être plus difficile de déterminer pourquoi la technologie prend une décision, un problème qui pourrait s'aggraver avec la puissance croissante des ordinateurs. Les chercheurs ont soulevé des questions éthiques concernant son utilisation, suggérant qu'elle pourrait perpétuer les préjugés existants dans la société, porter atteinte à la vie privée ou entraîner l'automatisation de davantage d'emplois.

« En matière d'intelligence artificielle, la confiance est un impératif, pas un luxe à avoir. Avec ces règles emblématiques, l'UE est le fer-de-lance de l'élaboration de nouvelles normes mondiales visant à garantir la fiabilité de l'IA », a déclaré Margrethe Vestager, la responsable européenne de la technologie dans un communiqué publié mercredi. « En fixant des normes, nous pouvons ouvrir la voie à une technologie éthique dans le monde entier et veiller à ce que l'UE reste compétitive en cours de route. À l'épreuve du futur et favorables à l'innovation, nos règles interviendront là où cela est strictement nécessaire : lorsque la sécurité et les droits fondamentaux des citoyens de l'UE sont en jeu ».

Certaines utilisations seraient totalement interdites, notamment la reconnaissance faciale en direct dans les espaces publics, bien que certaines exemptions soient prévues pour des raisons de sécurité nationale et autres. La Commission a également déclaré que les applications d'IA qui permettent aux gouvernements de faire du scoring social ou d'exploiter des enfants seront interdites. Les applications d'IA à haut risque utilisées dans le recrutement, les infrastructures critiques, l'évaluation du crédit, la migration et l'application de la loi seront soumises à des garanties strictes.

Les entreprises qui enfreignent les règles s'exposent à des amendes pouvant atteindre 6 % de leur chiffre d'affaires mondial ou 30 millions d'euros, le chiffre le plus élevé étant retenu. Le chef de l'industrie européenne, Thierry Breton, a déclaré que les règles visent à dissiper les mythes et les idées fausses sur l'IA.

« Derrière le terme d'intelligence artificielle, il y a des croyances populaires et des peurs qui ont longtemps été véhiculées par l'industrie cinématographique », a déclaré Thierry Breton lors d'une conférence de presse. « Il est vrai que le petit robot (personnage du film d'animation de Walt Disney) WALL-E n'a malheureusement pas pu nous faire oublier le T-800 (robot) de Terminator. Il faut donc naviguer entre tout cela et ne pas stigmatiser la technologie », a-t-il ajouté lors de la présentation du projet.


La réaction des gendarmes européens des données

Le Comité Européen de la Protection des Données et le Contrôleur européen de la protection des données se sont félicités de la préoccupation du législateur concernant l'utilisation de l'intelligence artificielle (IA) au sein de l'Union européenne (UE) et soulignent que la proposition a des implications particulièrement importantes en matière de protection des données.

Pour mémoire, le Comité européen de la Protection des Données est l'organe européen indépendant dont les objectifs sont de garantir l’application cohérente du Règlement Général sur la Protection des Données et de promouvoir la coopération entre les autorités de protection des données de l'Union européenne. Le Contrôleur européen de la protection des données quant à lui est une autorité de contrôle indépendante dépendant de l'Union européenne qui a pour mission première d’assurer que les institutions et organes européens respectent le droit à la vie privée et à la protection des données lorsqu’ils traitent des données à caractère personnel et élaborent de nouvelles politiques.

Les deux instances notent que :

« L’avènement des systèmes d’intelligence artificielle ("IA" est une étape très importante dans l’évolution des technologies et dans la manière dont les humains interagissent avec elles. L'IA est un ensemble de technologies clés qui vont profondément modifier notre quotidien, que ce soit d'un point de vue sociétal ou économique. Au cours des prochaines années, des décisions décisives sont attendues pour l'IA, car elle nous aide à surmonter certains des plus grands défis auxquels nous sommes confrontés aujourd'hui dans de nombreux domaines, allant de la santé à la mobilité, ou de l'administration publique à l'éducation.

« Cependant, ces avancées promises ne sont pas sans risques. En effet, les risques sont très pertinents étant donné que les effets individuels et sociétaux des systèmes d'IA sont, dans une large mesure, inexpérimentés. Générer du contenu, faire des prédictions ou prendre une décision de manière automatisée, comme le font les systèmes d'IA, au moyen de techniques d'apprentissage automatique ou de règles d'inférence logiques et probabilistes, n'est pas la même chose que les humains réalisant ces activités, au moyen d'un raisonnement créatif ou théorique, portant l'entière responsabilité des conséquences.

« L'IA augmentera le nombre de prédictions qui peuvent être faites dans de nombreux domaines à partir de corrélations mesurables entre des données, invisibles à l’œil humain, mais visibles aux machines, nous facilitant la vie et résolvant un grand nombre de problèmes, mais en même temps érodera notre capacité à donner une interprétation causale des résultats, de telle sorte que les notions de transparence, de contrôle humain et de responsabilité sur les résultats soient sérieusement remises en question.

« Les données (personnelles et non personnelles) dans l'IA sont dans de nombreux cas la prémisse clé pour des décisions autonomes, qui affecteront inévitablement la vie des individus à différents niveaux. C'est pourquoi le Comité Européen de la Protection des Données et le Contrôleur européen de la protection des données, déjà à ce stade, affirment fermement que la proposition de règlement établissant des règles harmonisées en matière d'intelligence artificielle (loi sur l'intelligence artificielle) a des implications importantes en matière de protection des données ».

Les deux instances ont souligné « la nécessité de tracer des lignes rouges aux futurs usages de l’IA ». Elles ont demandé que les exceptions prévues à l’interdiction de l'identification biométrique à distance des personnes dans les espaces publics soient tout simplement retirées : « L'identification biométrique à distance des individus dans les espaces accessibles au public présente un risque élevé d'intrusion dans la vie privée des individus, avec de graves effets sur l'attente des populations d'être anonymes dans les espaces publics. Pour ces raisons, les deux instances appellent à une interdiction générale de toute utilisation de l'IA pour une reconnaissance automatisée des caractéristiques humaines dans des espaces accessibles au public – tels que les visages, mais aussi la démarche, les empreintes digitales, l'ADN, la voix, les frappes et autres éléments biométriques ou des signaux comportementaux – dans n'importe quel contexte ».

Juste après, les instances recommandent également d'interdire l'utilisation des systèmes biométriques « utilisés aux fins de classer les individus dans des groupes basés sur l'ethnicité supposée, le sexe, l'orientation politique ou sexuelle, ou d'autres motifs pour lesquels la discrimination est interdite ».

Les systèmes utilisés pour la notation sociale qui « doivent être systématiquement interdits » : « Compte tenu du grand risque de discrimination, la Proposition interdit le "scoring social" lorsqu'il est effectué "sur une certaine période de temps" ou "par les autorités publiques ou en leur nom". Cependant, les entreprises privées, telles que les médias sociaux et les fournisseurs de services cloud, peuvent également traiter de grandes quantités de données personnelles et effectuer un scoring social. Par conséquent, le futur règlement IA devrait interdire tout type de scoring social »


Conclusion

Les règles proposées interviennent alors que l'Union européenne tente de rattraper les États-Unis et la Chine dans le déploiement de l'intelligence artificielle et d'autres technologies avancées. Les nouvelles exigences pourraient empêcher les entreprises technologiques de la région de concurrencer leurs rivaux étrangers si elles tardent à dévoiler leurs produits parce qu'ils doivent d'abord passer au scanner de la nouvelle législation.

En introduisant ce projet de règles, cependant, l'Union européenne tente de s'imposer comme l'organisme de surveillance de l'industrie technologique le plus agressif au monde. L'Union a déjà adopté les réglementations les plus strictes au monde en matière de protection des données personnelles et débat actuellement de nouvelles lois antitrust et de modération des contenus.

La Commission devra néanmoins régler les détails avec les gouvernements nationaux de l'UE et le Parlement européen avant que les règles puissent entrer en vigueur. Cela pourrait prendre des années, marquées par un lobbying intense de la part des entreprises et même des gouvernements étrangers, a déclaré Patrick Van Eecke, associé et responsable de la cyberpratique européenne du cabinet d'avocats Cooley.

L’Europe n’est pas la seule région à vouloir réglementer l’utilisation de l’IA. À Washington aux États-Unis, les risques de l'intelligence artificielle sont également pris en compte. Cette semaine, la Federal Trade Commission a mis en garde contre la vente de systèmes d'intelligence artificielle qui utilisent des algorithmes à caractère raciste ou qui pourraient « refuser à des personnes un emploi, un logement, un crédit, une assurance ou d'autres avantages ».

Source : CNIL européennes

Voir aussi :

Pourquoi les systèmes de crédit social de la Chine sont étonnamment populaires ? Ils combleraient la « méfiance mutuelle entre les citoyens »
Chine : les personnes qui changent d'emploi trop souvent pourraient être sanctionnées, par le système de crédit social
Bruxelles pourrait interdire l'utilisation des technologies de reconnaissance faciale dans les espaces publics sur cinq ans, le temps de légiférer sur des moyens permettant de prévenir des abus
L'UE devrait interdire le scoring des citoyens et la surveillance de masse à l'aide de l'IA, selon un groupe d'experts de haut niveau

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Pierre Louis Chevalier
Expert éminent sénior https://www.developpez.com
Le 05/06/2024 à 15:55
Citation Envoyé par Anselme45 Voir le message
Pour s'en convaincre, il suffit de lire les news de ce site: La majorité des news traitent maintenant de l'IA... Apparemment les autres technologies numériques ne sont plus dignes d'intérêt
C'est archifaux. Oui il y a sur developpez un tas de news sur l'IA mais c'est parfaitement normal, ça nous concerne, aussi bien les développeurs que les autres informaticiens.

Il n'en reste pas moins que developpez est quasiment le seul et unique site francophone qui passe aussi un tas de news sur l'actualité de la programmation, les nouvelles versions des langages, les nouvelles sorties des EDI (Jetbrains, Microsoft, Embarcadero, ...) , etc. Et c'est surtout devenu le "Médiapart/Canard enchainé" de l'informatique avec toutes les news à scandales sur HP, Microsoft, Google, etc. Exemple l'énorme scandale sur les imprimantes HP avec des centaines de commentaires, et quel rapport avec l'IA ? aucun... D 'ailleurs toi même tu viens de répondre à un sujet à scandale n'ayant rien à voir avec l'IA, à savoir : Google peut garder votre téléphone si vous l’envoyez en réparation avec des pièces qui ne sont pas d’origine

Regarde les rubriques programmation et EDI au lieu de dire n'importe quoi, et il y a toujours une colonne droite avec des tutoriels programmation et IT Pro, des articles gratuits alors que c'est devenu payant ailleurs (Udemy, Elephorm, etc). Developpez est devenu le meilleur site sur francophonie sur l'IA, mais il reste toujours le meilleur site pour les développeurs et même l'IT Pro, c'est bien simple il n'y en a pas d'autre de valables....
7  0 
Avatar de marsupial
Expert éminent https://www.developpez.com
Le 07/10/2021 à 8:13
Espérons que ce règlement soit suivi d'effets en France.
6  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 03/06/2024 à 22:27
Citation Envoyé par Mathis Lucas Voir le message

Que pensez-vous du lobbying intense des entreprises d'IA pour contrecarrer les initiatives visant à réglementer l'IA ?
On le voit déjà au niveau des news sur tous les sites et tous les canaux. On essaye de nous vendre de force un truc assez moyen, comme LA panacée.

En général, plus il y a de pub pour un produit, et plus il y a de chances qu'ils soit très mauvais.

Là, on a en plus des lobbyistes qui illustrent le capitalisme non-régulé dans toute sa splendeur, ou comment les plus riches sont capables de faire plier des gouvernements, par la corruption légale qu'est le lobbyisme. On le voit au niveau des entreprises et des communes ici: des avocats de l'IA (et juste avant c'était ceux du cloud des GAFAM) qui organisent des évènements avec les repas, parfois des cadeaux, des ateliers qui sont de la pub grossièrement déguisée, etc.

Bref, rien de neuf: le commercial qui fait sa danse du ventre, et le pigeon qui tombe dans le panneau.
6  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 10/04/2024 à 8:28
Je n'ai pas très bien compris ce qui était mesuré pour définir que l'IA émet moins de CO2 qu'un humain pour écrire une page.

Est-ce que l'empreinte carbone des datas center servant à l'IA pour produire sa page est comptée ou non ? Si c'est juste l'empreinte carbone pour l'écriture finale, c'est-à-dire le "pouillème" final, alors l'étude est biaisée.
5  0 
Avatar de Refuznik
Membre éclairé https://www.developpez.com
Le 15/04/2023 à 21:57
Que pensez-vous de la proposition des parlementaires européens ?
Qu'ils sont complètement dans le flou.

Selon vous, quelles seraient les conséquences d'une telle réglementation pour les créateurs de chatbots d'IA ?
Bah, on n'a pas de règles claires (en tout vas je n'en vois pas dans cet article) donc c'est dur de se prononcer.

Par contre, la 1er régle donné elle est deja hors sol ou la virgule est mal placé. Je cite "...les applications et les systèmes qui créent un risque inacceptable, tels que les systèmes de notation sociale gérés par le gouvernement, comme ceux utilisés en Chine, sont interdits."
Oui, un système notation basé sur l'IA doit être interdit dans tous les cas et on a beaucoup d'exemples dans le monde professionnel.
Par contre parler de gouvernement chinois et de leur notation individuel est complètement à côté de la plaque vu que ce système n'existe pas.

Extrait d'un article du MIT :
Existe-t-il donc un score de crédit social centralisé calculé pour chaque citoyen chinois ?
Non. Contrairement à la croyance populaire, il n'y a pas de score central de crédit social pour les individus. Et franchement, le gouvernement central chinois n'a jamais parlé d'en vouloir un.


Y a-t-il une technologie de pointe, comme l'intelligence artificielle, impliquée dans le système ?
Pour la plupart, non. C'est un autre mythe courant sur le système de crédit social en Chine : les gens s'imaginent que pour suivre les comportements sociaux de plus d'un milliard de personnes, il doit y avoir un puissant algorithme central qui peut collecter et traiter les données.

Mais ce n'est pas vrai. Puisqu'il n'y a pas de système central qui note tout le monde, ce type d'algorithme puissant n'est même pas nécessaire. Les experts du système de crédit social chinois affirment que l'ensemble de l'infrastructure est étonnamment peu technologique. Alors que les responsables chinois nomment parfois des technologies telles que la blockchain et l'intelligence artificielle lorsqu'ils parlent du système, ils ne parlent jamais en détail de la manière dont ces technologies pourraient être utilisées. Si vous consultez le site Web de Credit China, ce n'est rien de plus qu'une bibliothèque numérisée de bases de données distinctes.


Lien : https://www.technologyreview.com/2022/11/22/1063605/china-announced-a-new-social-credit-law-what-does-it-mean/
4  0 
Avatar de mith06
Membre expérimenté https://www.developpez.com
Le 16/06/2023 à 11:34
Quand ils vont se rendre compte qu "l'IA" permet de faire de la surveillance de masse, ils vont renommer ca en "algorithme à réseaux de neurone profond" pour contourner leur propre interdiction

les applications et les systèmes qui créent un risque inacceptable, tels que les systèmes d'évaluation sociale gérés par le gouvernement, comme ceux utilisés en Chine, sont interdits ;
Le modèle Chinois c'est leur rêve....

les applications qui ne sont pas explicitement interdites ou répertoriées comme présentant un risque élevé échappent en grande partie à la réglementation.
Normalement tout c'est qui n'est pas interdit est autorisé.
Mais pour ces gens tout ce qui n'est pas autorisé devrait être interdit.
5  1 
Avatar de OrthodoxWindows
Membre expert https://www.developpez.com
Le 07/02/2024 à 22:16
Encore une étude de greenwashing
4  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 24/03/2024 à 11:22
Et comme pour le 99,9% des résolutions de l'ONU, strictement personne n'en tiendra compte!
4  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 05/06/2024 à 11:19
Citation Envoyé par Anselme45 Voir le message
La majorité des news traitent maintenant de l'IA...
C'est de la faute de l'industrie et non pas des rédacteurs d'actualités.
C'est comme avec Elon Musk, les médias écrivent un article par jour à son sujet donc ça atterrît ici aussi.
Les visiteurs ont le choix de lire les articles qu'ils veulent, il est possible d'ignorer toutes les actualités liées à l'IA si on le souhaite.

L'IA sera peut-être puissante dans 20 ans, j'espère que dans ces 20 ans l'IA ne restera pas le sujet principal dans le monde de la technologie.
Beaucoup de gens doivent être lassés par toutes ces actualités en rapport avec l'IA, les médias mainstream en parlent beaucoup.
Mais après ils ont peut-être raison d'en parler, l'IA pourrait devenir quelque chose d'extrêmement dangereux et avoir des conséquences dramatique sur le monde. Elle va peut-être vraiment prendre le travail de beaucoup de gens, qui vont se retrouver dans la pauvreté, parce qu'ils ne retrouveront plus de travail et n'auront plus de revenu.

Citation Envoyé par Mathis Lucas Voir le message
Pour ce faire, elles ont embauché une importante armée de lobbyistes chargés d'influencer les décideurs politiques et les gouvernements à travers le monde afin qu'ils adoptent des règles "laxistes" au détriment de l'intérêt général. Ils ont déjà réussi à court-circuiter le vote de nombreuses lois sur l'IA ou à façonner certaines législations.
C'est dingue que ces lobbystes arrivent à corrompre autant de décideurs politiques et de gouvernements à travers le monde.

On pourrait presque se dire que les politiciens sont tous pourris.
4  0 
Avatar de
https://www.developpez.com
Le 27/10/2024 à 9:59
L'enfer normatif européens a déjà réussi à laminer l'industrie et l'agriculture voilà qu'il s'attaque maintenant à la tech (dont l'IA).
Pour commencer à "Entreprendre" il faut désormais avoir les moyens de se doter d'une armée de juriste et d'avocat, sans parler des taxes et impôts. Étouffant !

Je comprend pas qu'on ne commence pas à faire de la prévention dans les écoles concernant l'IA ? (Une IA peut raconter n'importe quoi, et ça sera toujours le cas !)
Introduire les élèves dès le plus jeune âge à l'esprit critique et à la compréhension de ce qu'est l'IA n'est-il pas la meilleur solution ?
4  0