IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

L'UE cherche à établir des normes mondiales pour l'utilisation de l'IA,
Mais des groupes de défense des droits civils s'inquiètent

Le , par Stan Adkens

85PARTAGES

14  0 
L’intelligence artificielle est une technologie considérée comme l'une des percées scientifiques les plus importantes, mais aussi les plus lourdes sur le plan éthique, de mémoire récente. « Pour l'excellence et la confiance dans l'intelligence artificielle », la Commission européenne a dévoilé mercredi une réglementation stricte pour régir l'utilisation de l’IA, une politique inédite qui décrit comment les entreprises et les gouvernements peuvent utiliser cette technologie. Les nouvelles règles comprennent l'interdiction de la plupart des formes de surveillance, et visent à établir des normes mondiales pour une technologie clé dominée par la Chine et les États-Unis. Les groupes de défense des droits civils mettent toutefois en garde contre les éventuelles lacunes de la proposition.

Présenté lors d'un point de presse à Bruxelles, le projet de règles fixerait des limites à l'utilisation de l'intelligence artificielle dans toute une série d'activités, des voitures autonomes aux décisions d'embauche, en passant par les sélections d'inscriptions dans les écoles et la notation des examens. Il couvrirait également l'utilisation de l'intelligence artificielle par les forces de l'ordre et les systèmes judiciaires – des domaines considérés comme "à haut risque", car ils pourraient menacer la sécurité des personnes ou leurs droits fondamentaux.


Toutefois, les groupes de défense des droits civils ont prévenu que les lacunes de la proposition, qui prévoit de lourdes amendes en cas de violation et fixe des garanties strictes pour les applications à haut risque, pourraient laisser place à des abus de la technologie par des gouvernements répressifs.

La Chine a pris de l’avance dans la course à l'IA, tandis que la pandémie de covid-19 a souligné l'importance des algorithmes et des gadgets connectés à Internet dans la vie quotidienne. Les technologues, les chefs d'entreprise et les responsables gouvernementaux considèrent l'intelligence artificielle, qui consiste à apprendre à des machines à effectuer des tâches par elles-mêmes en étudiant d'énormes volumes de données (Machine Learning), comme l'une des technologies les plus transformatrices au monde.

Mais à mesure que les systèmes deviennent plus sophistiqués, il peut être plus difficile de déterminer pourquoi la technologie prend une décision, un problème qui pourrait s'aggraver avec la puissance croissante des ordinateurs. Les chercheurs ont soulevé des questions éthiques concernant son utilisation, suggérant qu'elle pourrait perpétuer les préjugés existants dans la société, porter atteinte à la vie privée ou entraîner l'automatisation de davantage d'emplois.

« En matière d'intelligence artificielle, la confiance est un impératif, pas un luxe à avoir. Avec ces règles emblématiques, l'UE est le fer-de-lance de l'élaboration de nouvelles normes mondiales visant à garantir la fiabilité de l'IA », a déclaré Margrethe Vestager, la responsable européenne de la technologie dans un communiqué publié mercredi. « En fixant des normes, nous pouvons ouvrir la voie à une technologie éthique dans le monde entier et veiller à ce que l'UE reste compétitive en cours de route. À l'épreuve du futur et favorables à l'innovation, nos règles interviendront là où cela est strictement nécessaire : lorsque la sécurité et les droits fondamentaux des citoyens de l'UE sont en jeu ».

Certaines utilisations seraient totalement interdites, notamment la reconnaissance faciale en direct dans les espaces publics, bien que certaines exemptions soient prévues pour des raisons de sécurité nationale et autres. La Commission a également déclaré que les applications d'IA qui permettent aux gouvernements de faire du scoring social ou d'exploiter des enfants seront interdites. Les applications d'IA à haut risque utilisées dans le recrutement, les infrastructures critiques, l'évaluation du crédit, la migration et l'application de la loi seront soumises à des garanties strictes.

Les entreprises qui enfreignent les règles s'exposent à des amendes pouvant atteindre 6 % de leur chiffre d'affaires mondial ou 30 millions d'euros (36 millions de dollars), le chiffre le plus élevé étant retenu. Le chef de l'industrie européenne, Thierry Breton, a déclaré que les règles visent à dissiper les mythes et les idées fausses sur l'IA.

« Derrière le terme d'intelligence artificielle, il y a des croyances populaires et des peurs qui ont longtemps été véhiculées par l'industrie cinématographique », a déclaré Thierry Breton lors d'une conférence de presse. « Il est vrai que le petit robot (personnage du film d'animation de Walt Disney) WALL-E n'a malheureusement pas pu nous faire oublier le T-800 (robot) de Terminator. Il faut donc naviguer entre tout cela et ne pas stigmatiser la technologie », a-t-il ajouté lors de la présentation du projet.

« La réglementation seule ne fera pas de l'UE un leader de l'IA », d’après un groupe de pression

Ces règles ont des conséquences considérables pour les grandes entreprises technologiques, dont Amazon, Google, Facebook et Microsoft, qui ont consacré des ressources énormes au développement de l'intelligence artificielle, mais aussi pour de nombreuses autres entreprises qui utilisent cette technologie dans les domaines de la santé, des assurances et de la finance. Les gouvernements ont utilisé des versions de cette technologie dans le domaine de la justice pénale et de la répartition des services publics.

« L'IA est un moyen, pas une fin. Elle existe depuis des décennies, mais a atteint de nouvelles capacités alimentées par la puissance de calcul. Cela offre un immense potentiel dans des domaines aussi divers que la santé, les transports, l'énergie, l'agriculture, le tourisme ou la cybersécurité. Elle présente également un certain nombre de risques. Les propositions présentées aujourd'hui visent à renforcer la position de l'Europe en tant que pôle d'excellence mondial en matière d'IA, du laboratoire au marché, à faire en sorte que l'IA en Europe respecte nos valeurs et nos règles, et à exploiter le potentiel de l'IA à des fins industrielles ».


Cependant, le groupe de pression technologique CCIA a déclaré que les règles ne devraient pas créer plus de paperasserie pour les entreprises et les utilisateurs. L'IA sera essentielle pour la reprise économique et la compétitivité future de l'Europe. Toutefois, la réglementation seule ne fera pas de l'UE un leader de l'IA », a déclaré Christian Borggreen, vice-président de la CCIA.

European Digital Rights a souligné des lacunes inquiétantes dans la proposition. « Le projet de loi n'interdit pas toute l'étendue des utilisations inacceptables de l'IA et en particulier toutes les formes de surveillance biométrique de masse. Cela laisse un vide inquiétant pour les technologies de discrimination et de surveillance utilisées par les gouvernements et les entreprises », a déclaré Sarah Chander du groupe de lobbying.

Patrick Breyer, législateur du parti des Verts au Parlement européen, s'est également montré cinglant à l'égard de la proposition. « Les technologies de surveillance biométrique et de masse, de profilage et de prédiction comportementale dans nos espaces publics portent atteinte à nos libertés et menacent nos sociétés ouvertes. Les exigences procédurales proposées ne sont qu'un simple écran de fumée », a-t-il déclaré.

Alors que l'intelligence artificielle a commencé à pénétrer dans chaque partie de la société, des suggestions d'achat et des assistants vocaux aux décisions concernant l'embauche, les assurances et l'application de la loi, l'UE veut s'assurer que la technologie déployée en Europe est transparente, bénéficie d'une supervision humaine et répond à ses normes élevées en matière de confidentialité des utilisateurs.

Les règles proposées interviennent alors que l'Union européenne tente de rattraper les États-Unis et la Chine dans le déploiement de l'intelligence artificielle et d'autres technologies avancées. Les nouvelles exigences pourraient empêcher les entreprises technologiques de la région de concurrencer leurs rivaux étrangers si elles tardent à dévoiler leurs produits parce qu'ils doivent d'abord passer au scanner de la nouvelle législation.

En introduisant ce projet de règles, cependant, l'Union européenne tente de s'imposer comme l'organisme de surveillance de l'industrie technologique le plus agressif au monde. L'Union a déjà adopté les réglementations les plus strictes au monde en matière de protection des données personnelles et débat actuellement de nouvelles lois antitrust et de modération des contenus.

La Commission devra néanmoins régler les détails avec les gouvernements nationaux de l'UE et le Parlement européen avant que les règles puissent entrer en vigueur. Cela pourrait prendre des années, marquées par un lobbying intense de la part des entreprises et même des gouvernements étrangers, a déclaré Patrick Van Eecke, associé et responsable de la cyberpratique européenne du cabinet d'avocats Cooley.

L’Europe n’est pas la seule région à vouloir réglementer l’utilisation de l’IA. À Washington aux États-Unis, les risques de l'intelligence artificielle sont également pris en compte. Cette semaine, la Federal Trade Commission a mis en garde contre la vente de systèmes d'intelligence artificielle qui utilisent des algorithmes à caractère raciste ou qui pourraient « refuser à des personnes un emploi, un logement, un crédit, une assurance ou d'autres avantages ».

Source : Communiqué de presse

Et vous ?

Quel est votre avis sur le nouveau projet de règles sur l’utilisation de l’IA ?
Partagez-vous les préoccupations des groupes de défense des droits civils qui ont prévenu que les lacunes de la proposition pourraient laisser place à des abus de la technologie ?

Voir aussi :

L'UE s'apprête à établir des règles en matière d'IA qui interdisent la surveillance et le classement du comportement social, les amendes pouvant atteindre 4 % du chiffre d'affaires
Bruxelles revoit sa position et décide d'abandonner l'idée d'interdire l'utilisation de la reconnaissance faciale dans les lieux publics
Bruxelles pourrait interdire l'utilisation des technologies de reconnaissance faciale dans les espaces publics sur cinq ans, le temps de légiférer sur des moyens permettant de prévenir des abus
L'UE devrait interdire le scoring des citoyens et la surveillance de masse à l'aide de l'IA, selon un groupe d'experts de haut niveau

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de marsupial
Expert éminent https://www.developpez.com
Le 07/10/2021 à 8:13
Espérons que ce règlement soit suivi d'effets en France.
6  0 
Avatar de Refuznik
Membre éclairé https://www.developpez.com
Le 15/04/2023 à 21:57
Que pensez-vous de la proposition des parlementaires européens ?
Qu'ils sont complètement dans le flou.

Selon vous, quelles seraient les conséquences d'une telle réglementation pour les créateurs de chatbots d'IA ?
Bah, on n'a pas de règles claires (en tout vas je n'en vois pas dans cet article) donc c'est dur de se prononcer.

Par contre, la 1er régle donné elle est deja hors sol ou la virgule est mal placé. Je cite "...les applications et les systèmes qui créent un risque inacceptable, tels que les systèmes de notation sociale gérés par le gouvernement, comme ceux utilisés en Chine, sont interdits."
Oui, un système notation basé sur l'IA doit être interdit dans tous les cas et on a beaucoup d'exemples dans le monde professionnel.
Par contre parler de gouvernement chinois et de leur notation individuel est complètement à côté de la plaque vu que ce système n'existe pas.

Extrait d'un article du MIT :
Existe-t-il donc un score de crédit social centralisé calculé pour chaque citoyen chinois ?
Non. Contrairement à la croyance populaire, il n'y a pas de score central de crédit social pour les individus. Et franchement, le gouvernement central chinois n'a jamais parlé d'en vouloir un.


Y a-t-il une technologie de pointe, comme l'intelligence artificielle, impliquée dans le système ?
Pour la plupart, non. C'est un autre mythe courant sur le système de crédit social en Chine : les gens s'imaginent que pour suivre les comportements sociaux de plus d'un milliard de personnes, il doit y avoir un puissant algorithme central qui peut collecter et traiter les données.

Mais ce n'est pas vrai. Puisqu'il n'y a pas de système central qui note tout le monde, ce type d'algorithme puissant n'est même pas nécessaire. Les experts du système de crédit social chinois affirment que l'ensemble de l'infrastructure est étonnamment peu technologique. Alors que les responsables chinois nomment parfois des technologies telles que la blockchain et l'intelligence artificielle lorsqu'ils parlent du système, ils ne parlent jamais en détail de la manière dont ces technologies pourraient être utilisées. Si vous consultez le site Web de Credit China, ce n'est rien de plus qu'une bibliothèque numérisée de bases de données distinctes.


Lien : https://www.technologyreview.com/202...-does-it-mean/
4  0 
Avatar de mith06
Membre expérimenté https://www.developpez.com
Le 16/06/2023 à 11:34
Quand ils vont se rendre compte qu "l'IA" permet de faire de la surveillance de masse, ils vont renommer ca en "algorithme à réseaux de neurone profond" pour contourner leur propre interdiction

les applications et les systèmes qui créent un risque inacceptable, tels que les systèmes d'évaluation sociale gérés par le gouvernement, comme ceux utilisés en Chine, sont interdits ;
Le modèle Chinois c'est leur rêve....

les applications qui ne sont pas explicitement interdites ou répertoriées comme présentant un risque élevé échappent en grande partie à la réglementation.
Normalement tout c'est qui n'est pas interdit est autorisé.
Mais pour ces gens tout ce qui n'est pas autorisé devrait être interdit.
5  1 
Avatar de OrthodoxWindows
Membre émérite https://www.developpez.com
Le 07/02/2024 à 22:16
Encore une étude de greenwashing
4  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 24/03/2024 à 11:22
Et comme pour le 99,9% des résolutions de l'ONU, strictement personne n'en tiendra compte!
4  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 10/04/2024 à 8:28
Je n'ai pas très bien compris ce qui était mesuré pour définir que l'IA émet moins de CO2 qu'un humain pour écrire une page.

Est-ce que l'empreinte carbone des datas center servant à l'IA pour produire sa page est comptée ou non ? Si c'est juste l'empreinte carbone pour l'écriture finale, c'est-à-dire le "pouillème" final, alors l'étude est biaisée.
4  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 23/04/2021 à 23:05
Citation Envoyé par tanaka59 Voir le message
Le projet de loi d'interdiction , c'est du flan . Vu qu'on l'utilise déjà et que des lois liberticides peuvent toujours passées. On l'a vu avec le covid.
Ouais, les lois Européennes sont utiles quand un gouvernement veut faire passer une mesure impopulaire. Il leur suffit de dire "C'est pas nous, c'est l'Europe".

Par contre quand ça ne va pas dans leur sens, ils s'en foutent complètement...
3  0 
Avatar de Cpt Anderson
Membre émérite https://www.developpez.com
Le 11/05/2022 à 16:02
Il n'y a rien de bien clair dans ce rapport : ni les buts, ni la façon de se donner les moyens de créer des pôles d'excellences. C'est flou.
Je le dis et je le répète encore, mais ailleurs, c'est le complexe militaro-industriel qui donne le tempo sur le développement de l'IA. Est les buts sont avant tout militaires.

Au niveau européen, on a pas de complexe militaro-industriel, donc ça ne marchera pas : les industriels privés veulent un retour sur investissent, il faut du concret.
5  2 
Avatar de Thibaut_D
Membre à l'essai https://www.developpez.com
Le 08/02/2023 à 17:08
Citation Envoyé par HaryRoseAndMac Voir le message
La RGPD n'a pas été inventée par l'EU.
Le RGPD à été proposé par la commission pour remplacer un ancien texte (Directive 95/46/CE sur la protection des données personnelles) voté en 1995. Ce n'est pas à cause d'une petition

Citation Envoyé par HaryRoseAndMac Voir le message
L'UE ne conçoit rien du tout, c'est un organe qui a totalement outrepassé sa fonction et qui est devenu un parasite qui vampirise les états membres, qui se permet de dicter sa loi et de dire aux divers pays Européens ce qu'ils doivent faire, en imposant des choses folles, en enrichissant les uns sur le fait de faire couler les autres et j'en passe.

Il ne faut pas sortir de l'Europe, car nous en avons besoin, mais il faut faire un très, très grande ménage dans ce cancer sur pate.
Ce sont les pays membres qui forme l'UE. La commission européenne (exécutif) est formée de 27 commissaires nommé par chaque état membre (1 commissaire par pays). Ce sont donc les états membres qui agissent sur l'UE. Il y a aussi le parlement européen (législatif) dont les députés sont élus par les citoyens de l'Union.

C'est la commission européenne qui à proposé en RGPD donc les états membres donc parfaitement dans ses droits.
3  0 
Avatar de walfrat
Membre émérite https://www.developpez.com
Le 07/03/2023 à 9:27
Citation Envoyé par ciola Voir le message
"ChatGPT présente des preuves de raisonnement déductif et de chaîne de pensée"
Je l'ai essayé pour voir s'il pouvait faire des preuves en géométrie et c'est vraiment pas fameux. Ses démonstrations ressemblent beaucoup aux tentatives d'enfumage de certains de mes étudiants quand ils ne maîtrisent le sujet.
En soi on le sait déjà que les maths sont pas son point fort.

En même temps c'est une IA qui est faite pour des "conversations" plus que des "démonstrations scientifiques".
3  0