IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

L'UNESCO adopte le tout premier accord mondial sur l'éthique de l'intelligence artificielle,
Les droits civils et la protection des données sont bien plus importants que les profits des entreprises

Le , par Bruno

15PARTAGES

9  0 
De la surveillance biométrique de masse à la reconnaissance faciale en passant les empreintes digitales, les applications de l'IA jugées seraient risquées pour certains observateurs. C’est dans ce contexte de doute, de peur et de rejet face à l’IA que Audrey Azoulay, Directrice générale de l'UNESCO a présenté jeudi la toute première norme mondiale sur l'éthique de l'intelligence artificielle adoptée par les Etats membres de l'UNESCO lors de la Conférence générale.

« Le monde a besoin de règles pour que l'intelligence artificielle profite à l'humanité. La recommandation sur l'éthique de l'IA est une réponse majeure. Elle fixe le premier cadre normatif mondial tout en donnant aux États la responsabilité de l'appliquer à leur niveau. L'UNESCO soutiendra ses 193 États membres dans sa mise en œuvre et leur demandera de rendre compte régulièrement de leurs progrès et de leurs pratiques », a déclaré Audrey Azoulay, Directrice générale de l'UNESCO.

Ce texte historique définit les valeurs et principes communs qui guideront la construction de l'infrastructure juridique nécessaire pour assurer le développement sain de l'IA. L'IA est omniprésente et permet un grand nombre des routines quotidiennes, réserver des vols, conduire des voitures autonomes et personnaliser les fils d'actualité du matin. L'IA soutient également la prise de décision des gouvernements et du secteur privé.


Cependant, « nous n'avons aucune information sur les motivations réelles de l'utilisation de l’IA dans les espaces publics par les entreprises et nos gouvernements », soutient le collectif Reclaim your Face, une coalition composée de plusieurs associations de défense des libertés. Pour le groupe de défense des droits et des libertés, l'introduction de ces technologies se fait dans le secret, sans preuve claire de sa nécessité.

Par exemple, la surveillance de masse est interdite par la législation européenne. De plus, les données biométriques sont particulièrement sensibles au regard des lois européennes sur les données personnelles. La combinaison des données biométriques et de la surveillance de masse pourrait donner lieu à une pratique illégale qui traite injustement tout le monde comme un suspect. Elle violerait les droits à la liberté d’expression, à se réunir, à dénoncer les injustices et à vivre sans discrimination.

« Nos qualités, nos comportements, nos émotions, nos caractéristiques sont utilisés contre nous. Notre dignité est menacée ! Les gens sont objectivés, chosifiés, déshumanisés. De plus, l'utilisation de technologies comme la reconnaissance faciale est manipulatrice, par exemple en forçant les gens à éviter certains lieux ou certains événements », déclare Reclaim your Face.

Jennifer Baker, militante des droits numériques et correspondante de l'IAPP pour la politique européenne de protection de la vie privée, a déclaré que pour elle, les droits civils et la protection des données sont bien plus importants que les profits des entreprises. Elle a déclaré qu'il y a des questions majeures qui ne sont pas abordées, qui affectent déjà les citoyens à leur insu, comme qui possède les données et comment les systèmes d'IA les traitent, et comment les préjugés et la discrimination sont intégrés dans ces systèmes. « Nous ne savons même pas combien de ces choses sont déjà là parce qu'il y a eu une ruée vers les profits », a-t-elle noté. Voici, ci-dessous quelques applications de l’IA :

La Biométrie

Les données biométriques comprennent les données relatives à notre corps ou à notre comportement : empreinte digitale, empreinte palmaire, veines de la paume, reconnaissance du visage, ADN, géométrie de la main, reconnaissance de l'iris, reconnaissance de la rétine, rythme de frappe, façon de marcher, voix et bien d'autres choses encore.

En Europe et dans le monde, des entreprises "innovent" pour tenter de trouver de nouveaux moyens de capturer l’identité des citoyens : la structure des veines, la façon dont les poids sont repartis sur une chaise, le visage lorsqu’un masque est porté. Pourtant, en vertu de la législation européenne sur la protection des données, les données biométriques sont particulièrement sensibles. Ces données sont liées à nos identités individuelles et peuvent être utilisées pour déduire des informations protégées et intimes sur l’identité, la santé et plus encore.

Biométrie de masse

La surveillance biométrique de masse désigne toute surveillance, tout suivi et tout autre traitement des données biométriques d'individus ou de groupes de manière indiscriminée ou arbitrairement ciblée. Lorsqu'il est utilisé pour scanner tout le monde dans des espaces publics ou accessibles au public (une forme de surveillance de masse) ou dans des situations de grands déséquilibres de pouvoir, le traitement biométrique viole un large éventail de droits fondamentaux. Il peut avoir un « effet paralysant » sur des libertés fondamentales telles que l'expression et le rassemblement. Le profilage fondé sur le traitement de ces données peut entraîner de graves violations du droit à la non-discrimination.

La reconnaissance faciale

La reconnaissance faciale est un processus qui permet de capturer et d'analyser les données du visage d'une personne, et de les utiliser pour prédire qui est cette personne, ou si elle correspond à une certaine image (comme sur un passeport ou une liste de surveillance de la police). La reconnaissance faciale est de plus en plus courante dans les espaces publics. De nombreuses raisons expliquent ce phénomène, notamment l'augmentation de la capacité de traitement des données au cours des dernières années, les progrès technologiques permettant de capturer à distance les données du visage des personnes et les affirmations de certains gouvernements selon lesquelles la reconnaissance faciale améliorera la sécurité publique.

Pour l’organisation Reclaim your Face, il s'agit d'une forme de « surveillance biométrique de masse », car elle utilise les données du visage des personnes (qui sont un type de données biométriques) pour les observer et les analyser. En scannant le visage de toutes les personnes présentes dans les espaces publics, ou en ciblant des individus de manière arbitraire, elle constitue une forme de surveillance de masse. Elle peut entraîner une interférence disproportionnée avec de nombreux droits fondamentaux et amplifier la discrimination à l'égard des groupes minoritaires. Elle est antidémocratique et limite la manière dont chacun peut vivre dans les espaces publics et en profiter.

S’il est vrai que les technologies d’IA apportent de nouveaux défis sans précédent, il n’en n’est pas moins vrai que ces technologies donnent des résultats remarquables dans des domaines innovants comme la conduite des voitures autonomes, l’aide à la décision et bien plus. L'UNESCO devrait veiller à ne réglementer que les applications de l'IA jugées risquées, et non l'ensemble des applications. Des signaux inquiétants indiquent que le reste du monde prend du retard par rapport aux États-Unis et à la Chine en matière d’IA. Les discussions éthiques ne devraient pas nous détourner de la discussion sur la compétitivité.

En 2018, Audrey Azoulay, directrice générale de l'UNESCO, a lancé un projet ambitieux : donner au monde un cadre éthique pour l'utilisation de l'intelligence artificielle. Trois ans plus tard, grâce à la mobilisation de centaines d'experts du monde entier et d'intenses négociations internationales, les 193 États membres de l'UNESCO viennent d'adopter officiellement ce cadre éthique.

La recommandation vise à concrétiser les avantages que l'IA apporte à la société et à réduire les risques qu'elle comporte. Elle veille à ce que les transformations numériques promeuvent les droits de l'homme et contribuent à la réalisation des Objectifs de développement durable, en abordant les questions autour de la transparence, de la responsabilité et de la vie privée, avec des chapitres politiques orientés vers l'action sur la gouvernance des données, l'éducation, la culture, le travail, les soins de santé et l'économie. Voici, ci-dessous, le contenu de la recommandation :

Protéger les données

La recommandation appelle à aller au-delà de ce que font les entreprises technologiques et les gouvernements pour garantir aux individus une meilleure protection en leur assurant la transparence, l'autonomie et le contrôle de leurs données personnelles. Elle stipule que tous les individus devraient être en mesure d'accéder à leurs données personnelles, voire de les effacer. Elle prévoit également des actions visant à améliorer la protection des données et la connaissance qu'ont les individus de leurs propres données, ainsi que leur droit de les contrôler. Elle accroît également la capacité des organismes de réglementation du monde entier à faire respecter ces dispositions.

Interdire le social scoring et la surveillance de masse

La recommandation interdit explicitement l'utilisation de systèmes d'IA pour le social scoring et la surveillance de masse. Ces types de technologies sont très invasives, elles portent atteinte aux droits de l'homme et aux libertés fondamentales, et elles sont utilisées à grande échelle. La recommandation souligne que, lors de l'élaboration de cadres réglementaires, les États membres devraient tenir compte du fait que la responsabilité et l'obligation de rendre des comptes incombent toujours en dernier ressort aux êtres humains et que les technologies d'IA ne devraient pas être dotées elles-mêmes de la personnalité juridique.

Aider au suivi et à l'évaluation

La recommandation jette également les bases des outils qui contribueront à sa mise en œuvre. L'évaluation de l'impact éthique est destinée à aider les pays et les entreprises qui développent et déploient des systèmes d'IA à évaluer l'impact de ces systèmes sur les individus, sur la société et sur l'environnement. La méthodologie d'évaluation de l'état de préparation aide les États membres à évaluer dans quelle mesure ils sont prêts en termes d'infrastructure juridique et technique. Cet outil contribuera à renforcer la capacité institutionnelle des pays et recommandera les mesures appropriées à prendre afin de garantir la mise en œuvre de l'éthique dans la pratique. En outre, la recommandation encourage les États membres à envisager d'ajouter le rôle d'un responsable de l'éthique de l'IA indépendant ou un autre mécanisme pour superviser les efforts d'audit et de contrôle continu.

Protection de l'environnement

La recommandation souligne que les acteurs de l'IA devraient privilégier les méthodes d'IA économes en données, en énergie et en ressources qui contribueront à faire de l'IA un outil plus important dans la lutte contre le changement climatique et dans la résolution des problèmes environnementaux. La recommandation demande aux gouvernements d'évaluer l'impact environnemental direct et indirect tout au long du cycle de vie du système d'IA. Cela inclut son empreinte carbone, sa consommation d'énergie et l'impact environnemental de l'extraction des matières premières nécessaires à la fabrication des technologies d'IA. Elle vise également à réduire l'impact environnemental des systèmes d'IA et des infrastructures de données. Elle incite les gouvernements à investir dans les technologies vertes, et si les systèmes d'IA ont un impact négatif disproportionné sur l'environnement, la recommandation indique qu'ils ne devraient pas être utilisés.


« Les décisions ayant un impact sur des millions de personnes doivent être équitables, transparentes et contestables. Ces nouvelles technologies doivent nous aider à relever les grands défis du monde actuel, tels que l'accroissement des inégalités et la crise environnementale, et non les aggraver », a déclaré Gabriela Ramos, Sous-directrice générale de l'UNESCO pour les sciences sociales et humaines.

Source : UNESCO

Et vous ?

Que pensez-vous de l'Intelligence artificielle et ses différentes applications ?

Quel est votre avis sur l'adoption par l'UNESCO du tout premier accord mondial sur l'éthique de l'IA ?

« Les discussions éthiques ne devraient pas nous détourner de la discussion sur la compétitivité », partagez-vous cette opinion ?

Croyez-vous à une possible duperie des citoyens par les entreprises et nos gouvernements quant à l'utilisation de l'IA ?

Voir aussi :

Le nouveau Gouvernement allemand demande une interdiction européenne de la surveillance de masse biométrique, 83 % des Européens seraient opposés au partage des données de leur visage

Le Parlement européen a voté en faveur d'une interdiction totale de la surveillance biométrique de masse par les forces de l'ordre

La surveillance du lieu de travail par l'IA est en plein essor et nuit à la santé mentale des travailleurs, des députés britanniques demandent un renforcement de la réglementation pour y palier

l'UE devrait interdire le scoring des citoyens et la surveillance de masse à l'aide de l'IA, selon un groupe d'experts de haut niveau

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Aiekick
Membre extrêmement actif https://www.developpez.com
Le 30/11/2021 à 10:29
voila qui va freiner le developpment de l'ia
la chine, la russie et les etats unis n'en auroant rien a faire comme d'hab
et tout les autres vont etre bloqué par ce truc..

comment ce tirer une balle dans le pied.

ceux qui ont voter ca sont ceux qui craigait de subir l'ia, les faibles donc,
au lieu au contraire de develloper des moyen de contre mesure.
1  2