IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

L'IA et les droits civils : comment les pays s'adaptent à ChatGPT,
Et aux autres technologies qui échappent à tout contrôle

Le , par Bruno

5PARTAGES

3  0 
L’IA évolue rapidement et l’outil ChatGPT d’OpenAI, qui bénéficie du soutien de Microsoft, en est un exemple. Cette technologie pose des défis juridiques aux gouvernements qui peinent à trouver un consensus sur la façon de la réguler.

Des analystes ont comparé les approches utilisées par l’Australie, la Grande-Bretagne, la Chine, l’Union européenne, la France et l’Irlande dans l'encadrement de l’utilisation et le développement de l’IA. Ils mettent en évidence les avantages et les risques de l’IA pour la société et les droits civils, et appellent à une collaboration internationale et à une participation des communautés marginalisées pour élaborer des cadres éthiques et juridiques adaptés à l’IA.


La Commission de l'Union européenne a été à l'avant-garde des efforts visant à mettre en place des instruments de renseignement. En avril 2021, l'UE a dévoilé une proposition de lignes directrices visant à structurer la tournure des événements et l'utilisation des dispositifs de renseignement informatisés sur l'ensemble du territoire. Ces lignes directrices exigeraient des ingénieurs en intelligence artificielle qu'ils se conforment à des principes moraux stricts et interdiraient certaines utilisations de l'intelligence artificielle, par exemple celles qui pourraient être utilisées pour contrôler des individus ou opprimer des groupes spécifiques.

Dans le cas des États-Unis, la Maison blanche a publié un plan d’action sur son site officiel pour protéger les droits civils des citoyens américains à l’ère de l’intelligence artificielle et des systèmes automatisés. Elle s’inspire de la vision du président Biden, qui a affirmé les principes de l’équité, de la justice et de la démocratie comme fondements de son administration.

Le gouvernement américain propose cinq principes et des pratiques associées pour orienter la conception, l’utilisation et le déploiement de ces systèmes de manière à renforcer les valeurs démocratiques.

Les cinq principes proposés par la Maison blanche dans ce plan d’action sont les suivants :

  1. Systèmes sûrs et efficaces : vous devriez être protégé(e) des systèmes dangereux ou inefficaces ;
  2. Protection contre la discrimination algorithmique : vous ne devriez pas faire l’objet de discrimination par les algorithmes et les systèmes devraient être utilisés et conçus de manière équitable ;
  3. Protection des données personnelles : vous devriez être protégé(e) des pratiques abusives en matière de données grâce à des protections intégrées et vous devriez avoir un contrôle sur la façon dont les données vous concernant sont utilisées ;
  4. Notification et explication : vous devriez savoir quand un système automatisé est utilisé et comprendre comment et pourquoi il contribue aux résultats qui vous impactent ;
  5. Alternatives, considération et recours humains : vous devriez pouvoir vous désengager, le cas échéant, et avoir accès à une personne qui peut rapidement examiner et résoudre les problèmes que vous rencontrez.

Ces principes visent à garantir la sécurité, l’efficacité, l’équité, la protection des données, la transparence et le choix des utilisateurs face aux systèmes automatisés. Le plan d’action proposé par la maison blanche est accompagné d’un guide pratique pour aider les acteurs concernés à mettre en œuvre ces principes dans leurs politiques et leurs pratiques.

Le texte offre une vision d’une société où les protections sont intégrées dès le départ, où les communautés marginalisées ont une voix dans le processus de développement, et où les concepteurs travaillent dur pour que les bénéfices des technologies atteignent toutes les personnes.

Voici, ci-dessous, quelques mesures prises par les instances nationales et internationales pour réglementer les outils d'IA :

Alors que l'Australie a demandé conseil à son principal organe consultatif scientifique sur la façon de répondre à l’IA et envisage les prochaines étapes, la Grande-Bretagne a prévu de répartir la responsabilité de la gouvernance de l’IA entre ses régulateurs des droits de l’homme, de la santé et de la sécurité, et de la concurrence, plutôt que de créer un nouvel organisme.

La France aurait lancé une enquête sur plusieurs plaintes concernant l’outil d’IA ChatGPT. Dans le même temps, l’Irlande a déclaré que l’IA générative devait être réglementée, mais qu’il fallait trouver comment le faire correctement avant de se précipiter vers des interdictions qui « ne tiendraient pas ».

La Chine a dévoilé des mesures provisoires pour gérer les services d’IA générative

Le gouvernement chinois exige que les entreprises soumettent des évaluations de sécurité aux autorités avant de lancer des offres au public. La Chine a publié un projet de règlement pour encadrer le développement des technologies d’IA générative, telles que ChatGPT. Les opérateurs devront soumettre leurs applications à des examens de sécurité et respecter des lignes directrices sur le contenu.

Le but est de garantir l’utilisation sûre et fiable de ces outils et de prévenir la diffusion de fausses informations. Cette initiative intervient alors que les États-Unis sollicitent par ailleurs l’avis du public sur la responsabilité de l’IA.

Selon le projet de règlement, les opérateurs devront envoyer leurs applications aux régulateurs pour des « examens de sécurité » avant d’offrir les services au public. Ils ne doivent pas non plus utiliser les algorithmes et les données de l’IA pour se livrer à une concurrence déloyale. Le projet de règlement établit également des lignes directrices auxquelles les services d’IA générative doivent se conformer, telles que les types de contenu que ces applications peuvent générer. Ces lignes directrices garantiront l’exactitude des informations et empêcheront la diffusion de fausses informations.

L’Allemagne envisage d’interdire ChatGPT après l’Italie

Le lundi 3 avril, le commissaire allemand à la protection des données, Ulrich Kelber, a déclaré que son pays pourrait s'inspirer de la récente interdiction de ChatGPT par l'Italie et prendre une mesure similaire. Après que l'agence italienne de protection des données a lancé une enquête sur une violation présumée des règles de confidentialité par ChatGPT, Kelber a déclaré que, « en principe, une telle action est aussi possible en Allemagne ». Il a ajouté que cela relèverait de la compétence de chacun des États fédéraux du pays.

Toutefois, malgré ces agacements pour la réglementation de l’IA, il convient de noter que cette technologie présente quelques avantages potentiels de l’IA pour l’innovation et le bien-être social, mais aussi les risques qu’elle pose pour les droits civils, la vie privée et l’équité. Il appelle à une collaboration internationale et à une participation des communautés marginalisées pour élaborer des cadres éthiques et juridiques adaptés à l’IA.

Source : Reuters

Et vous ?

Quels sont, selon vous, les risques de l’IA et de ChatGPT pour la vie privée et la sécurité des citoyens ?

À votre avis, quels peuvent être les critères à utiliser par les gouvernements pour réguler l’IA et ChatGPT ?

Les limites des pratiques proposées par la Maison blanche pour protéger les droits civils à l’ère de l’IA et des systèmes automatisés vous convainc-t-elle ?

Quelles pourraient être les voix et les perspectives exclues ou marginalisées dans l’élaboration des cadres éthiques et juridiques adaptés à l’IA ?

Voir aussi :

L'Allemagne envisage d'emboîter le pas à l'Italie en interdisant l'utilisation de ChatGPT, évoquant une violation présumée des règles de confidentialité par le chatbot d'IA d'OpenAI

La Chine veut utiliser les supercalculateurs pour accélérer la transformation numérique et le développement de l'intelligence artificielle

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 04/05/2023 à 9:08
C'est juste du blabla, un gros nuage de fumée, pour se faire passer pour le "gentil" de l'histoire et surtout... se dédouaner! Quand cela finira mal, il lui sera facile de dire "Mais on vous avez prévenu... Ce sont les politiques, les gouvernements qui sont responsables de n'avoir rien fait pour éviter le pire!"

Le mec n'est pas le premier "apprenti sorcier de l'IA" a appelé de ses voeux une "régulation de l'IA" tout en sachant parfaitement que cela ne se fera jamais!!!!

30 ans après l'invention de l'internet, il n'y a toujours pas aujourd'hui une loi régulant les pratiques de l'internet reconnue par l'ensemble des pays...

Prenons l'exemple de la protection des données privée des utilisateurs de l'internet... Il a fallu 30 ans pour que l'Union Européenne nous pondent le RGPD, un "règlement" qui ne s'applique qu'à moins de 500 000 personnes sur l'ensemble d'une planète qui en compte presque 10 milliards et encore, il faut vite le dire parce qu'en réalité il ne s'applique même pas au 500 000 européens puisque la totalité de ces gens utilisent des services dont les données sont stockées aux USA qui se "fout" royalement du RGPD des européens.

Les acteurs de l'IA peuvent transformer le monde et son organisation sociale en champs de ruines et envoyer les 3/4 des gens au chômage en toute quiétude, aucune loi ne les en empêchera (cf. Microsoft qui dit suspendre l'engagement de certains profils parce qu'ils pensent pouvoir remplacer 7 800 employés grâce à l'utilisation de l'IA)!

Et ce ne sont pas les 2 ou 3 gugusses qui nous expriment leur remords d'avoir inventer le monstre qui changeront quoique ce soit... Il y a trop de fric à se faire!!!
2  1