Des analystes ont comparé les approches utilisées par l’Australie, la Grande-Bretagne, la Chine, l’Union européenne, la France et l’Irlande dans l'encadrement de l’utilisation et le développement de l’IA. Ils mettent en évidence les avantages et les risques de l’IA pour la société et les droits civils, et appellent à une collaboration internationale et à une participation des communautés marginalisées pour élaborer des cadres éthiques et juridiques adaptés à l’IA.
La Commission de l'Union européenne a été à l'avant-garde des efforts visant à mettre en place des instruments de renseignement. En avril 2021, l'UE a dévoilé une proposition de lignes directrices visant à structurer la tournure des événements et l'utilisation des dispositifs de renseignement informatisés sur l'ensemble du territoire. Ces lignes directrices exigeraient des ingénieurs en intelligence artificielle qu'ils se conforment à des principes moraux stricts et interdiraient certaines utilisations de l'intelligence artificielle, par exemple celles qui pourraient être utilisées pour contrôler des individus ou opprimer des groupes spécifiques.
Dans le cas des États-Unis, la Maison blanche a publié un plan d’action sur son site officiel pour protéger les droits civils des citoyens américains à l’ère de l’intelligence artificielle et des systèmes automatisés. Elle s’inspire de la vision du président Biden, qui a affirmé les principes de l’équité, de la justice et de la démocratie comme fondements de son administration.
Le gouvernement américain propose cinq principes et des pratiques associées pour orienter la conception, l’utilisation et le déploiement de ces systèmes de manière à renforcer les valeurs démocratiques.
Les cinq principes proposés par la Maison blanche dans ce plan d’action sont les suivants :
- Systèmes sûrs et efficaces : vous devriez être protégé(e) des systèmes dangereux ou inefficaces ;
- Protection contre la discrimination algorithmique : vous ne devriez pas faire l’objet de discrimination par les algorithmes et les systèmes devraient être utilisés et conçus de manière équitable ;
- Protection des données personnelles : vous devriez être protégé(e) des pratiques abusives en matière de données grâce à des protections intégrées et vous devriez avoir un contrôle sur la façon dont les données vous concernant sont utilisées ;
- Notification et explication : vous devriez savoir quand un système automatisé est utilisé et comprendre comment et pourquoi il contribue aux résultats qui vous impactent ;
- Alternatives, considération et recours humains : vous devriez pouvoir vous désengager, le cas échéant, et avoir accès à une personne qui peut rapidement examiner et résoudre les problèmes que vous rencontrez.
Ces principes visent à garantir la sécurité, l’efficacité, l’équité, la protection des données, la transparence et le choix des utilisateurs face aux systèmes automatisés. Le plan d’action proposé par la maison blanche est accompagné d’un guide pratique pour aider les acteurs concernés à mettre en œuvre ces principes dans leurs politiques et leurs pratiques.
Le texte offre une vision d’une société où les protections sont intégrées dès le départ, où les communautés marginalisées ont une voix dans le processus de développement, et où les concepteurs travaillent dur pour que les bénéfices des technologies atteignent toutes les personnes.
Voici, ci-dessous, quelques mesures prises par les instances nationales et internationales pour réglementer les outils d'IA :
Alors que l'Australie a demandé conseil à son principal organe consultatif scientifique sur la façon de répondre à l’IA et envisage les prochaines étapes, la Grande-Bretagne a prévu de répartir la responsabilité de la gouvernance de l’IA entre ses régulateurs des droits de l’homme, de la santé et de la sécurité, et de la concurrence, plutôt que de créer un nouvel organisme.
La France aurait lancé une enquête sur plusieurs plaintes concernant l’outil d’IA ChatGPT. Dans le même temps, l’Irlande a déclaré que l’IA générative devait être réglementée, mais qu’il fallait trouver comment le faire correctement avant de se précipiter vers des interdictions qui « ne tiendraient pas ».
La Chine a dévoilé des mesures provisoires pour gérer les services d’IA générative
Le gouvernement chinois exige que les entreprises soumettent des évaluations de sécurité aux autorités avant de lancer des offres au public. La Chine a publié un projet de règlement pour encadrer le développement des technologies d’IA générative, telles que ChatGPT. Les opérateurs devront soumettre leurs applications à des examens de sécurité et respecter des lignes directrices sur le contenu.
Le but est de garantir l’utilisation sûre et fiable de ces outils et de prévenir la diffusion de fausses informations. Cette initiative intervient alors que les États-Unis sollicitent par ailleurs l’avis du public sur la responsabilité de l’IA.
Selon le projet de règlement, les opérateurs devront envoyer leurs applications aux régulateurs pour des « examens de sécurité » avant d’offrir les services au public. Ils ne doivent pas non plus utiliser les algorithmes et les données de l’IA pour se livrer à une concurrence déloyale. Le projet de règlement établit également des lignes directrices auxquelles les services d’IA générative doivent se conformer, telles que les types de contenu que ces applications peuvent générer. Ces lignes directrices garantiront l’exactitude des informations et empêcheront la diffusion de fausses informations.
L’Allemagne envisage d’interdire ChatGPT après l’Italie
Le lundi 3 avril, le commissaire allemand à la protection des données, Ulrich Kelber, a déclaré que son pays pourrait s'inspirer de la récente interdiction de ChatGPT par l'Italie et prendre une mesure similaire. Après que l'agence italienne de protection des données a lancé une enquête sur une violation présumée des règles de confidentialité par ChatGPT, Kelber a déclaré que, « en principe, une telle action est aussi possible en Allemagne ». Il a ajouté que cela relèverait de la compétence de chacun des États fédéraux du pays.
Toutefois, malgré ces agacements pour la réglementation de l’IA, il convient de noter que cette technologie présente quelques avantages potentiels de l’IA pour l’innovation et le bien-être social, mais aussi les risques qu’elle pose pour les droits civils, la vie privée et l’équité. Il appelle à une collaboration internationale et à une participation des communautés marginalisées pour élaborer des cadres éthiques et juridiques adaptés à l’IA.
Source : Reuters
Et vous ?
Quels sont, selon vous, les risques de l’IA et de ChatGPT pour la vie privée et la sécurité des citoyens ?
À votre avis, quels peuvent être les critères à utiliser par les gouvernements pour réguler l’IA et ChatGPT ?
Les limites des pratiques proposées par la Maison blanche pour protéger les droits civils à l’ère de l’IA et des systèmes automatisés vous convainc-t-elle ?
Quelles pourraient être les voix et les perspectives exclues ou marginalisées dans l’élaboration des cadres éthiques et juridiques adaptés à l’IA ?
Voir aussi :
L'Allemagne envisage d'emboîter le pas à l'Italie en interdisant l'utilisation de ChatGPT, évoquant une violation présumée des règles de confidentialité par le chatbot d'IA d'OpenAI
La Chine veut utiliser les supercalculateurs pour accélérer la transformation numérique et le développement de l'intelligence artificielle