L’AI Act est un projet de règlement proposé par la Commission européenne le 21 avril 2021, qui vise à introduire un cadre réglementaire et juridique commun pour l’intelligence artificielle. Son champ d’application couvre tous les secteurs (sauf le militaire) et tous les types d’intelligence artificielle.
Le projet de loi a pour objectif de promouvoir l’adoption de l’IA tout en garantissant le respect des valeurs, des droits fondamentaux et des principes de l’Union européenne. Il prévoit également des mesures pour renforcer la qualité des données, la transparence, la supervision humaine et la responsabilité des utilisateurs et des fournisseurs d’IA.
La pierre angulaire de l’AI Act est un système de classification qui détermine le niveau de risque qu’une technologie d’IA pourrait présenter pour la santé et la sécurité ou les droits fondamentaux d’une personne. Le cadre comprend quatre niveaux de risque : inacceptable, élevé, limité et minimal.
L’accent sur l’IA générative, comme le ChatGPT d’OpenAI, a grimpé à l’ordre du jour depuis que les lois ont été proposées pour la première fois. Une fois entré en vigueur, le texte pourrait infliger des amendes de 40 millions d’euros ou 7 % du chiffre d’affaires mondial total aux organisations qui ne respectent pas les règles.
Le Parlement européen doit débattre de sa législation mardi et la voter mercredi.
Une approche européenne différente de l'approche britannique...
Mais outre les applications interdites, la législation vise à mettre à la charge des développeurs et des utilisateurs d’IA de veiller à ce qu’ils respectent les exigences d’une approche fondée sur les risques, nettement différente de l’approche fondée sur les résultats proposée par le Royaume-Uni. Ce dernier a publié le 29 mars un livre blanc intitulé « une approche pro-innovation de la réglementation de l'IA », qui explique la position du gouvernement selon laquelle les régulateurs existants intégreront les principes dans l'application de leurs pouvoirs existants et fourniront les détails.
Le cabinet d'avocats Osborne Clarke l'a commenté en ces termes :
Le livre blanc propose une approche basée sur les résultats complètement différente de la loi sur l'IA de l'UE (un règlement complexe « descendant », toujours dans le processus législatif après près de deux ans). Il n'y a pas d'interdiction pure et simple proposée pour le Royaume-Uni, pas d'exigences de conformité détaillées sur les données, la documentation, les tests et la certification, pas de nouveau régulateur et pas de nouveaux pouvoirs pour imposer des amendes ou prendre des mesures. Au lieu de cela, le Royaume-Uni envisage une approche «ascendante», dévolue aux régulateurs.
Le risque avec cette approche est qu'un système d'IA problématique devra se présenter dans le bon format pour déclencher la compétence d'un régulateur, et alors le régulateur devra avoir les bons pouvoirs d'application en place pour prendre des mesures décisives et efficaces contre le préjudice et offrir réparation à la partie lésée. En ce qui concerne les sanctions et la réparation, en particulier, certains régulateurs disposent de pouvoirs considérables pour imposer des sanctions dissuasives et réparer les préjudices, mais beaucoup ne le font pas. Comme indiqué, ce paysage inégal ne semble pas avoir été cartographié : il semble que le gouvernement va simplement attendre et voir ce qui se passe.
Le risque avec cette approche est qu'un système d'IA problématique devra se présenter dans le bon format pour déclencher la compétence d'un régulateur, et alors le régulateur devra avoir les bons pouvoirs d'application en place pour prendre des mesures décisives et efficaces contre le préjudice et offrir réparation à la partie lésée. En ce qui concerne les sanctions et la réparation, en particulier, certains régulateurs disposent de pouvoirs considérables pour imposer des sanctions dissuasives et réparer les préjudices, mais beaucoup ne le font pas. Comme indiqué, ce paysage inégal ne semble pas avoir été cartographié : il semble que le gouvernement va simplement attendre et voir ce qui se passe.
La Grande-Bretagne est optimiste quant à la promotion d'une « approche proportionnée qui favorise la croissance et l'innovation ». Michelle Donelan, secrétaire d'État aux sciences, à l'innovation et à la technologie, a déclaré :
Après avoir quitté l'Union européenne, nous sommes libres d'établir une approche réglementaire qui nous permet de faire du Royaume-Uni une superpuissance de l'IA. C'est une approche qui soutiendra activement l'innovation tout en tenant compte des risques et des préoccupations du public. Le Royaume-Uni abrite des start-up prospères, que notre framework soutiendra pour les aider à se développer et être compétitives à l'échelle internationale. Notre approche pro-innovation agira également comme une forte incitation lorsqu'il s'agira d'établir une présence au Royaume-Uni pour les entreprises d'IA basées à l'étranger. Le livre blanc énonce notre engagement à nous engager à l'échelle internationale pour soutenir l'interopérabilité entre différents régimes réglementaires. Non seulement cela allégera le fardeau des entreprises, mais cela nous permettra également d'intégrer nos valeurs à mesure que les approches mondiales de gouvernance de l'IA se développent.
Notre approche repose sur la collaboration entre le gouvernement, les régulateurs et les entreprises. Dans un premier temps, nous n'avons pas l'intention d'introduire de nouvelle législation. En se précipitant trop tôt pour légiférer, on risquerait d'imposer un fardeau indu aux entreprises. Mais en plus de donner aux régulateurs les moyens de prendre les devants, nous définissons également des attentes. Nos nouvelles fonctions de surveillance fourniront une évaluation en temps réel de la performance du cadre réglementaire afin que nous puissions être sûrs qu'il est proportionné. Le rythme du développement technologique signifie également que nous devons comprendre les risques nouveaux et émergents, en nous engageant avec des experts pour nous assurer que nous prenons des mesures si nécessaire. Un élément essentiel de cette activité consistera à dialoguer avec le public pour comprendre ses attentes, sensibiliser au potentiel de l'IA et démontrer que nous répondons aux préoccupations.
Notre approche repose sur la collaboration entre le gouvernement, les régulateurs et les entreprises. Dans un premier temps, nous n'avons pas l'intention d'introduire de nouvelle législation. En se précipitant trop tôt pour légiférer, on risquerait d'imposer un fardeau indu aux entreprises. Mais en plus de donner aux régulateurs les moyens de prendre les devants, nous définissons également des attentes. Nos nouvelles fonctions de surveillance fourniront une évaluation en temps réel de la performance du cadre réglementaire afin que nous puissions être sûrs qu'il est proportionné. Le rythme du développement technologique signifie également que nous devons comprendre les risques nouveaux et émergents, en nous engageant avec des experts pour nous assurer que nous prenons des mesures si nécessaire. Un élément essentiel de cette activité consistera à dialoguer avec le public pour comprendre ses attentes, sensibiliser au potentiel de l'IA et démontrer que nous répondons aux préoccupations.
... et de l'approche américaine
Jusqu'à présent, les États-Unis n'ont pas réussi à faire des propositions législatives fédérales spécifiques à l'IA, bien que la Maison-Blanche ait publié un projet de déclaration des droits de l'IA destiné à « guider une société ».
En octobre, a Maison-Blanche a proposé un "Blueprint for an AI Bill of Rights", un ensemble de principes et de pratiques visant à guider « la conception, l'utilisation et le déploiement de systèmes automatisés, dans le but de protéger les droits des Américains à l'ère de l'intelligence artificielle », selon la Maison-Blanche. Le plan directeur est un ensemble de lignes directrices non contraignantes ou de suggestions fournissant une "déclaration de valeurs nationales" et une boîte à outils pour aider les législateurs et les entreprises à intégrer les protections proposées dans les politiques et les produits. La Maison-Blanche a élaboré ce projet après un processus d'un an qui a permis de recueillir les avis et observations de personnes de tout le pays « sur la question des préjudices causés par les algorithmes et les données et sur les solutions possibles ». Toutefois, les critiques affirment que ce plan manque de mordant et que les États-Unis ont besoin d'une réglementation encore plus stricte en matière d'IA.
Le document aborde les préoccupations concernant les préjugés dans les systèmes d'IA, la surveillance basée sur l'IA, les décisions injustes en matière de soins de santé ou d'assurance, la sécurité des données et bien plus encore dans le contexte des libertés civiles américaines, de la justice pénale, de l'éducation et du secteur privé. « Parmi les grands défis posés à la démocratie aujourd'hui figure l'utilisation de la technologie, des données et des systèmes automatisés d'une manière qui menace les droits du public américain. Trop souvent, ces outils sont utilisés pour limiter nos possibilités et empêcher notre accès à des ressources ou des services essentiels, peut-on lire dans l'avant-propos du plan directeur.
Un ensemble de cinq principes élaborés par le Bureau de la politique scientifique et technologique de la Maison-Blanche incarne le cœur du plan directeur de l'IA :
- "des systèmes sûrs et efficaces", qui mettent l'accent sur le retour d'information de la communauté dans le développement des systèmes d'IA et sur les protections contre l'IA "non sûre" ;
- "des protections contre la discrimination algorithmique", qui propose que l'IA soit déployée de manière équitable sans discrimination ;
- "la confidentialité des données", qui recommande que les gens aient un droit de regard sur la manière dont les données les concernant sont utilisées ;
- "la notification et l'explication, qui signifie que les gens devraient savoir comment et pourquoi un système basé sur l'IA a pris une décision ;
- "les alternatives humaines, la considération et le retour en arrière", qui recommande que les gens doivent être en mesure de refuser les décisions basées sur l'IA et d'avoir accès au jugement d'un humain dans le cas d'erreurs de l'IA.
L'administration Biden explique par exemple que les individus doivent être protégés de la discrimination par des algorithmes :
Vous ne devez pas être victime de discrimination par des algorithmes et les systèmes doivent être utilisés et conçus de manière équitable. La discrimination algorithmique se produit lorsque les systèmes automatisés contribuent à un traitement différent injustifié ou ont un impact défavorable sur les personnes en raison de leur race, couleur, origine ethnique, sexe (y compris grossesse, accouchement et conditions médicales connexes, identité de genre, statut intersexué et orientation sexuelle), religion, âge , origine nationale, handicap, statut d'ancien combattant, informations génétiques ou toute autre classification protégée par la loi.
Selon les circonstances spécifiques, une telle discrimination algorithmique peut violer les protections légales. Les concepteurs, développeurs et déployeurs de systèmes automatisés doivent prendre des mesures proactives et continues pour protéger les individus et les communautés contre la discrimination algorithmique et pour utiliser et concevoir des systèmes de manière équitable. Cette protection devrait inclure des évaluations proactives de l'équité dans le cadre de la conception du système, l'utilisation de données représentatives et une protection contre les proxys pour les caractéristiques démographiques, garantissant l'accessibilité pour les personnes handicapées dans la conception et le développement, le pré-déploiement et les tests et l'atténuation des disparités en cours, et une organisation claire de surveillance. Une évaluation indépendante et des rapports en langage clair sous la forme d'une évaluation d'impact algorithmique, y compris les résultats des tests de disparité et les informations d'atténuation, doivent être effectués et rendus publics dans la mesure du possible pour confirmer ces protections.
Selon les circonstances spécifiques, une telle discrimination algorithmique peut violer les protections légales. Les concepteurs, développeurs et déployeurs de systèmes automatisés doivent prendre des mesures proactives et continues pour protéger les individus et les communautés contre la discrimination algorithmique et pour utiliser et concevoir des systèmes de manière équitable. Cette protection devrait inclure des évaluations proactives de l'équité dans le cadre de la conception du système, l'utilisation de données représentatives et une protection contre les proxys pour les caractéristiques démographiques, garantissant l'accessibilité pour les personnes handicapées dans la conception et le développement, le pré-déploiement et les tests et l'atténuation des disparités en cours, et une organisation claire de surveillance. Une évaluation indépendante et des rapports en langage clair sous la forme d'une évaluation d'impact algorithmique, y compris les résultats des tests de disparité et les informations d'atténuation, doivent être effectués et rendus publics dans la mesure du possible pour confirmer ces protections.
Sources : gouvernement britannique, Osborne Clarke, Maison Blanche
Et vous ?
Que pensez-vous de l’approche fondée sur les risques de l’UE pour réglementer l’IA?
Que pensez-vous de l'approche britannique qui relève plus de l'observation qu'autre chose ?
Que pensez-vous de l'approche américaine qui se contente de faire des recommandations sans faire de proposition de loi pour encadrer le développement de l'IA ?