
des engagements volontaires qui sont déjà critiqués pour l'absence de mesures punitives
Face aux profondes inquiétudes suscitées par les risques posés par l’intelligence artificielle, l’administration Biden a obtenu les engagements de sept entreprises technologiques (parmi lesquelles OpenAI, Google et Meta) qui ont promis de respecter des principes de sécurité, de confiance et de transparence dans le développement de l’IA. Des représentants de sept «entreprises leaders en IA» (Amazon, Anthropic, Google, Inflection, Meta, Microsoft et OpenAI) doivent participer à un événement vendredi à la Maison Blanche pour annoncer que l’administration Biden-Harris a obtenu des engagements volontaires des entreprises pour «contribuer à une évolution sûre, sécurisée et transparente de la technologie IA», selon la Maison Blanche.
« Les entreprises qui développent ces technologies émergentes ont la responsabilité de garantir la sécurité de leurs produits », a déclaré l’administration Biden dans un communiqué vendredi. « Pour tirer le meilleur parti du potentiel de l’IA, l’administration Biden-Harris encourage cette industrie à respecter les normes les plus élevées pour garantir que l’innovation ne se fasse pas au détriment des droits et de la sécurité des Américains.»
À noter que les accords volontaires de Meta, Google, OpenAI et des autres ne sont que cela - ce sont des promesses de suivre certains principes. Pour garantir des protections juridiques dans le domaine de l’IA, l’administration Biden a déclaré qu’elle « poursuivrait une législation bipartite pour aider l’Amérique à montrer la voie en matière d’innovation responsable » en matière d’intelligence artificielle.
Les principes auxquels les sept entreprises d’IA se sont engagées sont les suivants:
- Développer des mécanismes techniques robustes pour garantir que les utilisateurs sachent quand le contenu est généré par l’IA, comme un système de filigrane pour réduire les risques de fraude et de tromperie.
- Signaler publiquement les capacités, les limites et les domaines d’utilisation appropriés et inappropriés des systèmes d’IA, couvrant à la fois les risques liés à la sécurité et les risques sociétaux, tels que « les effets sur l’équité et les biais ».
- S’engager à réaliser des tests de sécurité internes et externes des systèmes d’IA avant leur mise en service, afin d’atténuer les risques liés à la biosécurité et à la cybersécurité, ainsi que les dommages sociétaux plus larges.
- Partager des informations entre les acteurs du secteur et avec les gouvernements, la société civile et le monde universitaire sur la gestion des risques liés à l’IA, y compris les meilleures pratiques en matière de sécurité, les informations sur les tentatives de contournement des mesures de protection et la collaboration technique.
- Investir dans la cybersécurité et les mesures de protection contre les « menaces internes » pour protéger les données et les modèles d’IA propriétaires et non publiés.
Les accords « sont une première étape importante pour garantir que les entreprises donnent la priorité à la sécurité lorsqu'elles développent des systèmes d'IA générative », a déclaré Paul Barrett, directeur adjoint du NYU Stern Center for Business and Human Rights. « Mais les engagements volontaires annoncés aujourd'hui ne sont pas exécutoires, c'est pourquoi il est vital que le Congrès, en collaboration avec la Maison Blanche, élabore rapidement une législation exigeant la transparence, la protection de la vie privée et une recherche accrue sur le large éventail de risques posés par l'IA générative ».
La Maison Blanche a déclaré avoir consulté d'autres pays sur des engagements volontaires en matière de sécurité de l'IA, notamment l'Australie, le Brésil, le Canada, le Chili, la France, l'Allemagne, l'Inde, Israël, l'Italie, le Japon, le Kenya, le Mexique, les Pays-Bas, la Nouvelle-Zélande, le Nigéria, les Philippines, Singapour, la Corée du Sud, les Émirats arabes unis et le Royaume-Uni.
La Maison Blanche a déclaré que le Bureau de la gestion et du budget publiera bientôt un projet d'orientation politique pour les agences fédérales afin de garantir que le développement, l'approvisionnement et l'utilisation des systèmes d'IA sont centrés sur la sauvegarde des droits et de la sécurité des Américains.
Une approche américaine différente de l'approche britannique...
Le 29 mars, le Royaume-Uni a publié un livre blanc intitulé « une approche pro-innovation de la réglementation de l'IA », qui explique la position du gouvernement selon laquelle les régulateurs existants intégreront les principes dans l'application de leurs pouvoirs existants et fourniront les détails.
Le cabinet d'avocats Osborne Clarke l'a commenté en ces termes :
Le livre blanc propose une approche basée sur les résultats complètement différente de la loi sur l'IA de l'UE (un règlement complexe « descendant », toujours dans le processus législatif après près de deux ans). Il n'y a pas d'interdiction pure et simple proposée pour le Royaume-Uni, pas d'exigences de conformité détaillées sur les données, la documentation, les tests et la certification, pas de nouveau régulateur et pas de nouveaux pouvoirs pour imposer des amendes ou prendre des mesures. Au lieu de cela, le Royaume-Uni envisage une approche «ascendante», dévolue aux régulateurs.
Le risque avec cette approche est qu'un système d'IA problématique devra se présenter dans le bon format pour déclencher la compétence d'un régulateur, et alors le régulateur devra avoir les bons pouvoirs d'application en place pour prendre des mesures décisives et efficaces contre le préjudice et offrir réparation à la partie lésée. En ce qui concerne les sanctions et la réparation, en particulier, certains régulateurs disposent de pouvoirs considérables pour imposer des sanctions dissuasives et réparer les préjudices, mais beaucoup ne le font pas. Comme indiqué, ce paysage inégal ne semble pas avoir été cartographié : il semble que le gouvernement va simplement attendre et voir ce qui se passe.
Le risque avec cette approche est qu'un système d'IA problématique devra se présenter dans le bon format pour déclencher la compétence d'un régulateur, et alors le régulateur devra avoir les bons pouvoirs d'application en place pour prendre des mesures décisives et efficaces contre le préjudice et offrir réparation à la partie lésée. En ce qui concerne les sanctions et la réparation, en particulier, certains régulateurs disposent de pouvoirs considérables pour imposer des sanctions dissuasives et réparer les préjudices, mais beaucoup ne le font pas. Comme indiqué, ce paysage inégal ne semble pas avoir été cartographié : il semble que le gouvernement va simplement attendre et voir ce qui se passe.
Après avoir quitté l'Union européenne, nous sommes libres d'établir une approche réglementaire qui nous permet de faire du Royaume-Uni une superpuissance de l'IA. C'est une approche qui soutiendra activement l'innovation tout en tenant compte des risques et des préoccupations du public. Le Royaume-Uni abrite des start-up prospères, que notre framework soutiendra pour les aider à se développer et être compétitives à l'échelle internationale. Notre approche pro-innovation agira également comme une forte incitation lorsqu'il s'agira d'établir une présence au Royaume-Uni pour les entreprises d'IA basées à l'étranger. Le livre blanc
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.