IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Google, Meta, OpenAI et d'autres promettent de se conformer au cadre de sécurité de l'IA de la Maison Blanche,
Des engagements volontaires qui sont déjà critiqués pour l'absence de mesures punitives

Le , par Stéphane le calme

1PARTAGES

6  0 
Face aux profondes inquiétudes suscitées par les risques posés par l’intelligence artificielle, l’administration Biden a obtenu les engagements de sept entreprises technologiques (parmi lesquelles OpenAI, Google et Meta) qui ont promis de respecter des principes de sécurité, de confiance et de transparence dans le développement de l’IA. Des représentants de sept «entreprises leaders en IA» (Amazon, Anthropic, Google, Inflection, Meta, Microsoft et OpenAI) doivent participer à un événement vendredi à la Maison Blanche pour annoncer que l’administration Biden-Harris a obtenu des engagements volontaires des entreprises pour «contribuer à une évolution sûre, sécurisée et transparente de la technologie IA», selon la Maison Blanche.

« Les entreprises qui développent ces technologies émergentes ont la responsabilité de garantir la sécurité de leurs produits », a déclaré l’administration Biden dans un communiqué vendredi. « Pour tirer le meilleur parti du potentiel de l’IA, l’administration Biden-Harris encourage cette industrie à respecter les normes les plus élevées pour garantir que l’innovation ne se fasse pas au détriment des droits et de la sécurité des Américains.»

À noter que les accords volontaires de Meta, Google, OpenAI et des autres ne sont que cela - ce sont des promesses de suivre certains principes. Pour garantir des protections juridiques dans le domaine de l’IA, l’administration Biden a déclaré qu’elle « poursuivrait une législation bipartite pour aider l’Amérique à montrer la voie en matière d’innovation responsable » en matière d’intelligence artificielle.

Les principes auxquels les sept entreprises d’IA se sont engagées sont les suivants:
  • Développer des mécanismes techniques robustes pour garantir que les utilisateurs sachent quand le contenu est généré par l’IA, comme un système de filigrane pour réduire les risques de fraude et de tromperie.
  • Signaler publiquement les capacités, les limites et les domaines d’utilisation appropriés et inappropriés des systèmes d’IA, couvrant à la fois les risques liés à la sécurité et les risques sociétaux, tels que « les effets sur l’équité et les biais ».
  • S’engager à réaliser des tests de sécurité internes et externes des systèmes d’IA avant leur mise en service, afin d’atténuer les risques liés à la biosécurité et à la cybersécurité, ainsi que les dommages sociétaux plus larges.
  • Partager des informations entre les acteurs du secteur et avec les gouvernements, la société civile et le monde universitaire sur la gestion des risques liés à l’IA, y compris les meilleures pratiques en matière de sécurité, les informations sur les tentatives de contournement des mesures de protection et la collaboration technique.
  • Investir dans la cybersécurité et les mesures de protection contre les « menaces internes » pour protéger les données et les modèles d’IA propriétaires et non publiés.

Les accords « sont une première étape importante pour garantir que les entreprises donnent la priorité à la sécurité lorsqu'elles développent des systèmes d'IA générative », a déclaré Paul Barrett, directeur adjoint du NYU Stern Center for Business and Human Rights. « Mais les engagements volontaires annoncés aujourd'hui ne sont pas exécutoires, c'est pourquoi il est vital que le Congrès, en collaboration avec la Maison Blanche, élabore rapidement une législation exigeant la transparence, la protection de la vie privée et une recherche accrue sur le large éventail de risques posés par l'IA générative ».

La Maison Blanche a déclaré avoir consulté d'autres pays sur des engagements volontaires en matière de sécurité de l'IA, notamment l'Australie, le Brésil, le Canada, le Chili, la France, l'Allemagne, l'Inde, Israël, l'Italie, le Japon, le Kenya, le Mexique, les Pays-Bas, la Nouvelle-Zélande, le Nigéria, les Philippines, Singapour, la Corée du Sud, les Émirats arabes unis et le Royaume-Uni.

La Maison Blanche a déclaré que le Bureau de la gestion et du budget publiera bientôt un projet d'orientation politique pour les agences fédérales afin de garantir que le développement, l'approvisionnement et l'utilisation des systèmes d'IA sont centrés sur la sauvegarde des droits et de la sécurité des Américains.


Une approche américaine différente de l'approche britannique...

Le 29 mars, le Royaume-Uni a publié un livre blanc intitulé « une approche pro-innovation de la réglementation de l'IA », qui explique la position du gouvernement selon laquelle les régulateurs existants intégreront les principes dans l'application de leurs pouvoirs existants et fourniront les détails.

Le cabinet d'avocats Osborne Clarke l'a commenté en ces termes :

Le livre blanc propose une approche basée sur les résultats complètement différente de la loi sur l'IA de l'UE (un règlement complexe « descendant », toujours dans le processus législatif après près de deux ans). Il n'y a pas d'interdiction pure et simple proposée pour le Royaume-Uni, pas d'exigences de conformité détaillées sur les données, la documentation, les tests et la certification, pas de nouveau régulateur et pas de nouveaux pouvoirs pour imposer des amendes ou prendre des mesures. Au lieu de cela, le Royaume-Uni envisage une approche «ascendante», dévolue aux régulateurs.

Le risque avec cette approche est qu'un système d'IA problématique devra se présenter dans le bon format pour déclencher la compétence d'un régulateur, et alors le régulateur devra avoir les bons pouvoirs d'application en place pour prendre des mesures décisives et efficaces contre le préjudice et offrir réparation à la partie lésée. En ce qui concerne les sanctions et la réparation, en particulier, certains régulateurs disposent de pouvoirs considérables pour imposer des sanctions dissuasives et réparer les préjudices, mais beaucoup ne le font pas. Comme indiqué, ce paysage inégal ne semble pas avoir été cartographié : il semble que le gouvernement va simplement attendre et voir ce qui se passe.
La Grande-Bretagne est optimiste quant à la promotion d'une « approche proportionnée qui favorise la croissance et l'innovation ». Michelle Donelan, secrétaire d'État aux sciences, à l'innovation et à la technologie, a déclaré :

Après avoir quitté l'Union européenne, nous sommes libres d'établir une approche réglementaire qui nous permet de faire du Royaume-Uni une superpuissance de l'IA. C'est une approche qui soutiendra activement l'innovation tout en tenant compte des risques et des préoccupations du public. Le Royaume-Uni abrite des start-up prospères, que notre framework soutiendra pour les aider à se développer et être compétitives à l'échelle internationale. Notre approche pro-innovation agira également comme une forte incitation lorsqu'il s'agira d'établir une présence au Royaume-Uni pour les entreprises d'IA basées à l'étranger. Le livre blanc énonce notre engagement à nous engager à l'échelle internationale pour soutenir l'interopérabilité entre différents régimes réglementaires. Non seulement cela allégera le fardeau des entreprises, mais cela nous permettra également d'intégrer nos valeurs à mesure que les approches mondiales de gouvernance de l'IA se développent.

Notre approche repose sur la collaboration entre le gouvernement, les régulateurs et les entreprises. Dans un premier temps, nous n'avons pas l'intention d'introduire de nouvelle législation. En se précipitant trop tôt pour légiférer, on risquerait d'imposer un fardeau indu aux entreprises. Mais en plus de donner aux régulateurs les moyens de prendre les devants, nous définissons également des attentes. Nos nouvelles fonctions de surveillance fourniront une évaluation en temps réel de la performance du cadre réglementaire afin que nous puissions être sûrs qu'il est proportionné. Le rythme du développement technologique signifie également que nous devons comprendre les risques nouveaux et émergents, en nous engageant avec des experts pour nous assurer que nous prenons des mesures si nécessaire. Un élément essentiel de cette activité consistera à dialoguer avec le public pour comprendre ses attentes, sensibiliser au potentiel de l'IA et démontrer que nous répondons aux préoccupations.
... et de l'approche européenne

L'Europe pour sa part a choisi la voie de la règlementation, notamment avec l'AI Act. Son champ d’application couvre tous les secteurs (sauf le militaire) et tous les types d’intelligence artificielle.

Le projet de loi a pour objectif de promouvoir l’adoption de l’IA tout en garantissant le respect des valeurs, des droits fondamentaux et des principes de l’Union européenne. Il prévoit également des mesures pour renforcer la qualité des données, la transparence, la supervision humaine et la responsabilité des utilisateurs et des fournisseurs d’IA.

La pierre angulaire de l’AI Act est un système de classification qui détermine le niveau de risque qu’une technologie d’IA pourrait présenter pour la santé et la sécurité ou les droits fondamentaux d’une personne. Le cadre comprend quatre niveaux de risque : inacceptable, élevé, limité et minimal.

L’accent sur l’IA générative, comme le ChatGPT d’OpenAI, a grimpé à l’ordre du jour depuis que les lois ont été proposées pour la première fois. Une fois entré en vigueur, le texte pourrait infliger des amendes de 40 millions d’euros ou 7 % du chiffre d’affaires mondial total aux organisations qui ne respectent pas les règles.

Source : Maison Blanche

Et vous ?

Que pensez-vous des engagements volontaires des entreprises d’IA?
Quels sont les avantages et les inconvénients d’un régime de licences gouvernementales pour les produits d’IA?
Quels sont les principes de sécurité, de confiance et de transparence que vous jugez essentiels pour le développement de l’IA?
Quels sont les risques liés à l’IA que vous craignez le plus et comment pensez-vous qu’ils peuvent être atténués?

Une erreur dans cette actualité ? Signalez-nous-la !