IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

La loi européenne sur l'intelligence artificielle peut avoir un effet dissuasif sur les efforts en matière de logiciels libres
Avertissent les experts de la Brookings Institution

Le , par Nancy Rey

1PARTAGES

3  0 
Le groupe de réflexion non partisan Brookings Institution a publié cette semaine un article décriant la réglementation de l'IA open source de l'Union européenne, affirmant qu'elle créerait une responsabilité juridique pour les systèmes d'IA à usage général tout en nuisant à leur développement. Selon le projet de loi sur l'IA de l'UE, les développeurs de logiciels libres devraient respecter des lignes directrices en matière de gestion des risques, de gouvernance des données, de documentation technique et de transparence, ainsi que des normes de précision et de cybersécurité. Les règles proposées par l'UE pourraient limiter le type de recherche qui produit des outils d'IA de pointe comme GPT-3, avertissent les experts dans une nouvelle étude.


La réglementation de l'IA à usage général est débattue par les organes législatifs de l'Union européenne, qui travaillent sur la loi sur l'IA. Une proposition de modification émanant du Conseil de l'UE prendrait la mesure inhabituelle, et néfaste, de réglementer l'IA à code source ouvert. Et, d’après le groupe de réflexion non partisan Brookings, bien que cette mesure vise à permettre une utilisation plus sûre de ces outils, cette proposition créerait une responsabilité juridique pour les modèles d’IA à usage général à code source ouvert, ce qui nuirait à leur développement. Cela pourrait concentrer davantage le pouvoir sur l'avenir de l'IA dans les grandes entreprises technologiques et empêcher la recherche qui est essentielle à la compréhension de l'IA par le public.

Si une entreprise devait déployer un système d'IA open source dont le résultat serait désastreux, il n'est pas inconcevable qu'elle puisse tenter de se dégager de sa responsabilité en poursuivant les développeurs open source sur lesquels elle a construit son produit. « Cela pourrait concentrer davantage le pouvoir sur l'avenir de l'IA dans les grandes entreprises technologiques et empêcher la recherche qui est essentielle à la compréhension de l'IA par le public. En fin de compte, la tentative de l'UE de réglementer l'open-source pourrait créer un ensemble d'exigences alambiquées qui mettent en danger les contributeurs d'IA open-source, probablement sans améliorer l'utilisation de l'IA à usage général », écrit Alex Engler, l'analyste de Brookings qui a publié l'article.

En 2021, la Commission européenne, le bras exécutif politiquement indépendant de l'UE, a publié le texte de la loi sur l'IA, qui vise à promouvoir le déploiement d'une « IA digne de confiance » dans l'UE, alors qu'ils sollicitent les commentaires de l'industrie avant un vote cet automne. Les institutions cherchent à apporter des modifications aux règlements qui tentent d'équilibrer l'innovation et la responsabilité. Mais selon certains experts, la loi sur l'IA, telle qu'elle est rédigée, imposerait des exigences onéreuses aux efforts ouverts de développement de systèmes d'IA. La législation prévoit des exceptions pour certaines catégories d'IA open source, comme celles utilisées exclusivement pour la recherche et avec des contrôles pour éviter les abus. Mais, comme le fait remarquer Engler, il serait difficile, voire impossible, d'empêcher ces projets d'être intégrés dans des systèmes commerciaux, où ils pourraient être utilisés par des acteurs malveillants.

Dans un exemple récent, Stable Diffusion, un système d'IA open source qui génère des images à partir d'invites textuelles, a été publié avec une licence interdisant certains types de contenu. Mais il a rapidement trouvé un public au sein de communautés qui utilisent de tels outils d'IA pour créer des deepfakes pornographiques de célébrités. Oren Etzioni, PDG fondateur de l'Institut Allen pour l'IA, reconnaît que la version actuelle de la loi sur l'IA est problématique. Dans une interview , Etzioni a déclaré que les charges introduites par les règles pourraient avoir un effet dissuasif sur des domaines tels que le développement de systèmes ouverts de génération de texte, qui, selon lui, permettent aux développeurs de « rattraper » les entreprises Big Tech comme Google et Meta.

« La route vers l'enfer de la réglementation est pavée des bonnes intentions de l'UE. Les développeurs de logiciels libres ne devraient pas être soumis au même fardeau que ceux qui développent des logiciels commerciaux. Il devrait toujours être possible de fournir un logiciel libre 'tel quel' - prenons le cas d'un étudiant seul qui développe une capacité d'IA ; il n'a pas les moyens de se conformer aux réglementations de l'UE et peut être contraint de ne pas distribuer son logiciel, ce qui a un effet dissuasif sur les progrès universitaires et sur la reproductibilité des résultats scientifiques, a déclaré Etzioni».

Au lieu de chercher à réglementer les technologies de l'IA de manière générale, les régulateurs de l'UE devraient se concentrer sur des applications spécifiques de l'IA, affirme Etzioni. « Il y a trop d'incertitude et de changements rapides dans l'IA pour que le processus réglementaire lent soit efficace. Au lieu de cela, les applications de l'IA telles que les véhicules autonomes, les bots ou les jouets devraient faire l'objet d'une réglementation », a-t-il déclaré.

Tous les praticiens ne pensent pas que la loi sur l'IA a besoin d'être encore modifiée

Mike Cook, un chercheur en IA qui fait partie du collectif Knives and Paintbrushes, pense qu'il est « parfaitement correct » de réglementer l'IA open source « un peu plus lourdement » que nécessaire. Selon lui, l'établissement d'une norme, quelle qu'elle soit, peut être un moyen de montrer la voie à suivre au niveau mondial, en espérant que d'autres suivront. « Les discours alarmistes sur l'étouffement de l'innovation proviennent principalement de personnes qui veulent supprimer toute réglementation et avoir le champ libre, et ce n'est généralement pas un point de vue auquel j'accorde beaucoup d'importance. Je pense qu'il est normal de légiférer au nom d'un monde meilleur, plutôt que de s'inquiéter de savoir si votre voisin va réglementer moins que vous et en tirer profit d'une manière ou d'une autre, a déclaré Cook.

Une analyse rédigée par Lilian Edwards, professeur de droit à la Newcastle School et conseiller juridique à temps partiel à l'Institut Ada Lovelace, se demande si les fournisseurs de systèmes tels que les grands modèles de langage à code source ouvert (par exemple GPT-3) pourraient être responsables après tout en vertu de la loi sur l'IA. Selon Edwards, le libellé de la législation fait peser la responsabilité de la gestion des utilisations et de l'impact d'un système d'IA sur les diffuseurs en aval, et pas nécessairement sur le développeur initial. « La façon dont les déployeurs en aval utilisent l'IA et l'adaptent peut être aussi importante que la façon dont elle est construite à l'origine. La loi sur l'IA en tient compte dans une certaine mesure, mais pas suffisamment, et ne parvient donc pas à réglementer de manière appropriée les nombreux acteurs qui s'impliquent de diverses manières 'en aval' dans la chaîne d'approvisionnement de l'IA, écrit Edwards.

Chez la startup d'IA Hugging Face, le PDG Clément Delangue, le conseiller Carlos Muñoz Ferrandis et l'experte en politique Irene Solaiman disent qu'ils accueillent favorablement les réglementations visant à protéger les garanties des consommateurs, mais que la loi sur l'IA telle que proposée est trop vague. Par exemple, ils disent qu'il n'est pas clair si la législation s'applique aux modèles d'apprentissage automatique "préentraînés" au cœur des logiciels d'IA ou seulement aux logiciels eux-mêmes. « Ce manque de clarté, associé au non-respect des initiatives de gouvernance communautaire en cours, telles que les licences d'IA ouvertes et responsables, pourrait entraver l'innovation en amont, tout en haut de la chaîne de valeur de l'IA, ce qui est une grande priorité pour nous à Hugging Face. Du point de vue de la concurrence et de l'innovation, si vous imposez déjà des charges trop lourdes sur les fonctionnalités ouvertement publiées au sommet du flux d'innovation de l'IA, vous risquez d'entraver l'innovation incrémentale, la différenciation des produits et la concurrence dynamique, cette dernière étant essentielle sur les marchés technologiques émergents tels que ceux liés à l'IA... Le règlement devrait tenir compte de la dynamique d'innovation des marchés de l'IA et ainsi identifier clairement et protéger les sources essentielles d'innovation sur ces marchés », ont déclaré Delangue, Ferrandis et Solaiman dans une annonce commune.

Quant à Hugging Face, l'entreprise plaide pour des outils de gouvernance de l'IA améliorés, quel que soit le langage final de la loi sur l'IA, comme des licences d'IA « responsables » et des cartes modèles qui incluent des informations telles que l'utilisation prévue d'un système d'IA et son fonctionnement. Delangue, Ferrandis et Solaiman soulignent que l'octroi de licences responsables commence à devenir une pratique courante pour les principales versions de l'IA, comme le modèle linguistique OPT-175 de Meta. « L'innovation ouverte et l'innovation responsable dans le domaine de l'IA ne sont pas des objectifs qui s'excluent mutuellement, mais plutôt des objectifs complémentaires. L'intersection entre les deux devrait être une cible centrale des efforts de réglementation en cours, comme elle l'est actuellement pour la communauté de l'IA », ont déclaré Delangue, Ferrandis et Solaiman. Cela pourrait bien être réalisable. Compte tenu des nombreuses parties mobiles impliquées dans l'élaboration de la réglementation européenne et il faudra probablement des années avant que la réglementation de l'IA dans le bloc ne commence à prendre forme.

Source : Brookings Institution

Et vous ?

Quel est votre avis sur le sujet ?

Voir aussi :

L'organisation européenne des consommateurs estime que la proposition de loi de l'Europe sur l'IA est faible, en matière de protection des consommateurs

Intelligence artificielle : la feuille de route du Parlement européen, l'UE veut porter les investissements dans le secteur de l'IA à 20 milliards d'euros d'ici 2030

Une erreur dans cette actualité ? Signalez-le nous !