IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

La loi européenne sur l'intelligence artificielle peut avoir un effet dissuasif sur les efforts en matière de logiciels libres
Avertissent les experts de la Brookings Institution

Le , par Nancy Rey

4PARTAGES

6  0 
Le groupe de réflexion non partisan Brookings Institution a publié cette semaine un article décriant la réglementation de l'IA open source de l'Union européenne, affirmant qu'elle créerait une responsabilité juridique pour les systèmes d'IA à usage général tout en nuisant à leur développement. Selon le projet de loi sur l'IA de l'UE, les développeurs de logiciels libres devraient respecter des lignes directrices en matière de gestion des risques, de gouvernance des données, de documentation technique et de transparence, ainsi que des normes de précision et de cybersécurité. Les règles proposées par l'UE pourraient limiter le type de recherche qui produit des outils d'IA de pointe comme GPT-3, avertissent les experts dans une nouvelle étude.


La réglementation de l'IA à usage général est débattue par les organes législatifs de l'Union européenne, qui travaillent sur la loi sur l'IA. Une proposition de modification émanant du Conseil de l'UE prendrait la mesure inhabituelle, et néfaste, de réglementer l'IA à code source ouvert. Et, d’après le groupe de réflexion non partisan Brookings, bien que cette mesure vise à permettre une utilisation plus sûre de ces outils, cette proposition créerait une responsabilité juridique pour les modèles d’IA à usage général à code source ouvert, ce qui nuirait à leur développement. Cela pourrait concentrer davantage le pouvoir sur l'avenir de l'IA dans les grandes entreprises technologiques et empêcher la recherche qui est essentielle à la compréhension de l'IA par le public.

Si une entreprise devait déployer un système d'IA open source dont le résultat serait désastreux, il n'est pas inconcevable qu'elle puisse tenter de se dégager de sa responsabilité en poursuivant les développeurs open source sur lesquels elle a construit son produit. « Cela pourrait concentrer davantage le pouvoir sur l'avenir de l'IA dans les grandes entreprises technologiques et empêcher la recherche qui est essentielle à la compréhension de l'IA par le public. En fin de compte, la tentative de l'UE de réglementer l'open-source pourrait créer un ensemble d'exigences alambiquées qui mettent en danger les contributeurs d'IA open-source, probablement sans améliorer l'utilisation de l'IA à usage général », écrit Alex Engler, l'analyste de Brookings qui a publié l'article.

En 2021, la Commission européenne, le bras exécutif politiquement indépendant de l'UE, a publié le texte de la loi sur l'IA, qui vise à promouvoir le déploiement d'une « IA digne de confiance » dans l'UE, alors qu'ils sollicitent les commentaires de l'industrie avant un vote cet automne. Les institutions cherchent à apporter des modifications aux règlements qui tentent d'équilibrer l'innovation et la responsabilité. Mais selon certains experts, la loi sur l'IA, telle qu'elle est rédigée, imposerait des exigences onéreuses aux efforts ouverts de développement de systèmes d'IA. La législation prévoit des exceptions pour certaines catégories d'IA open source, comme celles utilisées exclusivement pour la recherche et avec des contrôles pour éviter les abus. Mais, comme le fait remarquer Engler, il serait difficile, voire impossible, d'empêcher ces projets d'être intégrés dans des systèmes commerciaux, où ils pourraient être utilisés par des acteurs malveillants.

Dans un exemple récent, Stable Diffusion, un système d'IA open source qui génère des images à partir d'invites textuelles, a été publié avec une licence interdisant certains types de contenu. Mais il a rapidement trouvé un public au sein de communautés qui utilisent de tels outils d'IA pour créer des deepfakes pornographiques de célébrités. Oren Etzioni, PDG fondateur de l'Institut Allen pour l'IA, reconnaît que la version actuelle de la loi sur l'IA est problématique. Dans une interview , Etzioni a déclaré que les charges introduites par les règles pourraient avoir un effet dissuasif sur des domaines tels que le développement de systèmes ouverts de génération de texte, qui, selon lui, permettent aux développeurs de « rattraper » les entreprises Big Tech comme Google et Meta.

« La route vers l'enfer de la réglementation est pavée des bonnes intentions de l'UE. Les développeurs de logiciels libres ne devraient pas être soumis au même fardeau que ceux qui développent des logiciels commerciaux. Il devrait toujours être possible de fournir un logiciel libre 'tel quel' - prenons le cas d'un étudiant seul qui développe une capacité d'IA ; il n'a pas les moyens de se conformer aux réglementations de l'UE et peut être contraint de ne pas distribuer son logiciel, ce qui a un effet dissuasif sur les progrès universitaires et sur la reproductibilité des résultats scientifiques, a déclaré Etzioni».

Au lieu de chercher à réglementer les technologies de l'IA de manière générale, les régulateurs de l'UE devraient se concentrer sur des applications spécifiques de l'IA, affirme Etzioni. « Il y a trop d'incertitude et de changements rapides dans l'IA pour que le processus réglementaire lent soit efficace. Au lieu de cela, les applications de l'IA telles que les véhicules autonomes, les bots ou les jouets devraient faire l'objet d'une réglementation », a-t-il déclaré.

Tous les praticiens ne pensent pas que la loi sur l'IA a besoin d'être encore modifiée

Mike Cook, un chercheur en IA qui fait partie du collectif Knives and Paintbrushes, pense qu'il est « parfaitement correct » de réglementer l'IA open source « un peu plus lourdement » que nécessaire. Selon lui, l'établissement d'une norme, quelle qu'elle soit, peut être un moyen de montrer la voie à suivre au niveau mondial, en espérant que d'autres suivront. « Les discours alarmistes sur l'étouffement de l'innovation proviennent principalement de personnes qui veulent supprimer toute réglementation et avoir le champ libre, et ce n'est généralement pas un point de vue auquel j'accorde beaucoup d'importance. Je pense qu'il est normal de légiférer au nom d'un monde meilleur, plutôt que de s'inquiéter de savoir si votre voisin va réglementer moins que vous et en tirer profit d'une manière ou d'une autre, a déclaré Cook.

Une analyse rédigée par Lilian Edwards, professeur de droit à la Newcastle School et conseiller juridique à temps partiel à l'Institut Ada Lovelace, se demande si les fournisseurs de systèmes tels que les grands modèles de langage à code source ouvert (par exemple GPT-3) pourraient être responsables après tout en vertu de la loi sur l'IA. Selon Edwards, le libellé de la législation fait peser la responsabilité de la gestion des utilisations et de l'impact d'un système d'IA sur les diffuseurs en aval, et pas nécessairement sur le développeur initial. « La façon dont les déployeurs en aval utilisent l'IA et l'adaptent peut être aussi importante que la façon dont elle est construite à l'origine. La loi sur l'IA en tient compte dans une certaine mesure, mais pas suffisamment, et ne parvient donc pas à réglementer de manière appropriée les nombreux acteurs qui s'impliquent de diverses manières 'en aval' dans la chaîne d'approvisionnement de l'IA, écrit Edwards.

Chez la startup d'IA Hugging Face, le PDG Clément Delangue, le conseiller Carlos Muñoz Ferrandis et l'experte en politique Irene Solaiman disent qu'ils accueillent favorablement les réglementations visant à protéger les garanties des consommateurs, mais que la loi sur l'IA telle que proposée est trop vague. Par exemple, ils disent qu'il n'est pas clair si la législation s'applique aux modèles d'apprentissage automatique "préentraînés" au cœur des logiciels d'IA ou seulement aux logiciels eux-mêmes. « Ce manque de clarté, associé au non-respect des initiatives de gouvernance communautaire en cours, telles que les licences d'IA ouvertes et responsables, pourrait entraver l'innovation en amont, tout en haut de la chaîne de valeur de l'IA, ce qui est une grande priorité pour nous à Hugging Face. Du point de vue de la concurrence et de l'innovation, si vous imposez déjà des charges trop lourdes sur les fonctionnalités ouvertement publiées au sommet du flux d'innovation de l'IA, vous risquez d'entraver l'innovation incrémentale, la différenciation des produits et la concurrence dynamique, cette dernière étant essentielle sur les marchés technologiques émergents tels que ceux liés à l'IA... Le règlement devrait tenir compte de la dynamique d'innovation des marchés de l'IA et ainsi identifier clairement et protéger les sources essentielles d'innovation sur ces marchés », ont déclaré Delangue, Ferrandis et Solaiman dans une annonce commune.

Quant à Hugging Face, l'entreprise plaide pour des outils de gouvernance de l'IA améliorés, quel que soit le langage final de la loi sur l'IA, comme des licences d'IA « responsables » et des cartes modèles qui incluent des informations telles que l'utilisation prévue d'un système d'IA et son fonctionnement. Delangue, Ferrandis et Solaiman soulignent que l'octroi de licences responsables commence à devenir une pratique courante pour les principales versions de l'IA, comme le modèle linguistique OPT-175 de Meta. « L'innovation ouverte et l'innovation responsable dans le domaine de l'IA ne sont pas des objectifs qui s'excluent mutuellement, mais plutôt des objectifs complémentaires. L'intersection entre les deux devrait être une cible centrale des efforts de réglementation en cours, comme elle l'est actuellement pour la communauté de l'IA », ont déclaré Delangue, Ferrandis et Solaiman. Cela pourrait bien être réalisable. Compte tenu des nombreuses parties mobiles impliquées dans l'élaboration de la réglementation européenne et il faudra probablement des années avant que la réglementation de l'IA dans le bloc ne commence à prendre forme.

Source : Brookings Institution

Et vous ?

Quel est votre avis sur le sujet ?

Voir aussi :

L'organisation européenne des consommateurs estime que la proposition de loi de l'Europe sur l'IA est faible, en matière de protection des consommateurs

Intelligence artificielle : la feuille de route du Parlement européen, l'UE veut porter les investissements dans le secteur de l'IA à 20 milliards d'euros d'ici 2030

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Pierre Louis Chevalier
Expert éminent sénior https://www.developpez.com
Le 05/06/2024 à 15:55
Citation Envoyé par Anselme45 Voir le message
Pour s'en convaincre, il suffit de lire les news de ce site: La majorité des news traitent maintenant de l'IA... Apparemment les autres technologies numériques ne sont plus dignes d'intérêt
C'est archifaux. Oui il y a sur developpez un tas de news sur l'IA mais c'est parfaitement normal, ça nous concerne, aussi bien les développeurs que les autres informaticiens.

Il n'en reste pas moins que developpez est quasiment le seul et unique site francophone qui passe aussi un tas de news sur l'actualité de la programmation, les nouvelles versions des langages, les nouvelles sorties des EDI (Jetbrains, Microsoft, Embarcadero, ...) , etc. Et c'est surtout devenu le "Médiapart/Canard enchainé" de l'informatique avec toutes les news à scandales sur HP, Microsoft, Google, etc. Exemple l'énorme scandale sur les imprimantes HP avec des centaines de commentaires, et quel rapport avec l'IA ? aucun... D 'ailleurs toi même tu viens de répondre à un sujet à scandale n'ayant rien à voir avec l'IA, à savoir : Google peut garder votre téléphone si vous l’envoyez en réparation avec des pièces qui ne sont pas d’origine

Regarde les rubriques programmation et EDI au lieu de dire n'importe quoi, et il y a toujours une colonne droite avec des tutoriels programmation et IT Pro, des articles gratuits alors que c'est devenu payant ailleurs (Udemy, Elephorm, etc). Developpez est devenu le meilleur site sur francophonie sur l'IA, mais il reste toujours le meilleur site pour les développeurs et même l'IT Pro, c'est bien simple il n'y en a pas d'autre de valables....
7  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 03/06/2024 à 22:27
Citation Envoyé par Mathis Lucas Voir le message

Que pensez-vous du lobbying intense des entreprises d'IA pour contrecarrer les initiatives visant à réglementer l'IA ?
On le voit déjà au niveau des news sur tous les sites et tous les canaux. On essaye de nous vendre de force un truc assez moyen, comme LA panacée.

En général, plus il y a de pub pour un produit, et plus il y a de chances qu'ils soit très mauvais.

Là, on a en plus des lobbyistes qui illustrent le capitalisme non-régulé dans toute sa splendeur, ou comment les plus riches sont capables de faire plier des gouvernements, par la corruption légale qu'est le lobbyisme. On le voit au niveau des entreprises et des communes ici: des avocats de l'IA (et juste avant c'était ceux du cloud des GAFAM) qui organisent des évènements avec les repas, parfois des cadeaux, des ateliers qui sont de la pub grossièrement déguisée, etc.

Bref, rien de neuf: le commercial qui fait sa danse du ventre, et le pigeon qui tombe dans le panneau.
6  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 10/04/2024 à 8:28
Je n'ai pas très bien compris ce qui était mesuré pour définir que l'IA émet moins de CO2 qu'un humain pour écrire une page.

Est-ce que l'empreinte carbone des datas center servant à l'IA pour produire sa page est comptée ou non ? Si c'est juste l'empreinte carbone pour l'écriture finale, c'est-à-dire le "pouillème" final, alors l'étude est biaisée.
5  0 
Avatar de Refuznik
Membre éclairé https://www.developpez.com
Le 15/04/2023 à 21:57
Que pensez-vous de la proposition des parlementaires européens ?
Qu'ils sont complètement dans le flou.

Selon vous, quelles seraient les conséquences d'une telle réglementation pour les créateurs de chatbots d'IA ?
Bah, on n'a pas de règles claires (en tout vas je n'en vois pas dans cet article) donc c'est dur de se prononcer.

Par contre, la 1er régle donné elle est deja hors sol ou la virgule est mal placé. Je cite "...les applications et les systèmes qui créent un risque inacceptable, tels que les systèmes de notation sociale gérés par le gouvernement, comme ceux utilisés en Chine, sont interdits."
Oui, un système notation basé sur l'IA doit être interdit dans tous les cas et on a beaucoup d'exemples dans le monde professionnel.
Par contre parler de gouvernement chinois et de leur notation individuel est complètement à côté de la plaque vu que ce système n'existe pas.

Extrait d'un article du MIT :
Existe-t-il donc un score de crédit social centralisé calculé pour chaque citoyen chinois ?
Non. Contrairement à la croyance populaire, il n'y a pas de score central de crédit social pour les individus. Et franchement, le gouvernement central chinois n'a jamais parlé d'en vouloir un.


Y a-t-il une technologie de pointe, comme l'intelligence artificielle, impliquée dans le système ?
Pour la plupart, non. C'est un autre mythe courant sur le système de crédit social en Chine : les gens s'imaginent que pour suivre les comportements sociaux de plus d'un milliard de personnes, il doit y avoir un puissant algorithme central qui peut collecter et traiter les données.

Mais ce n'est pas vrai. Puisqu'il n'y a pas de système central qui note tout le monde, ce type d'algorithme puissant n'est même pas nécessaire. Les experts du système de crédit social chinois affirment que l'ensemble de l'infrastructure est étonnamment peu technologique. Alors que les responsables chinois nomment parfois des technologies telles que la blockchain et l'intelligence artificielle lorsqu'ils parlent du système, ils ne parlent jamais en détail de la manière dont ces technologies pourraient être utilisées. Si vous consultez le site Web de Credit China, ce n'est rien de plus qu'une bibliothèque numérisée de bases de données distinctes.


Lien : https://www.technologyreview.com/2022/11/22/1063605/china-announced-a-new-social-credit-law-what-does-it-mean/
4  0 
Avatar de mith06
Membre expérimenté https://www.developpez.com
Le 16/06/2023 à 11:34
Quand ils vont se rendre compte qu "l'IA" permet de faire de la surveillance de masse, ils vont renommer ca en "algorithme à réseaux de neurone profond" pour contourner leur propre interdiction

les applications et les systèmes qui créent un risque inacceptable, tels que les systèmes d'évaluation sociale gérés par le gouvernement, comme ceux utilisés en Chine, sont interdits ;
Le modèle Chinois c'est leur rêve....

les applications qui ne sont pas explicitement interdites ou répertoriées comme présentant un risque élevé échappent en grande partie à la réglementation.
Normalement tout c'est qui n'est pas interdit est autorisé.
Mais pour ces gens tout ce qui n'est pas autorisé devrait être interdit.
5  1 
Avatar de OrthodoxWindows
Membre expert https://www.developpez.com
Le 07/02/2024 à 22:16
Encore une étude de greenwashing
4  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 24/03/2024 à 11:22
Et comme pour le 99,9% des résolutions de l'ONU, strictement personne n'en tiendra compte!
4  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 05/06/2024 à 11:19
Citation Envoyé par Anselme45 Voir le message
La majorité des news traitent maintenant de l'IA...
C'est de la faute de l'industrie et non pas des rédacteurs d'actualités.
C'est comme avec Elon Musk, les médias écrivent un article par jour à son sujet donc ça atterrît ici aussi.
Les visiteurs ont le choix de lire les articles qu'ils veulent, il est possible d'ignorer toutes les actualités liées à l'IA si on le souhaite.

L'IA sera peut-être puissante dans 20 ans, j'espère que dans ces 20 ans l'IA ne restera pas le sujet principal dans le monde de la technologie.
Beaucoup de gens doivent être lassés par toutes ces actualités en rapport avec l'IA, les médias mainstream en parlent beaucoup.
Mais après ils ont peut-être raison d'en parler, l'IA pourrait devenir quelque chose d'extrêmement dangereux et avoir des conséquences dramatique sur le monde. Elle va peut-être vraiment prendre le travail de beaucoup de gens, qui vont se retrouver dans la pauvreté, parce qu'ils ne retrouveront plus de travail et n'auront plus de revenu.

Citation Envoyé par Mathis Lucas Voir le message
Pour ce faire, elles ont embauché une importante armée de lobbyistes chargés d'influencer les décideurs politiques et les gouvernements à travers le monde afin qu'ils adoptent des règles "laxistes" au détriment de l'intérêt général. Ils ont déjà réussi à court-circuiter le vote de nombreuses lois sur l'IA ou à façonner certaines législations.
C'est dingue que ces lobbystes arrivent à corrompre autant de décideurs politiques et de gouvernements à travers le monde.

On pourrait presque se dire que les politiciens sont tous pourris.
4  0 
Avatar de
https://www.developpez.com
Le 27/10/2024 à 9:59
L'enfer normatif européens a déjà réussi à laminer l'industrie et l'agriculture voilà qu'il s'attaque maintenant à la tech (dont l'IA).
Pour commencer à "Entreprendre" il faut désormais avoir les moyens de se doter d'une armée de juriste et d'avocat, sans parler des taxes et impôts. Étouffant !

Je comprend pas qu'on ne commence pas à faire de la prévention dans les écoles concernant l'IA ? (Une IA peut raconter n'importe quoi, et ça sera toujours le cas !)
Introduire les élèves dès le plus jeune âge à l'esprit critique et à la compréhension de ce qu'est l'IA n'est-il pas la meilleur solution ?
4  0 
Avatar de Thibaut_D
Membre à l'essai https://www.developpez.com
Le 08/02/2023 à 17:08
Citation Envoyé par HaryRoseAndMac Voir le message
La RGPD n'a pas été inventée par l'EU.
Le RGPD à été proposé par la commission pour remplacer un ancien texte (Directive 95/46/CE sur la protection des données personnelles) voté en 1995. Ce n'est pas à cause d'une petition

Citation Envoyé par HaryRoseAndMac Voir le message
L'UE ne conçoit rien du tout, c'est un organe qui a totalement outrepassé sa fonction et qui est devenu un parasite qui vampirise les états membres, qui se permet de dicter sa loi et de dire aux divers pays Européens ce qu'ils doivent faire, en imposant des choses folles, en enrichissant les uns sur le fait de faire couler les autres et j'en passe.

Il ne faut pas sortir de l'Europe, car nous en avons besoin, mais il faut faire un très, très grande ménage dans ce cancer sur pate.
Ce sont les pays membres qui forme l'UE. La commission européenne (exécutif) est formée de 27 commissaires nommé par chaque état membre (1 commissaire par pays). Ce sont donc les états membres qui agissent sur l'UE. Il y a aussi le parlement européen (législatif) dont les députés sont élus par les citoyens de l'Union.

C'est la commission européenne qui à proposé en RGPD donc les états membres donc parfaitement dans ses droits.
3  0