IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

La loi européenne sur l'intelligence artificielle peut avoir un effet dissuasif sur les efforts en matière de logiciels libres
Avertissent les experts de la Brookings Institution

Le , par Nancy Rey

4PARTAGES

6  0 
Le groupe de réflexion non partisan Brookings Institution a publié cette semaine un article décriant la réglementation de l'IA open source de l'Union européenne, affirmant qu'elle créerait une responsabilité juridique pour les systèmes d'IA à usage général tout en nuisant à leur développement. Selon le projet de loi sur l'IA de l'UE, les développeurs de logiciels libres devraient respecter des lignes directrices en matière de gestion des risques, de gouvernance des données, de documentation technique et de transparence, ainsi que des normes de précision et de cybersécurité. Les règles proposées par l'UE pourraient limiter le type de recherche qui produit des outils d'IA de pointe comme GPT-3, avertissent les experts dans une nouvelle étude.


La réglementation de l'IA à usage général est débattue par les organes législatifs de l'Union européenne, qui travaillent sur la loi sur l'IA. Une proposition de modification émanant du Conseil de l'UE prendrait la mesure inhabituelle, et néfaste, de réglementer l'IA à code source ouvert. Et, d’après le groupe de réflexion non partisan Brookings, bien que cette mesure vise à permettre une utilisation plus sûre de ces outils, cette proposition créerait une responsabilité juridique pour les modèles d’IA à usage général à code source ouvert, ce qui nuirait à leur développement. Cela pourrait concentrer davantage le pouvoir sur l'avenir de l'IA dans les grandes entreprises technologiques et empêcher la recherche qui est essentielle à la compréhension de l'IA par le public.

Si une entreprise devait déployer un système d'IA open source dont le résultat serait désastreux, il n'est pas inconcevable qu'elle puisse tenter de se dégager de sa responsabilité en poursuivant les développeurs open source sur lesquels elle a construit son produit. « Cela pourrait concentrer davantage le pouvoir sur l'avenir de l'IA dans les grandes entreprises technologiques et empêcher la recherche qui est essentielle à la compréhension de l'IA par le public. En fin de compte, la tentative de l'UE de réglementer l'open-source pourrait créer un ensemble d'exigences alambiquées qui mettent en danger les contributeurs d'IA open-source, probablement sans améliorer l'utilisation de l'IA à usage général », écrit Alex Engler, l'analyste de Brookings qui a publié l'article.

En 2021, la Commission européenne, le bras exécutif politiquement indépendant de l'UE, a publié le texte de la loi sur l'IA, qui vise à promouvoir le déploiement d'une « IA digne de confiance » dans l'UE, alors qu'ils sollicitent les commentaires de l'industrie avant un vote cet automne. Les institutions cherchent à apporter des modifications aux règlements qui tentent d'équilibrer l'innovation et la responsabilité. Mais selon certains experts, la loi sur l'IA, telle qu'elle est rédigée, imposerait des exigences onéreuses aux efforts ouverts de développement de systèmes d'IA. La législation prévoit des exceptions pour certaines catégories d'IA open source, comme celles utilisées exclusivement pour la recherche et avec des contrôles pour éviter les abus. Mais, comme le fait remarquer Engler, il serait difficile, voire impossible, d'empêcher ces projets d'être intégrés dans des systèmes commerciaux, où ils pourraient être utilisés par des acteurs malveillants.

Dans un exemple récent, Stable Diffusion, un système d'IA open source qui génère des images à partir d'invites textuelles, a été publié avec une licence interdisant certains types de contenu. Mais il a rapidement trouvé un public au sein de communautés qui utilisent de tels outils d'IA pour créer des deepfakes pornographiques de célébrités. Oren Etzioni, PDG fondateur de l'Institut Allen pour l'IA, reconnaît que la version actuelle de la loi sur l'IA est problématique. Dans une interview , Etzioni a déclaré que les charges introduites par les règles pourraient avoir un effet dissuasif sur des domaines tels que le développement de systèmes ouverts de génération de texte, qui, selon lui, permettent aux développeurs de « rattraper » les entreprises Big Tech comme Google et Meta.

« La route vers l'enfer de la réglementation est pavée des bonnes intentions de l'UE. Les développeurs de logiciels libres ne devraient pas être soumis au même fardeau que ceux qui développent des logiciels commerciaux. Il devrait toujours être possible de fournir un logiciel libre 'tel quel' - prenons le cas d'un étudiant seul qui développe une capacité d'IA ; il n'a pas les moyens de se conformer aux réglementations de l'UE et peut être contraint de ne pas distribuer son logiciel, ce qui a un effet dissuasif sur les progrès universitaires et sur la reproductibilité des résultats scientifiques, a déclaré Etzioni».

Au lieu de chercher à réglementer les technologies de l'IA de manière générale, les régulateurs de l'UE devraient se concentrer sur des applications spécifiques de l'IA, affirme Etzioni. « Il y a trop d'incertitude et de changements rapides dans l'IA pour que le processus réglementaire lent soit efficace. Au lieu de cela, les applications de l'IA telles que les véhicules autonomes, les bots ou les jouets devraient faire l'objet d'une réglementation », a-t-il déclaré.

Tous les praticiens ne pensent pas que la loi sur l'IA a besoin d'être encore modifiée

Mike Cook, un chercheur en IA qui fait partie du collectif Knives and Paintbrushes, pense qu'il est « parfaitement correct » de réglementer l'IA open source « un peu plus lourdement » que nécessaire. Selon lui, l'établissement d'une norme, quelle qu'elle soit, peut être un moyen de montrer la voie à suivre au niveau mondial, en espérant que d'autres suivront. « Les discours alarmistes sur l'étouffement de l'innovation proviennent principalement de personnes qui veulent supprimer toute réglementation et avoir le champ libre, et ce n'est généralement pas un point de vue auquel j'accorde beaucoup d'importance. Je pense qu'il est normal de légiférer au nom d'un monde meilleur, plutôt que de s'inquiéter de savoir si votre voisin va réglementer moins que vous et en tirer profit d'une manière ou d'une autre, a déclaré Cook.

Une analyse rédigée par Lilian Edwards, professeur de droit à la Newcastle School et conseiller juridique à temps partiel à l'Institut Ada Lovelace, se demande si les fournisseurs de systèmes tels que les grands modèles de langage à code source ouvert (par exemple GPT-3) pourraient être responsables après tout en vertu de la loi sur l'IA. Selon Edwards, le libellé de la législation fait peser la responsabilité de la gestion des utilisations et de l'impact d'un système d'IA sur les diffuseurs en aval, et pas nécessairement sur le développeur initial. « La façon dont les déployeurs en aval utilisent l'IA et l'adaptent peut être aussi importante que la façon dont elle est construite à l'origine. La loi sur l'IA en tient compte dans une certaine mesure, mais pas suffisamment, et ne parvient donc pas à réglementer de manière appropriée les nombreux acteurs qui s'impliquent de diverses manières 'en aval' dans la chaîne d'approvisionnement de l'IA, écrit Edwards.

Chez la startup d'IA Hugging Face, le PDG Clément Delangue, le conseiller Carlos Muñoz Ferrandis et l'experte en politique Irene Solaiman disent qu'ils accueillent favorablement les réglementations visant à protéger les garanties des consommateurs, mais que la loi sur l'IA telle que proposée est trop vague. Par exemple, ils disent qu'il n'est pas clair si la législation s'applique aux modèles d'apprentissage automatique "préentraînés" au cœur des logiciels d'IA ou seulement aux logiciels eux-mêmes. « Ce manque de clarté, associé au non-respect des initiatives de gouvernance communautaire en cours, telles que les licences d'IA ouvertes et responsables, pourrait entraver l'innovation en amont, tout en haut de la chaîne de valeur de l'IA, ce qui est une grande priorité pour nous à Hugging Face. Du point de vue de la concurrence et de l'innovation, si vous imposez déjà des charges trop lourdes sur les fonctionnalités ouvertement publiées au sommet du flux d'innovation de l'IA, vous risquez d'entraver l'innovation incrémentale, la différenciation des produits et la concurrence dynamique, cette dernière étant essentielle sur les marchés technologiques émergents tels que ceux liés à l'IA... Le règlement devrait tenir compte de la dynamique d'innovation des marchés de l'IA et ainsi identifier clairement et protéger les sources essentielles d'innovation sur ces marchés », ont déclaré Delangue, Ferrandis et Solaiman dans une annonce commune.

Quant à Hugging Face, l'entreprise plaide pour des outils de gouvernance de l'IA améliorés, quel que soit le langage final de la loi sur l'IA, comme des licences d'IA « responsables » et des cartes modèles qui incluent des informations telles que l'utilisation prévue d'un système d'IA et son fonctionnement. Delangue, Ferrandis et Solaiman soulignent que l'octroi de licences responsables commence à devenir une pratique courante pour les principales versions de l'IA, comme le modèle linguistique OPT-175 de Meta. « L'innovation ouverte et l'innovation responsable dans le domaine de l'IA ne sont pas des objectifs qui s'excluent mutuellement, mais plutôt des objectifs complémentaires. L'intersection entre les deux devrait être une cible centrale des efforts de réglementation en cours, comme elle l'est actuellement pour la communauté de l'IA », ont déclaré Delangue, Ferrandis et Solaiman. Cela pourrait bien être réalisable. Compte tenu des nombreuses parties mobiles impliquées dans l'élaboration de la réglementation européenne et il faudra probablement des années avant que la réglementation de l'IA dans le bloc ne commence à prendre forme.

Source : Brookings Institution

Et vous ?

Quel est votre avis sur le sujet ?

Voir aussi :

L'organisation européenne des consommateurs estime que la proposition de loi de l'Europe sur l'IA est faible, en matière de protection des consommateurs

Intelligence artificielle : la feuille de route du Parlement européen, l'UE veut porter les investissements dans le secteur de l'IA à 20 milliards d'euros d'ici 2030

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Refuznik
Membre éclairé https://www.developpez.com
Le 15/04/2023 à 21:57
Que pensez-vous de la proposition des parlementaires européens ?
Qu'ils sont complètement dans le flou.

Selon vous, quelles seraient les conséquences d'une telle réglementation pour les créateurs de chatbots d'IA ?
Bah, on n'a pas de règles claires (en tout vas je n'en vois pas dans cet article) donc c'est dur de se prononcer.

Par contre, la 1er régle donné elle est deja hors sol ou la virgule est mal placé. Je cite "...les applications et les systèmes qui créent un risque inacceptable, tels que les systèmes de notation sociale gérés par le gouvernement, comme ceux utilisés en Chine, sont interdits."
Oui, un système notation basé sur l'IA doit être interdit dans tous les cas et on a beaucoup d'exemples dans le monde professionnel.
Par contre parler de gouvernement chinois et de leur notation individuel est complètement à côté de la plaque vu que ce système n'existe pas.

Extrait d'un article du MIT :
Existe-t-il donc un score de crédit social centralisé calculé pour chaque citoyen chinois ?
Non. Contrairement à la croyance populaire, il n'y a pas de score central de crédit social pour les individus. Et franchement, le gouvernement central chinois n'a jamais parlé d'en vouloir un.


Y a-t-il une technologie de pointe, comme l'intelligence artificielle, impliquée dans le système ?
Pour la plupart, non. C'est un autre mythe courant sur le système de crédit social en Chine : les gens s'imaginent que pour suivre les comportements sociaux de plus d'un milliard de personnes, il doit y avoir un puissant algorithme central qui peut collecter et traiter les données.

Mais ce n'est pas vrai. Puisqu'il n'y a pas de système central qui note tout le monde, ce type d'algorithme puissant n'est même pas nécessaire. Les experts du système de crédit social chinois affirment que l'ensemble de l'infrastructure est étonnamment peu technologique. Alors que les responsables chinois nomment parfois des technologies telles que la blockchain et l'intelligence artificielle lorsqu'ils parlent du système, ils ne parlent jamais en détail de la manière dont ces technologies pourraient être utilisées. Si vous consultez le site Web de Credit China, ce n'est rien de plus qu'une bibliothèque numérisée de bases de données distinctes.


Lien : https://www.technologyreview.com/202...-does-it-mean/
4  0 
Avatar de mith06
Membre expérimenté https://www.developpez.com
Le 16/06/2023 à 11:34
Quand ils vont se rendre compte qu "l'IA" permet de faire de la surveillance de masse, ils vont renommer ca en "algorithme à réseaux de neurone profond" pour contourner leur propre interdiction

les applications et les systèmes qui créent un risque inacceptable, tels que les systèmes d'évaluation sociale gérés par le gouvernement, comme ceux utilisés en Chine, sont interdits ;
Le modèle Chinois c'est leur rêve....

les applications qui ne sont pas explicitement interdites ou répertoriées comme présentant un risque élevé échappent en grande partie à la réglementation.
Normalement tout c'est qui n'est pas interdit est autorisé.
Mais pour ces gens tout ce qui n'est pas autorisé devrait être interdit.
5  1 
Avatar de OrthodoxWindows
Membre émérite https://www.developpez.com
Le 07/02/2024 à 22:16
Encore une étude de greenwashing
4  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 24/03/2024 à 11:22
Et comme pour le 99,9% des résolutions de l'ONU, strictement personne n'en tiendra compte!
4  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 10/04/2024 à 8:28
Je n'ai pas très bien compris ce qui était mesuré pour définir que l'IA émet moins de CO2 qu'un humain pour écrire une page.

Est-ce que l'empreinte carbone des datas center servant à l'IA pour produire sa page est comptée ou non ? Si c'est juste l'empreinte carbone pour l'écriture finale, c'est-à-dire le "pouillème" final, alors l'étude est biaisée.
4  0 
Avatar de Thibaut_D
Membre à l'essai https://www.developpez.com
Le 08/02/2023 à 17:08
Citation Envoyé par HaryRoseAndMac Voir le message
La RGPD n'a pas été inventée par l'EU.
Le RGPD à été proposé par la commission pour remplacer un ancien texte (Directive 95/46/CE sur la protection des données personnelles) voté en 1995. Ce n'est pas à cause d'une petition

Citation Envoyé par HaryRoseAndMac Voir le message
L'UE ne conçoit rien du tout, c'est un organe qui a totalement outrepassé sa fonction et qui est devenu un parasite qui vampirise les états membres, qui se permet de dicter sa loi et de dire aux divers pays Européens ce qu'ils doivent faire, en imposant des choses folles, en enrichissant les uns sur le fait de faire couler les autres et j'en passe.

Il ne faut pas sortir de l'Europe, car nous en avons besoin, mais il faut faire un très, très grande ménage dans ce cancer sur pate.
Ce sont les pays membres qui forme l'UE. La commission européenne (exécutif) est formée de 27 commissaires nommé par chaque état membre (1 commissaire par pays). Ce sont donc les états membres qui agissent sur l'UE. Il y a aussi le parlement européen (législatif) dont les députés sont élus par les citoyens de l'Union.

C'est la commission européenne qui à proposé en RGPD donc les états membres donc parfaitement dans ses droits.
3  0 
Avatar de walfrat
Membre émérite https://www.developpez.com
Le 07/03/2023 à 9:27
Citation Envoyé par ciola Voir le message
"ChatGPT présente des preuves de raisonnement déductif et de chaîne de pensée"
Je l'ai essayé pour voir s'il pouvait faire des preuves en géométrie et c'est vraiment pas fameux. Ses démonstrations ressemblent beaucoup aux tentatives d'enfumage de certains de mes étudiants quand ils ne maîtrisent le sujet.
En soi on le sait déjà que les maths sont pas son point fort.

En même temps c'est une IA qui est faite pour des "conversations" plus que des "démonstrations scientifiques".
3  0 
Avatar de stardeath
Expert confirmé https://www.developpez.com
Le 16/04/2023 à 21:06
Citation Envoyé par Nym4x Voir le message
C'est un peu comme si j'allais braquer une banque puis j'utilisais l'argent pour devenir actionnaire majoritaire de la banque.
pas vraiment non, dans le cas de la banque, tu dépossèdes la-dite banque de "son" argent qu'elle n'a donc plus.
ici, de la même manière que la grande époque des copies pirates, du droit à la copie privée, etc. tu utilises des données donc déjà tu ne soustrais pas ces informations de celui qui les as publié.

ensuite c'est stricto sensu identique à toi ou autre qui irait à gauche et à droite glaner, je sais pas trop, des styles de textes ou des dessins que tu aimes, et t'en servir pour produire toi même une nouvelle œuvre.
surtout ici dans un forum sur la programmation, avec les copiés/collés provenant de stackoverflow, github ou autres, on serait les premier à tomber pour "vol".
il me semble que dans cette optique les dévs de wine sont interdits de même lire les leaks du code de windows pour éviter de produire du code qui serait un peu ressemblant. bref.

les gens sont enragés parce que le processus devient industriel, parce que sinon, ils devraient râler et faire interdire toutes les nouvelles œuvres qui sortent chaque jour (qui, sauf à ce que l'auteur créé un truc de toute pièce sans aucune ressemblance avec quelque chose déjà paru, ressemble forcément à de l’existant).

là on est juste sur l'exemple typique d'un ralentisseur qu'on met que sur un coté de la route :
- celui qui a commandé le projet peut se vanter de mériter son salaire sous couvert de sécurité routière ;
- tout le monde passera à coté, y compris celui qui l'a commandé, parce qu'il y a suffisamment de place pour contourner.
3  0 
Avatar de Madmac
Membre extrêmement actif https://www.developpez.com
Le 21/04/2023 à 1:00
Citation Envoyé par Ryu2000 Voir le message
Une batterie amovible ça prend de la place et ça coute cher, c'est pour ça qu'il n'y en a plus dans les smartphones.
Je ne sais pas où tu as pris cette idée. Car en pratique ce sont exactement les mêmes batteries. Et je ne parle pas de batterie AA ou AAA rechargeable. Mais de pile plate pour les téléphones. Sauf que maintenant les fils sont soudés alors qu'auparavant, ils étaient reliés avec un connecteur

Ton téléphone est toujours raccordé au réseau, même quand il est fermé. Appel un ami et demande-lui de t'envoyer un texto dans 5 minutes et ferme ton téléphone. Je ne sais pas si c'est à la demande de la CIA ou de la NSA, mais la géo-position est activable à distance.
3  0 
Avatar de Franck Z
Membre régulier https://www.developpez.com
Le 21/04/2023 à 15:44
J'ai une petite inquiétude qui trotte dans ma tête : les échanges (mails, forums, etc...) risquent-ils d'être aussi inclus (un jour) dans les données d'apprentissage de ces IA ? Idem pour les requêtes faites aux robots/moteurs de recherche ? Il me semble avoir lu que des sociétés comme GMail analysent déjà les mails privés de leurs utilisateurs pour le ciblage publicitaire ; la tentation d'une analyse au profit d'IA génératives va être grande pour eux.

Parce que sinon, on va voir non seulement des oeuvres (finies) pillées par les IA mais aussi celles en cours de réalisation...

Pour fixer un exemple : un écrivain/scénariste qui participe à un forum d'écrivain pour chercher du soutien ou des retours sur son projet, ou qui simplement en discute par mail avec son éditeur pourrait-il voir ses idées utilisées pour les réponses d'une IA avant même que son oeuvre soit achevée et soumise au droit d'auteur ?
3  0