IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

L'UE envisagerait des règles très strictes pour les chatbots dans le cadre de son projet de loi sur l'IA
Elle devrait exiger la divulgation de l'utilisation du matériel protégé par le droit d'auteur

Le , par Bill Fassinou

20PARTAGES

6  0 
L'UE pourrait introduire prochainement une réglementation très stricte en ce qui concerne le développement et le déploiement des chatbots d'IA. Les nouvelles règles, qui seraient en cours de préparation au Parlement européen, proposeraient d'obliger les fabricants de chatbots d'IA à révéler s'ils utilisent du matériel protégé par des droits d'auteur. Cela pourrait permettre aux créateurs de contenu de jouir d'une redevance de droit d'auteur. L'IA générative a donné lieu à de nombreuses plaintes en matière de violation de droit d'auteur et l'UE veut y mettre un terme. À mesure que la loi sur l'IA évolue, les chatbots pourraient faire l'objet d'une surveillance accrue.

Les discussions se poursuivent à Bruxelles concernant les propositions de la loi européenne sur l'IA (EU AI Act). C'est la première loi sur l'IA émanant d'une autorité de régulation majeure dans le monde. Elle classe les applications d'IA dans trois catégories de risque. Premièrement, les applications et les systèmes qui créent un risque inacceptable, tels que les systèmes de notation sociale gérés par le gouvernement, comme ceux utilisés en Chine, sont interdits. Deuxièmement, les applications d'IA à haut risque, comme un outil de balayage de CV qui classe les candidats à l'emploi, sont soumises à des exigences légales spécifiques par les régulateurs de l'UE.

Enfin, les applications qui ne sont pas explicitement interdites ou répertoriées comme présentant un risque élevé échappent en grande partie à la réglementation. Les chatbots d'IA pourraient être classés dans cette catégorie. Ainsi, des sources au fait des discussions à Bruxelles rapportent que l'UE prépare de nouvelles réglementations qui pourraient avoir un impact majeur sur le développement et le déploiement des outils d'IA. Parmi les mesures susceptibles d'être proposées figure l'obligation pour les développeurs de produits tels que ChatGPT d'OpenAI de déclarer si du matériel protégé par des droits d'auteur est utilisé pour entraîner leurs modèles d'IA.


La mesure semble être conçue pour permettre aux créateurs de contenu d'exiger un paiement (une redevance de droit d'auteur). En effet, l'IA générative a pris tout le monde court par son essor rapide. Aucun régulateur, gouvernement ou analyste ne peut s'enorgueillir d'avoir anticipé brièvement les bouleversements radicaux qu'elle a déjà introduits et qu'elle pourrait encore introduire à l'avenir en raison de ses puissantes capacités et de son adoption généralisée. Cela a contraint certains pays à prendre des mesures d'urgence. Fin mars, l'Italie a bloqué temporairement le chatbot d'IA ChatGPT d'OpenAI, invoquant des violations présumées de la vie privée.

Le commissaire allemand à la protection des données envisage une interdiction similaire et la France se pencherait également sur la question après plusieurs plaintes déposées auprès de la CNIL contre OpenAI. En outre, l'IA générative soulève également des questions sur la violation du droit d'auteur. Les régulateurs et les tribunaux se demandent si les programmes basés sur une IA générative peuvent porter atteinte au droit d'auteur sur des œuvres existantes, soit en faisant des copies d'œuvres existantes pour entraîner l'IA, soit en générant des résultats qui ressemblent à ces œuvres existantes. Les tribunaux ont enregistré de nombreuses plaintes à ce sujet.

Les modèles d'IA de génération de texte (comme ChatGPT et Claude) et les modèles d'IA de génération d'œuvre d'art (comme Stable Diffusion, Midjourney et DALL-E 2) peuvent des résultats fascinants. De plus, la qualité et la vitesse de création sont élevées par rapport à la performance humaine moyenne. Cependant, si l'on peut penser que ces nouveaux outils d'IA peuvent faire surgir de nouveaux éléments de l'éther, ce n'est pas tout à fait le cas. Les plateformes d'IA générative sont formées sur des lacs de données et des extraits de questions (des milliards de paramètres construits par des logiciels qui traitent d'énormes archives d'images et de textes).

Les outils d'IA récupèrent des modèles et des relations, qu'elles utilisent ensuite pour créer des règles, puis pour émettre des jugements et des prédictions, lorsqu'elles répondent à une question. Ce processus comporte des risques juridiques, notamment en matière de violation de la propriété intellectuelle. Dans de nombreux cas, il pose également des questions juridiques qui sont encore en cours de résolution. Par exemple, la violation des droits d'auteur, des brevets et des marques s'applique-t-elle aux créations de l'IA ? Qui est réellement le propriétaire du contenu que les plateformes d'IA générative créent pour vous ou pour vos clients ?

Comme indiqué précédemment, OpenAI a refusé de partager des détails sur la formation de GPT-4, à la grande déception des chercheurs en IA qui plaident en faveur d'une plus grande transparence. Ce refus illustre toutefois le virage à 180 degrés d'OpenAI par rapport à ses fondements initiaux. Fondé en tant qu'organisation à but non lucratif en 2015, l'entreprise a viré de bord en 2019 pour aller vers la recherche du profit et a reçu des milliards de dollars d'investissement de la part de Microsoft. OpenAI, qui voulait démocratiser l'IA et le rendre accessible à tous, est devenue une entreprise très fermée, accordant un accès spécial à ses produits à Microsoft.

Pour l'instant, la proposition visant à obliger les créateurs de chatbots à divulguer le matériel protégé par un droit d'auteur n'est qu'une rumeur et la loi sur l'IA est en cours d'élaboration depuis 2021. Peu de détails sont disponibles sur les propositions. Toutefois, les sources indiquent que le débat sur les règles supplémentaires relatives aux chatbots suggère que le processus de finalisation de la loi ne s'achèvera pas avant au moins 2024. Dans l'intervalle, les États membres de l'UE continuent d'élaborer leurs propres politiques, créant ainsi un réseau complexe de critères de gouvernance dans lequel des entreprises comme OpenAI doivent naviguer.

Selon les sources, une autre proposition à l'étude exigerait que les chatbots d'IA informent les utilisateurs humains qu'ils ne sont pas en train de converser avec un autre humain. Compte tenu des cas où des personnes se sont attachées à des chatbots et où certaines ont même cru qu'ils étaient sensibles, les législateurs estiment qu'une telle divulgation est une première étape fondamentale. Elles ont ajouté que les députés européens souhaiteraient également que la responsabilité de l'utilisation abusive des programmes d'IA incombe aux développeurs tels que l'OpenAI, plutôt qu'aux petites entreprises qui l'utilisent. Rien n'est encore officiel toutefois.

Avant que les entreprises puissent profiter pleinement des avantages de l'IA générative, elles doivent en comprendre les risques et savoir comment se protéger. Dragoș Tudorache, un membre du Parlement européen qui dirige les négociations sur la loi sur l'IA, a souligné l'importance des réglementations pour garantir un déploiement sûr. « C'est une technologie pionnière, et nous devons l'exploiter, ce qui signifie mettre en place des règles. L'autorégulation des entreprises ne suffit pas », a-t-il déclaré.

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous de la proposition des parlementaires européens ?
En quoi ces nouvelles règles potentielles peuvent-elles être bénéfiques pour les créateurs de contenu ?
Selon vous, quelles seraient les conséquences d'une telle réglementation pour les créateurs de chatbots d'IA ?

Voir aussi

« Nous nous dirigeons à grands pas vers un Internet fortement influencé par l'IA, bourré de pépins, de spams et d'escroqueries », affirme un journaliste senior du MIT Technology Review

« Les appels à suspendre le développement des systèmes d'IA ne résoudront pas les défis liés à leur mise sur pied », d'après Bill Gates qui entrevoit l'échec d'un consensus à l'échelle mondiale

La loi européenne sur l'intelligence artificielle est retardée, les législateurs n'ayant pas réussi à se mettre d'accord sur un ensemble de propositions de base

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Pierre Louis Chevalier
Expert éminent sénior https://www.developpez.com
Le 05/06/2024 à 15:55
Citation Envoyé par Anselme45 Voir le message
Pour s'en convaincre, il suffit de lire les news de ce site: La majorité des news traitent maintenant de l'IA... Apparemment les autres technologies numériques ne sont plus dignes d'intérêt
C'est archifaux. Oui il y a sur developpez un tas de news sur l'IA mais c'est parfaitement normal, ça nous concerne, aussi bien les développeurs que les autres informaticiens.

Il n'en reste pas moins que developpez est quasiment le seul et unique site francophone qui passe aussi un tas de news sur l'actualité de la programmation, les nouvelles versions des langages, les nouvelles sorties des EDI (Jetbrains, Microsoft, Embarcadero, ...) , etc. Et c'est surtout devenu le "Médiapart/Canard enchainé" de l'informatique avec toutes les news à scandales sur HP, Microsoft, Google, etc. Exemple l'énorme scandale sur les imprimantes HP avec des centaines de commentaires, et quel rapport avec l'IA ? aucun... D 'ailleurs toi même tu viens de répondre à un sujet à scandale n'ayant rien à voir avec l'IA, à savoir : Google peut garder votre téléphone si vous l’envoyez en réparation avec des pièces qui ne sont pas d’origine

Regarde les rubriques programmation et EDI au lieu de dire n'importe quoi, et il y a toujours une colonne droite avec des tutoriels programmation et IT Pro, des articles gratuits alors que c'est devenu payant ailleurs (Udemy, Elephorm, etc). Developpez est devenu le meilleur site sur francophonie sur l'IA, mais il reste toujours le meilleur site pour les développeurs et même l'IT Pro, c'est bien simple il n'y en a pas d'autre de valables....
7  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 03/06/2024 à 22:27
Citation Envoyé par Mathis Lucas Voir le message
Que pensez-vous du lobbying intense des entreprises d'IA pour contrecarrer les initiatives visant à réglementer l'IA ?
On le voit déjà au niveau des news sur tous les sites et tous les canaux. On essaye de nous vendre de force un truc assez moyen, comme LA panacée.

En général, plus il y a de pub pour un produit, et plus il y a de chances qu'ils soit très mauvais.

Là, on a en plus des lobbyistes qui illustrent le capitalisme non-régulé dans toute sa splendeur, ou comment les plus riches sont capables de faire plier des gouvernements, par la corruption légale qu'est le lobbyisme. On le voit au niveau des entreprises et des communes ici: des avocats de l'IA (et juste avant c'était ceux du cloud des GAFAM) qui organisent des évènements avec les repas, parfois des cadeaux, des ateliers qui sont de la pub grossièrement déguisée, etc.

Bref, rien de neuf: le commercial qui fait sa danse du ventre, et le pigeon qui tombe dans le panneau.
6  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 10/04/2024 à 8:28
Je n'ai pas très bien compris ce qui était mesuré pour définir que l'IA émet moins de CO2 qu'un humain pour écrire une page.

Est-ce que l'empreinte carbone des datas center servant à l'IA pour produire sa page est comptée ou non ? Si c'est juste l'empreinte carbone pour l'écriture finale, c'est-à-dire le "pouillème" final, alors l'étude est biaisée.
5  0 
Avatar de Refuznik
Membre éclairé https://www.developpez.com
Le 15/04/2023 à 21:57
Que pensez-vous de la proposition des parlementaires européens ?
Qu'ils sont complètement dans le flou.

Selon vous, quelles seraient les conséquences d'une telle réglementation pour les créateurs de chatbots d'IA ?
Bah, on n'a pas de règles claires (en tout vas je n'en vois pas dans cet article) donc c'est dur de se prononcer.

Par contre, la 1er régle donné elle est deja hors sol ou la virgule est mal placé. Je cite "...les applications et les systèmes qui créent un risque inacceptable, tels que les systèmes de notation sociale gérés par le gouvernement, comme ceux utilisés en Chine, sont interdits."
Oui, un système notation basé sur l'IA doit être interdit dans tous les cas et on a beaucoup d'exemples dans le monde professionnel.
Par contre parler de gouvernement chinois et de leur notation individuel est complètement à côté de la plaque vu que ce système n'existe pas.

Extrait d'un article du MIT :
Existe-t-il donc un score de crédit social centralisé calculé pour chaque citoyen chinois ?
Non. Contrairement à la croyance populaire, il n'y a pas de score central de crédit social pour les individus. Et franchement, le gouvernement central chinois n'a jamais parlé d'en vouloir un.


Y a-t-il une technologie de pointe, comme l'intelligence artificielle, impliquée dans le système ?
Pour la plupart, non. C'est un autre mythe courant sur le système de crédit social en Chine : les gens s'imaginent que pour suivre les comportements sociaux de plus d'un milliard de personnes, il doit y avoir un puissant algorithme central qui peut collecter et traiter les données.

Mais ce n'est pas vrai. Puisqu'il n'y a pas de système central qui note tout le monde, ce type d'algorithme puissant n'est même pas nécessaire. Les experts du système de crédit social chinois affirment que l'ensemble de l'infrastructure est étonnamment peu technologique. Alors que les responsables chinois nomment parfois des technologies telles que la blockchain et l'intelligence artificielle lorsqu'ils parlent du système, ils ne parlent jamais en détail de la manière dont ces technologies pourraient être utilisées. Si vous consultez le site Web de Credit China, ce n'est rien de plus qu'une bibliothèque numérisée de bases de données distinctes.


Lien : https://www.technologyreview.com/202...-does-it-mean/
4  0 
Avatar de mith06
Membre expérimenté https://www.developpez.com
Le 16/06/2023 à 11:34
Quand ils vont se rendre compte qu "l'IA" permet de faire de la surveillance de masse, ils vont renommer ca en "algorithme à réseaux de neurone profond" pour contourner leur propre interdiction

les applications et les systèmes qui créent un risque inacceptable, tels que les systèmes d'évaluation sociale gérés par le gouvernement, comme ceux utilisés en Chine, sont interdits ;
Le modèle Chinois c'est leur rêve....

les applications qui ne sont pas explicitement interdites ou répertoriées comme présentant un risque élevé échappent en grande partie à la réglementation.
Normalement tout c'est qui n'est pas interdit est autorisé.
Mais pour ces gens tout ce qui n'est pas autorisé devrait être interdit.
5  1 
Avatar de OrthodoxWindows
Membre expert https://www.developpez.com
Le 07/02/2024 à 22:16
Encore une étude de greenwashing
4  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 24/03/2024 à 11:22
Et comme pour le 99,9% des résolutions de l'ONU, strictement personne n'en tiendra compte!
4  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 05/06/2024 à 11:19
Citation Envoyé par Anselme45 Voir le message
La majorité des news traitent maintenant de l'IA...
C'est de la faute de l'industrie et non pas des rédacteurs d'actualités.
C'est comme avec Elon Musk, les médias écrivent un article par jour à son sujet donc ça atterrît ici aussi.
Les visiteurs ont le choix de lire les articles qu'ils veulent, il est possible d'ignorer toutes les actualités liées à l'IA si on le souhaite.

L'IA sera peut-être puissante dans 20 ans, j'espère que dans ces 20 ans l'IA ne restera pas le sujet principal dans le monde de la technologie.
Beaucoup de gens doivent être lassés par toutes ces actualités en rapport avec l'IA, les médias mainstream en parlent beaucoup.
Mais après ils ont peut-être raison d'en parler, l'IA pourrait devenir quelque chose d'extrêmement dangereux et avoir des conséquences dramatique sur le monde. Elle va peut-être vraiment prendre le travail de beaucoup de gens, qui vont se retrouver dans la pauvreté, parce qu'ils ne retrouveront plus de travail et n'auront plus de revenu.

Citation Envoyé par Mathis Lucas Voir le message
Pour ce faire, elles ont embauché une importante armée de lobbyistes chargés d'influencer les décideurs politiques et les gouvernements à travers le monde afin qu'ils adoptent des règles "laxistes" au détriment de l'intérêt général. Ils ont déjà réussi à court-circuiter le vote de nombreuses lois sur l'IA ou à façonner certaines législations.
C'est dingue que ces lobbystes arrivent à corrompre autant de décideurs politiques et de gouvernements à travers le monde.

On pourrait presque se dire que les politiciens sont tous pourris.
4  0 
Avatar de
https://www.developpez.com
Le 27/10/2024 à 9:59
L'enfer normatif européens a déjà réussi à laminer l'industrie et l'agriculture voilà qu'il s'attaque maintenant à la tech (dont l'IA).
Pour commencer à "Entreprendre" il faut désormais avoir les moyens de se doter d'une armée de juriste et d'avocat, sans parler des taxes et impôts. Étouffant !

Je comprend pas qu'on ne commence pas à faire de la prévention dans les écoles concernant l'IA ? (Une IA peut raconter n'importe quoi, et ça sera toujours le cas !)
Introduire les élèves dès le plus jeune âge à l'esprit critique et à la compréhension de ce qu'est l'IA n'est-il pas la meilleur solution ?
4  0 
Avatar de stardeath
Expert confirmé https://www.developpez.com
Le 16/04/2023 à 21:06
Citation Envoyé par Nym4x Voir le message
C'est un peu comme si j'allais braquer une banque puis j'utilisais l'argent pour devenir actionnaire majoritaire de la banque.
pas vraiment non, dans le cas de la banque, tu dépossèdes la-dite banque de "son" argent qu'elle n'a donc plus.
ici, de la même manière que la grande époque des copies pirates, du droit à la copie privée, etc. tu utilises des données donc déjà tu ne soustrais pas ces informations de celui qui les as publié.

ensuite c'est stricto sensu identique à toi ou autre qui irait à gauche et à droite glaner, je sais pas trop, des styles de textes ou des dessins que tu aimes, et t'en servir pour produire toi même une nouvelle œuvre.
surtout ici dans un forum sur la programmation, avec les copiés/collés provenant de stackoverflow, github ou autres, on serait les premier à tomber pour "vol".
il me semble que dans cette optique les dévs de wine sont interdits de même lire les leaks du code de windows pour éviter de produire du code qui serait un peu ressemblant. bref.

les gens sont enragés parce que le processus devient industriel, parce que sinon, ils devraient râler et faire interdire toutes les nouvelles œuvres qui sortent chaque jour (qui, sauf à ce que l'auteur créé un truc de toute pièce sans aucune ressemblance avec quelque chose déjà paru, ressemble forcément à de l’existant).

là on est juste sur l'exemple typique d'un ralentisseur qu'on met que sur un coté de la route :
- celui qui a commandé le projet peut se vanter de mériter son salaire sous couvert de sécurité routière ;
- tout le monde passera à coté, y compris celui qui l'a commandé, parce qu'il y a suffisamment de place pour contourner.
3  0