IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Un groupe de consommateurs demandent à l'UE d'enquêter d'urgence sur les risques liés à l'IA générative
Et d'appliquer la législation existante pour protéger les consommateurs

Le , par Bill Fassinou

4PARTAGES

5  0 
Un groupe de consommateurs, présent dans plus d'une douzaine de pays européens, demande aux gouvernements d'enquêter d'urgence sur les risques liés à l'IA générative et d'appliquer la législation existante pour protéger les consommateurs. Malgré les possibilités et les avantages qu'ils offrent, le groupe affirme qu'il y a de nombreuses préoccupations concernant la manière dont les systèmes d'IA générative peuvent être utilisés pour tromper, manipuler et nuire aux gens. Cet appel intervient quelques jours seulement après l'adoption de la loi européenne sur l'IA, mais les groupes de défense estiment que l'UE traîne les pas et fait preuve de laxisme sur le sujet.

Le plus grand groupe de consommateurs de l'UE, le Bureau européen des unions de consommateurs (BEUC), a lancé aujourd'hui un appel à l'endroit des autorités : « arrêtez de traîner les pieds et lancez des enquêtes urgentes sur les risques liés à l'IA générative dès à présent ». Le BEUC représente les intérêts des organisations de consommateurs dans 13 pays de l'UE. Le groupe considère l'IA générative comme une technologie disruptive qui a créé des changements importants dans la vie des consommateurs (emploi, éducation, etc.), mais dont les impacts potentiels n'avaient fait l'objet d'aucune évaluation avant qu'elle ne soit lancée dans la nature.

Depuis que ChatGPT a été lancé à la fin de l'année dernière, le chatbot d'IA aurait établi le record de la croissance la plus rapide du nombre d'utilisateurs et suscité davantage de discussions sur la vitesse de développement de l'IA et sur la manière de la réglementer. Alors que certains technologues ont tiré la sonnette d'alarme sur l'IA en tant qu'instrument d'extinction de l'humanité, le débat en Europe a davantage porté sur les incidences de l'IA dans des domaines tels que l'accès équitable aux services, la désinformation et la concurrence. Dans un communiqué publié aujourd'hui, le BEUC énumère certaines des préoccupations clés liées à l'IA générative.


« L'IA générative telle que ChatGPT a ouvert toutes sortes de possibilités pour les consommateurs, mais il existe de sérieuses inquiétudes quant à la manière dont ces systèmes d'IA peuvent tromper, manipuler et nuire aux consommateurs. Ils peuvent également être utilisés pour diffuser de la désinformation, perpétuer les préjugés existants qui amplifient la discrimination, ou être utilisés pour la fraude », a déclaré Ursula Pachl, directrice générale adjointe du BEUC. L'appel du BEUC coïncide avec un rapport publié aujourd'hui par le groupe norvégien de défense des consommateurs Forbrukerrådet, qui conclut à la nécessité d'élaborer davantage de règles.

Le rapport de Forbrukerrådet est sans équivoque : « l'IA cause des préjudices aux consommateurs et pose de nombreux problèmes ». Dans son communiqué, le BEUC a déclaré avoir écrit aux responsables européens chargés de la sécurité et de la protection des consommateurs en avril pour leur demander d'ouvrir des enquêtes en raison de l'ampleur et de la rapidité du déploiement des modèles d'IA, tels que ChatGPT, et des préjudices possibles résultant de leur déploiement. Le Conseil européen de la protection des données a déjà créé un groupe de travail chargé d'examiner ChatGPT. Dans son rapport, Forbrukerrådet relève les préoccupations suivantes :

  • pouvoir, transparence et responsabilité : certains développeurs d'IA, y compris les entreprises Big Tech, ont fermé leurs systèmes à l'examen externe, ce qui rend très difficile la compréhension de la façon dont les données ont été collectées ou comment les algorithmes fonctionnent ;
  • résultats erronés ou inexacts : cela arrive lorsque les systèmes d'IA générative n'ont pas compris le contexte et ils peuvent même inventer des sources inexistantes pour étayer le contenu généré. Par exemple, si un chatbot d'IA donne des conseils médicaux erronés à un consommateur, cela pourrait entraîner un préjudice réel ;
  • utiliser la technologie pour manipuler ou induire en erreur les consommateurs : en imitant les modèles de discours humains et en utilisant un langage émotionnel, les chatbots d'IA peuvent inciter les consommateurs à interagir avec eux et les faire se sentir coupables de ne pas prendre certaines mesures ou les manipuler pour qu'ils paient pour un produit ou un service ;
  • les préjugés et la discrimination : étant donné que les modèles d'IA générative récupèrent d'énormes quantités d'informations sur Internet, leurs résultats peuvent contenir, perpétuer ou créer de nouveaux préjugés. Si les ensembles de données ne sont pas triés et nettoyés, ces facteurs peuvent s'intégrer dans les résultats des systèmes. Par exemple, les générateurs d'images ont tendance à sexualiser les femmes, en particulier les femmes de couleur, à un taux beaucoup plus élevé que les hommes ;
  • vie privée et intégrité personnelle : les générateurs d'images peuvent utiliser des ensembles de données provenant de moteurs de recherche ou de médias sociaux sans base juridique légale ou sans que les personnes figurant sur les images en soient informées. Les générateurs de texte peuvent inclure des données personnelles d'individus qui peuvent être prises hors contexte ;
  • vulnérabilités en matière de sécurité : les systèmes basés sur une IA générative pourraient être utilisés par des escrocs pour générer de grandes quantités de textes d'apparence convaincante afin de tromper les victimes.


Le BEUC estime que ces préoccupations sont "urgentes" et demande aux autorités européennes de s'appuyer sur les règles existantes pour mener des enquêtes afin de protéger les consommateurs. « Nous appelons les responsables chargées de la sécurité, des données et de la protection des consommateurs à ouvrir des enquêtes dès maintenant et à ne pas attendre que toutes sortes de préjudices aient été subis par les consommateurs pour agir. Ces lois s'appliquent à tous les produits et services, qu'ils soient alimentés par l'IA ou non, et les autorités doivent les faire respecter », a déclaré Pachl dans le communiqué publié par le BEUC sur son site.

De son côté, l'UE vient d'approuver la législation sur l'IA (EU AI Act), qui vise à résoudre des problèmes tels que ceux mis en évidence dans le rapport. La loi sur l'IA a été proposée pour la première fois par la Commission européenne en 2021 et l'UE espère conclure les négociations d'ici la fin de l'année. Il s'agit de la première loi de ce type dans le secteur de l'IA. Une fois mise en œuvre, la loi européenne sur l'IA tentera de codifier une certaine forme de compréhension et d'application juridique de l'utilisation commerciale et non commerciale de l'IA. La forme finale de la loi sera issue de négociations entre La Commission et les pays membres de l'UE.

« Il est essentiel que l'UE rende cette loi aussi étanche que possible pour protéger les consommateurs. Tous les systèmes d'IA, y compris l'IA générative, doivent faire l'objet d'un examen public et les autorités publiques doivent réaffirmer leur contrôle sur ces systèmes. Les législateurs doivent exiger que les résultats de tout système d'IA générative soient sûrs, équitables et transparents pour les consommateurs », a déclaré Pachl. Cependant, un rapport sur les influences exercées sur la législation adoptée par l'UE a révélé qu'OpenAI a fait pression sur les législateurs européens et a réussi à apporter plusieurs amendements au projet de loi initial.

Ce qui signifie que la version actuelle de la législation de l'UE sur l'IA est fortement influencée par la politique d'OpenAI en matière d'IA. Le laboratoire d'IA a réussi à réduire le fardeau réglementaire qui pèse sur ses systèmes d'IA, notamment ChatGPT et Dall-E. Les critiques affirmant que les efforts de lobbying intense d'OpenAI visent davantage à protéger ses propres intérêts financiers qu'à promouvoir l'intérêt général. Alors que les systèmes d'IA d'OpenAI souffrent des mêmes problèmes que les systèmes concurrents, les critiques cherchent à savoir dans quelle mesure la législation de l'UE serait contraignante pour l'entreprise.

Sources : Communiqué du BEUC, Rapport du Forbrukerrådet (PDF)

Et vous ?

Quel est votre avis sur le sujet ?

Voir aussi

OpenAI aurait fait pression sur l'Union européenne pour qu'elle édulcore sa réglementation sur l'IA, et aurait réussi à faire passer ses intérêts financiers au détriment de l'intérêt général

Les législateurs de l'UE votent en faveur de règles plus strictes en matière d'IA et le projet entre dans sa phase finale, la réglementation prévoit de lourdes amendes en cas de manquement

Emmanuel Macron annonce un investissement de 500 millions d'euros visant à faire de la France un pôle européen de l'IA, il veut des modèles d'IA français qui rivalisent avec ceux de Google et OpenAI

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 03/06/2024 à 22:27
Citation Envoyé par Mathis Lucas Voir le message
Que pensez-vous du lobbying intense des entreprises d'IA pour contrecarrer les initiatives visant à réglementer l'IA ?
On le voit déjà au niveau des news sur tous les sites et tous les canaux. On essaye de nous vendre de force un truc assez moyen, comme LA panacée.

En général, plus il y a de pub pour un produit, et plus il y a de chances qu'ils soit très mauvais.

Là, on a en plus des lobbyistes qui illustrent le capitalisme non-régulé dans toute sa splendeur, ou comment les plus riches sont capables de faire plier des gouvernements, par la corruption légale qu'est le lobbyisme. On le voit au niveau des entreprises et des communes ici: des avocats de l'IA (et juste avant c'était ceux du cloud des GAFAM) qui organisent des évènements avec les repas, parfois des cadeaux, des ateliers qui sont de la pub grossièrement déguisée, etc.

Bref, rien de neuf: le commercial qui fait sa danse du ventre, et le pigeon qui tombe dans le panneau.
6  0 
Avatar de Pierre Louis Chevalier
Expert éminent sénior https://www.developpez.com
Le 05/06/2024 à 15:55
Citation Envoyé par Anselme45 Voir le message
Pour s'en convaincre, il suffit de lire les news de ce site: La majorité des news traitent maintenant de l'IA... Apparemment les autres technologies numériques ne sont plus dignes d'intérêt
C'est archifaux. Oui il y a sur developpez un tas de news sur l'IA mais c'est parfaitement normal, ça nous concerne, aussi bien les développeurs que les autres informaticiens.

Il n'en reste pas moins que developpez est quasiment le seul et unique site francophone qui passe aussi un tas de news sur l'actualité de la programmation, les nouvelles versions des langages, les nouvelles sorties des EDI (Jetbrains, Microsoft, Embarcadero, ...) , etc. Et c'est surtout devenu le "Médiapart/Canard enchainé" de l'informatique avec toutes les news à scandales sur HP, Microsoft, Google, etc. Exemple l'énorme scandale sur les imprimantes HP avec des centaines de commentaires, et quel rapport avec l'IA ? aucun... D 'ailleurs toi même tu viens de répondre à un sujet à scandale n'ayant rien à voir avec l'IA, à savoir : Google peut garder votre téléphone si vous l’envoyez en réparation avec des pièces qui ne sont pas d’origine

Regarde les rubriques programmation et EDI au lieu de dire n'importe quoi, et il y a toujours une colonne droite avec des tutoriels programmation et IT Pro, des articles gratuits alors que c'est devenu payant ailleurs (Udemy, Elephorm, etc). Developpez est devenu le meilleur site sur francophonie sur l'IA, mais il reste toujours le meilleur site pour les développeurs et même l'IT Pro, c'est bien simple il n'y en a pas d'autre de valables....
6  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 10/04/2024 à 8:28
Je n'ai pas très bien compris ce qui était mesuré pour définir que l'IA émet moins de CO2 qu'un humain pour écrire une page.

Est-ce que l'empreinte carbone des datas center servant à l'IA pour produire sa page est comptée ou non ? Si c'est juste l'empreinte carbone pour l'écriture finale, c'est-à-dire le "pouillème" final, alors l'étude est biaisée.
5  0 
Avatar de OrthodoxWindows
Membre expert https://www.developpez.com
Le 07/02/2024 à 22:16
Encore une étude de greenwashing
4  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 24/03/2024 à 11:22
Et comme pour le 99,9% des résolutions de l'ONU, strictement personne n'en tiendra compte!
4  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 05/06/2024 à 11:19
Citation Envoyé par Anselme45 Voir le message
La majorité des news traitent maintenant de l'IA...
C'est de la faute de l'industrie et non pas des rédacteurs d'actualités.
C'est comme avec Elon Musk, les médias écrivent un article par jour à son sujet donc ça atterrît ici aussi.
Les visiteurs ont le choix de lire les articles qu'ils veulent, il est possible d'ignorer toutes les actualités liées à l'IA si on le souhaite.

L'IA sera peut-être puissante dans 20 ans, j'espère que dans ces 20 ans l'IA ne restera pas le sujet principal dans le monde de la technologie.
Beaucoup de gens doivent être lassés par toutes ces actualités en rapport avec l'IA, les médias mainstream en parlent beaucoup.
Mais après ils ont peut-être raison d'en parler, l'IA pourrait devenir quelque chose d'extrêmement dangereux et avoir des conséquences dramatique sur le monde. Elle va peut-être vraiment prendre le travail de beaucoup de gens, qui vont se retrouver dans la pauvreté, parce qu'ils ne retrouveront plus de travail et n'auront plus de revenu.

Citation Envoyé par Mathis Lucas Voir le message
Pour ce faire, elles ont embauché une importante armée de lobbyistes chargés d'influencer les décideurs politiques et les gouvernements à travers le monde afin qu'ils adoptent des règles "laxistes" au détriment de l'intérêt général. Ils ont déjà réussi à court-circuiter le vote de nombreuses lois sur l'IA ou à façonner certaines législations.
C'est dingue que ces lobbystes arrivent à corrompre autant de décideurs politiques et de gouvernements à travers le monde.

On pourrait presque se dire que les politiciens sont tous pourris.
3  0 
Avatar de mach1974
Membre averti https://www.developpez.com
Le 13/12/2023 à 16:20
Bonjour,
Un peu de rationalisation que diable. On reste sur de l'ia qui calcule les corrélations et en tire des arbres causaux sans décrire les mécaniques même avec LIME et SHAPE, alors que l'analyse grammaticale avec les COI et COD permet de déterminer le sujet et le complément , ce qui permet une logique de prédicat avec le respect des 3 lois d'ASIMOV. C'est un cauchemar. On va voir revenir le temps des sorciers même si Athur C Clarke parle de magie comme la techno qui disparaît. On va élever l'ordinateur au rang de Dieu dans la prochaine étape . C'est bien la peine de faire du modèle checking dans la norme ISO179 pour l'aéronautique ou dans le ferroviaire ....
2  0 
Avatar de totozor
Membre expert https://www.developpez.com
Le 10/04/2024 à 8:01
Citation Envoyé par Jade Emy Voir le message
Il est essentiel de se pencher sur le type d'impact environnemental que l'IA peut finir par avoir. Cependant, il s'avère que l'IA pourrait en fait produire moins d'émissions de carbone que les humains, ce qui la rendrait plus durable. L'IA émet des centaines de fois moins de gaz à effet de serre que l'homme lorsqu'il s'agit d'écrire et de créer des images.
C'est une analyse intéressante mais est ce que ça veut dire qu'utiliser une IA émet moins de carbone qu'utiliser une personne?
Non, pour une raison simple:
Quand la personne travaille et pas l'IA, l'IA n'émet rien
Quand l'IA travaille et pas la personne, la personne émet toujours.
Donc il faudrait comparer le surplus d'émission de la personne quand elle travaille à l'IA.
Les autres facteurs sont nombreux :
L'IA produit (probablement) peu de carbone quand elle travaille parce qu'elle est plus rapide que l'homme mais combien émet son apprentissage?
L'IA nécessite une revue de son travail plus importante que la personne donc combien émet la différence de revue?
Combien d'IA différente faut il pour remplacer toutes les taches d'une personne?
Et je n'ai pas encore parlé de l'apport social d'une personne...

Pensez-vous que cette étude est crédible ou pertinente ?
L'étude en tant que telle à l'air crédible (faite de façon honnête et rigoureuse) par contre le but de celle ci me parait beaucoup moins pertinent.
Quelle conclusion tirer? Qu'il faut faire travailler les IA plutôt que les personnes pour l'édition? Ce n'est pas ce que disent les chercheurs, c'est pourtant ce que nous lisons.
Qui a financer cette étude? Dans quel but? Avec ces réponses nous aurons peut être une clarification de sa pertinence.
On sait que l'un des auteur détient des actions chez NVIDIA mais je n'ai rien trouvé chez le financeur.
Quel est votre avis sur le sujet ?
L'IA n'a rien d'écologique parce qu'elle ajoute de la production de carbone à la production humaine, attaquer la question par cet angle est absurde. (A moins que l'on décide de "faire disparaitre" les personnes qui deviennent "inutiles" mais on dérive vers des gros problèmes éthiques).
Par contre l'IA a d'autres avantages qui méritent d'être étudiés.

Des gens essayent d'aborder les sujets de façon "rationnelle" en ce moment pour transformer des solutions plus ou moins absurdes en bon sens.
La Science n'apporte pas toujours les bonnes réponses aux problèmes parce qu'elle ignore les sciences humaines ou l'éthique.
Pourtant il me semble qu'Asimov nous avait déjà prévenu que cette méthode ne fonctionnait pas.
2  0 
Avatar de OrthodoxWindows
Membre expert https://www.developpez.com
Le 04/06/2024 à 0:31
Citation Envoyé par kain_tn Voir le message
On le voit déjà au niveau des news sur tous les sites et tous les canaux. On essaye de nous vendre de force un truc assez moyen, comme LA panacée.

En général, plus il y a de pub pour un produit, et plus il y a de chances qu'ils soit très mauvais.

Là, on a en plus des lobbyistes qui illustrent le capitalisme non-régulé dans toute sa splendeur, ou comment les plus riches sont capables de faire plier des gouvernements, par la corruption légale qu'est le lobbyisme. On le voit au niveau des entreprises et des communes ici: des avocats de l'IA (et juste avant c'était ceux du cloud des GAFAM) qui organisent des évènements avec les repas, parfois des cadeaux, des ateliers qui sont de la pub grossièrement déguisée, etc.

Bref, rien de neuf: le commercial qui fait sa danse du ventre, et le pigeon qui tombe dans le panneau.
Il y a eu le métavers dernièrement, mais ça à foiré (comme tout le monde l'avais prévu ici).
2  0 
Avatar de Fluxgraveon
Membre régulier https://www.developpez.com
Le 04/06/2024 à 10:56
Qu'y a-t-il de plus effrayant que l'IA incontrôlée ?
Les humains
2  0