Le plus grand groupe de consommateurs de l'UE, le Bureau européen des unions de consommateurs (BEUC), a lancé aujourd'hui un appel à l'endroit des autorités : « arrêtez de traîner les pieds et lancez des enquêtes urgentes sur les risques liés à l'IA générative dès à présent ». Le BEUC représente les intérêts des organisations de consommateurs dans 13 pays de l'UE. Le groupe considère l'IA générative comme une technologie disruptive qui a créé des changements importants dans la vie des consommateurs (emploi, éducation, etc.), mais dont les impacts potentiels n'avaient fait l'objet d'aucune évaluation avant qu'elle ne soit lancée dans la nature.
Depuis que ChatGPT a été lancé à la fin de l'année dernière, le chatbot d'IA aurait établi le record de la croissance la plus rapide du nombre d'utilisateurs et suscité davantage de discussions sur la vitesse de développement de l'IA et sur la manière de la réglementer. Alors que certains technologues ont tiré la sonnette d'alarme sur l'IA en tant qu'instrument d'extinction de l'humanité, le débat en Europe a davantage porté sur les incidences de l'IA dans des domaines tels que l'accès équitable aux services, la désinformation et la concurrence. Dans un communiqué publié aujourd'hui, le BEUC énumère certaines des préoccupations clés liées à l'IA générative.
« L'IA générative telle que ChatGPT a ouvert toutes sortes de possibilités pour les consommateurs, mais il existe de sérieuses inquiétudes quant à la manière dont ces systèmes d'IA peuvent tromper, manipuler et nuire aux consommateurs. Ils peuvent également être utilisés pour diffuser de la désinformation, perpétuer les préjugés existants qui amplifient la discrimination, ou être utilisés pour la fraude », a déclaré Ursula Pachl, directrice générale adjointe du BEUC. L'appel du BEUC coïncide avec un rapport publié aujourd'hui par le groupe norvégien de défense des consommateurs Forbrukerrådet, qui conclut à la nécessité d'élaborer davantage de règles.
Le rapport de Forbrukerrådet est sans équivoque : « l'IA cause des préjudices aux consommateurs et pose de nombreux problèmes ». Dans son communiqué, le BEUC a déclaré avoir écrit aux responsables européens chargés de la sécurité et de la protection des consommateurs en avril pour leur demander d'ouvrir des enquêtes en raison de l'ampleur et de la rapidité du déploiement des modèles d'IA, tels que ChatGPT, et des préjudices possibles résultant de leur déploiement. Le Conseil européen de la protection des données a déjà créé un groupe de travail chargé d'examiner ChatGPT. Dans son rapport, Forbrukerrådet relève les préoccupations suivantes :
- pouvoir, transparence et responsabilité : certains développeurs d'IA, y compris les entreprises Big Tech, ont fermé leurs systèmes à l'examen externe, ce qui rend très difficile la compréhension de la façon dont les données ont été collectées ou comment les algorithmes fonctionnent ;
- résultats erronés ou inexacts : cela arrive lorsque les systèmes d'IA générative n'ont pas compris le contexte et ils peuvent même inventer des sources inexistantes pour étayer le contenu généré. Par exemple, si un chatbot d'IA donne des conseils médicaux erronés à un consommateur, cela pourrait entraîner un préjudice réel ;
- utiliser la technologie pour manipuler ou induire en erreur les consommateurs : en imitant les modèles de discours humains et en utilisant un langage émotionnel, les chatbots d'IA peuvent inciter les consommateurs à interagir avec eux et les faire se sentir coupables de ne pas prendre certaines mesures ou les manipuler pour qu'ils paient pour un produit ou un service ;
- les préjugés et la discrimination : étant donné que les modèles d'IA générative récupèrent d'énormes quantités d'informations sur Internet, leurs résultats peuvent contenir, perpétuer ou créer de nouveaux préjugés. Si les ensembles de données ne sont pas triés et nettoyés, ces facteurs peuvent s'intégrer dans les résultats des systèmes. Par exemple, les générateurs d'images ont tendance à sexualiser les femmes, en particulier les femmes de couleur, à un taux beaucoup plus élevé que les hommes ;
- vie privée et intégrité personnelle : les générateurs d'images peuvent utiliser des ensembles de données provenant de moteurs de recherche ou de médias sociaux sans base juridique légale ou sans que les personnes figurant sur les images en soient informées. Les générateurs de texte peuvent inclure des données personnelles d'individus qui peuvent être prises hors contexte ;
- vulnérabilités en matière de sécurité : les systèmes basés sur une IA générative pourraient être utilisés par des escrocs pour générer de grandes quantités de textes d'apparence convaincante afin de tromper les victimes.
Le BEUC estime que ces préoccupations sont "urgentes" et demande aux autorités européennes de s'appuyer sur les règles existantes pour mener des enquêtes afin de protéger les consommateurs. « Nous appelons les responsables chargées de la sécurité, des données et de la protection des consommateurs à ouvrir des enquêtes dès maintenant et à ne pas attendre que toutes sortes de préjudices aient été subis par les consommateurs pour agir. Ces lois s'appliquent à tous les produits et services, qu'ils soient alimentés par l'IA ou non, et les autorités doivent les faire respecter », a déclaré Pachl dans le communiqué publié par le BEUC sur son site.
De son côté, l'UE vient d'approuver la législation sur l'IA (EU AI Act), qui vise à résoudre des problèmes tels que ceux mis en évidence dans le rapport. La loi sur l'IA a été proposée pour la première fois par la Commission européenne en 2021 et l'UE espère conclure les négociations d'ici la fin de l'année. Il s'agit de la première loi de ce type dans le secteur de l'IA. Une fois mise en œuvre, la loi européenne sur l'IA tentera de codifier une certaine forme de compréhension et d'application juridique de l'utilisation commerciale et non commerciale de l'IA. La forme finale de la loi sera issue de négociations entre La Commission et les pays membres de l'UE.
« Il est essentiel que l'UE rende cette loi aussi étanche que possible pour protéger les consommateurs. Tous les systèmes d'IA, y compris l'IA générative, doivent faire l'objet d'un examen public et les autorités publiques doivent réaffirmer leur contrôle sur ces systèmes. Les législateurs doivent exiger que les résultats de tout système d'IA générative soient sûrs, équitables et transparents pour les consommateurs », a déclaré Pachl. Cependant, un rapport sur les influences exercées sur la législation adoptée par l'UE a révélé qu'OpenAI a fait pression sur les législateurs européens et a réussi à apporter plusieurs amendements au projet de loi initial.
Ce qui signifie que la version actuelle de la législation de l'UE sur l'IA est fortement influencée par la politique d'OpenAI en matière d'IA. Le laboratoire d'IA a réussi à réduire le fardeau réglementaire qui pèse sur ses systèmes d'IA, notamment ChatGPT et Dall-E. Les critiques affirmant que les efforts de lobbying intense d'OpenAI visent davantage à protéger ses propres intérêts financiers qu'à promouvoir l'intérêt général. Alors que les systèmes d'IA d'OpenAI souffrent des mêmes problèmes que les systèmes concurrents, les critiques cherchent à savoir dans quelle mesure la législation de l'UE serait contraignante pour l'entreprise.
Sources : Communiqué du BEUC, Rapport du Forbrukerrådet (PDF)
Et vous ?
Quel est votre avis sur le sujet ?
Voir aussi
OpenAI aurait fait pression sur l'Union européenne pour qu'elle édulcore sa réglementation sur l'IA, et aurait réussi à faire passer ses intérêts financiers au détriment de l'intérêt général
Les législateurs de l'UE votent en faveur de règles plus strictes en matière d'IA et le projet entre dans sa phase finale, la réglementation prévoit de lourdes amendes en cas de manquement
Emmanuel Macron annonce un investissement de 500 millions d'euros visant à faire de la France un pôle européen de l'IA, il veut des modèles d'IA français qui rivalisent avec ceux de Google et OpenAI