IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les législateurs californiens envisagent d'exiger que les photos et vidéos créées par l'IA soient marquées d'un filigrane,
Mais les projets de loi proposés sont contestés par les entreprises d'IA

Le , par Mathis Lucas

1PARTAGES

4  0 
Des législateurs californiens cherchent à forcer les entreprises d'IA à prendre des mesures pour faciliter la distinction des contenus générés par l'IA par rapport aux contenus générés par les humains. En effet, un certain nombre de projets de loi, élaborés par différents législateurs, visent à exiger l'apposition d'un filigrane sur les contenus créés par l'IA. Ils envisagent ainsi de mettre un terme aux abus de cette technologie émergente qui a affecté des secteurs allant des courses politiques au marché boursier. Les experts semblent toutefois divisés sur la question, puisque certains sont sceptiques quant à l'efficacité de cette solution.

L'IA a désormais le potentiel de rendre les deepfakes plus sophistiqués que jamais, suscitant de nombreuses préoccupations. D'après les experts, cela représente une menace pour les élections, les marchés boursiers, la démocratie, la vie privée, et bien d'autres encore. Par exemple, aux États-Unis, l'on est préoccupé par les impacts que l'IA pourrait avoir sur les élections présidentielles de novembre 2024. De nombreux produits d'IA permettent aujourd'hui de générer des vidéos, des images et des contenus audios hyperréalistes pouvant convaincre facilement l'électorat et ainsi de faire pencher les votes dans un sens donné.

En Californie, pour lutter contre les abus de cette technologie, certains législateurs envisageraient d'obliger les entreprises d'IA à mettre en place un système de filigrane pour leurs produits d'IA générative. L'initiative vise à permettre aux citoyens de reconnaître facilement les contenus qui ont été générés par l'IA et d'éviter ainsi les manipulations de masse observées par le passé. Selon Drew Liebert, directeur de l'Initiative californienne pour la technologie et la démocratie, au cours d'une année électorale cruciale et dans un monde en ligne rempli de désinformation, la capacité de distinguer le réel du faux est très cruciale.


En mai de l'année dernière, une photo générée par l'IA devenue virale a eu des conséquences désastreuses sur la bourse aux États-Unis. La photo présentait faussement une attaque terroriste contre les États-Unis, notamment le Pentagone. « La célèbre photo diffusée sur Internet, qui prétendait que le Pentagone avait été attaqué, a provoqué une perte momentanée de 500 milliards de dollars sur le marché boursier. Cette perte n'aurait pas été aussi importante si les gens avaient pu déterminer instantanément que l'image n'était pas du tout réelle », a déclaré Liebert. Mais plusieurs idées semblent être en concurrence.

La députée Akilah Weber (D) a été l'une des premières à se pencher sur la question, déclarant qu'elle souhaitait exiger une norme industrielle pour les contenus générés par l'IA. Cette référence pourrait faire référence à la norme C2PA, adoptée par des sociétés telles que Microsoft et Adobe. Pour faire court, la norme C2PA lie les informations de provenance, c'est-à-dire le processus de création et d'adaptation du contenu numérique, à un élément de média tout au long de son parcours d'édition. Le bureau de Weber a déclaré qu'il ne pouvait pas confirmer les détails du projet de loi, qui est encore en cours d'élaboration.

De son côté, le sénateur Josh Becker (D) a élaboré un projet de loi qui obligerait les grands fournisseurs de produits d'IA à apposer un filigrane sur les images, les vidéos et les audios créés par leurs modèles d'IA. Sa proposition va plus loin que les filigranes en exigeant des entreprises qu'elles mettent en place une plateforme permettant à quiconque de vérifier si un contenu a été créé par leurs modèles d'IA. Selon Tom Kemp, un défenseur de la vie privée qui travaille avec Becker sur cette mesure, l'objectif de cette plateforme de vérification est de tenir compte du fait que les filigranes peuvent être falsifiés ou supprimés.

La plateforme peut également vérifier si un texte écrit est généré par l'IA, car le texte est difficile à filigraner. En fin de compte, elle permettra de prouver que les travaux réalisés par des êtres humains sont bien des travaux réalisés par des êtres humains. « Des étudiants vont être accusés à tort d'avoir rendu des devoirs qu'ils ont faits », a déclaré Kemp, qui a ajouté qu'un ami de la famille avait connu un tel scénario. « Certaines entreprises affirment qu'elles peuvent de détecter un contenu généré par l'IA, mais elles n'en ont aucune certitude. Pour moi, pourquoi ne pas demander directement à ChatGPT ? », note-t-il.

En outre, Liebert a indiqué que son organisation travaillait avec Buffy Wicks (D), membre de l'Assemblée, sur une proposition qui obligerait également les entreprises à intégrer des données de provenance pour les contenus générés par l'IA. Cette mesure s'inspirerait en partie de la future loi sur l'IA de l'Union européenne (UE), qui, tel qu'elle est rédigée, exigera l'étiquetage des "deepfakes" et la communication d'informations aux consommateurs. La loi de l'UE exige également la conception de systèmes permettant de détecter facilement les médias générés par l'IA dans un "format lisible par une machine".

Par ailleurs, le député Evan Low (D) a promis de légiférer sur les filigranes d'IA. Le député Avelino Valencia (D) a déposé un projet de loi préliminaire (A.B. 1824) qui exigerait la divulgation des contenus générés par l'IA. Ces mesures législatives viseraient les produits d'IA populaires, tels que ChatGPT, qui appartient à OpenAI, basé à San Francisco. Toutefois, les mesures préliminaires ne s'attaquent pas au problème urgent dans lequel des individus malhonnêtes peuvent utiliser des modèles d'IA open source ou librement accessibles pour créer des deepfakes ou d'autres contenus sans aucune mesure de protection.

« Je ne dis pas qu'il s'agit d'une panacée, mais je pense que nous y travaillons tous. Au niveau le plus élémentaire, nous devrions être en mesure de dire que quelque chose a été créé par l'IA », a déclaré Becker. Les législateurs n'ont pas finalisé la formulation des projets de loi, i, bien que certains d'entre eux et les groupes d'intérêt qui suivent le sujet aient partagé certains détails. Ils ont déclaré que les approches concurrentes devraient probablement être résolues plus tard dans le processus législatif. Mais ces projets de loi pourraient se heurter à une opposition farouche de la part des entreprises technologiques.

L'un des principaux obstacles sera l'application de la loi, dont les détails sont encore en suspens. Selon Liebert, ce sera un défi, en particulier en ce qui concerne le droit fédéral. « L'UE n'a pas de premier amendement. Elle n'a donc pas à se préoccuper des contraintes de la liberté d'expression à cet égard. Nous avons le premier amendement et nous avons aussi des limitations en matière d'application de la loi, ce qui n'est pas le cas de l'UE », a déclaré Liebert. Les défenseurs des projets visant à intégrer des garde-fous dans les modèles d'IA espèrent que l'industrie technologique sera prête à accepter un compromis.

Certaines entreprises ont adopté des normes de filigrane et se sont engagées volontairement auprès de la Maison Blanche. Les entreprises d'IA reconnaissent que la question de la vérification est importante, mais elles mettent en garde contre une réglementation excessive. « Il est essentiel d'accroître la sensibilisation et la confiance dans le contenu généré par l'IA, mais des mandats gouvernementaux trop restrictifs peuvent avoir des conséquences involontaires et compromettre l'objectif de transparence », a déclaré Dylan Hoffman, directeur exécutif de la Californie pour TechNet, qui a été rejoint par OpenAI et ScaleAI.

Todd O'Boyle, directeur principal de la politique technologique de Chamber of Progress, une coalition de l'industrie technologique, a affirmé qu'à mesure que l'IA devient plus répandue dans la vie quotidienne, les législateurs devraient faire preuve de discernement dans la rédaction de leurs règles. « Un filigrane sur tout ce qui est touché par l'IA n'aurait pas de sens. Il est important de s'attaquer à des problèmes tels que la désinformation électorale, mais pour éviter de censurer des discours non liés, la législation devrait être très ciblée et faire peser la charge de la conformité sur les créateurs de contenu eux-mêmes », a-t-il déclaré.

Enfin, il est important de souligner que certains groupes de personnes et autorités gouvernementales proposent d'élaborer une norme mondiale de filigrane pour étiqueter les contenus générés par l'IA. Mais les experts sont sceptiques quant à l'efficacité de cette initiative et affirment que la mise en place d'une norme mondiale de filigrane pourrait s'avérer complexe pour des résultats mitigés. Selon eux, les utilisateurs trouveront le moyen de supprimer le filigrane et cela n'empêchera pas les manipulations avec l'IA.

Et vous ?

Quel est votre avis sur le sujet ?

Voir aussi

Les experts sont sceptiques quant à l'efficacité d'une norme mondiale en matière de filigrane visant à étiqueter les contenus générés par l'IA pour empêcher la désinformation et la manipulation

Google intègre des filigranes inaudibles appelés SynthID dans sa musique générée par l'IA, la protection contre les contrefaçons ne devrait pas compromettre la vie privée des utilisateurs

Les chercheurs affirment que les filigranes actuels de l'IA sont faciles à supprimer, Microsoft a ajouté des filigranes dans Bing Image Creator et Google a conçu SynthID

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Leruas
Membre éclairé https://www.developpez.com
Le 09/02/2024 à 22:03
Et si on fait une capture d'écran de la photo, ça supprime ou conserve ces métadonnées?
3  0