Aujourd'hui, les "deepfakes" concernent souvent l'imagerie sexuelle, la fraude ou la désinformation politique. "Étant donné que l'IA progresse rapidement et rend la création de deepfakes beaucoup plus facile, des garde-fous sont nécessaires", indique le groupe dans la lettre, rédigée par Andrew Critch, chercheur en IA à l'université de Berkeley.
Les deepfakes sont des images, des sons et des vidéos réalistes mais fabriqués par des algorithmes d'IA, et les progrès récents de la technologie les rendent de plus en plus impossibles à distinguer des contenus créés par des humains.
La lettre, intitulée "Disrupting the Deepfake Supply Chain", contient des recommandations sur la manière de réglementer les deepfakes, notamment la criminalisation totale de la pédopornographie par deepfake, des sanctions pénales pour toute personne créant ou facilitant sciemment la diffusion de deepfakes nuisibles et l'obligation pour les entreprises d'IA d'empêcher leurs produits de créer des deepfakes nuisibles.
Plus de 400 personnes issues de différents secteurs, notamment du monde universitaire, du spectacle et de la politique, avaient signé la lettre. Parmi les signataires figurent Steven Pinker, professeur de psychologie à Harvard, Joy Buolamwini, fondatrice de l'Algorithmic Justice League, deux anciens présidents estoniens, des chercheurs de Google DeepMind et un chercheur d'OpenAI.
Veiller à ce que les systèmes d'IA ne nuisent pas à la société est une priorité pour les régulateurs depuis qu'OpenAI, soutenue par Microsoft, a dévoilé ChatGPT fin 2022, qui a séduit les utilisateurs en les faisant participer à des conversations semblables à celles des humains et en effectuant d'autres tâches. De nombreuses personnalités ont mis en garde contre les risques liés à l'IA, notamment une lettre signée par Elon Musk l'année dernière, qui appelait à une pause de six mois dans le développement de systèmes plus puissants que le modèle d'IA GPT-4 d'OpenAI.
Perturber la chaîne d'approvisionnement de Deepfake
Contexte : De nombreux experts ont prévenu que l'intelligence artificielle ("IA" pourrait causer des dommages importants à l'humanité si elle n'était pas gérée de manière responsable. L'impact de l'IA est considérablement aggravé par sa capacité à imiter des êtres humains réels. Dans la déclaration ci-dessous, le terme "deepfakes" fait référence à des voix, des images ou des vidéos générées par l'IA, non consensuelles ou grossièrement trompeuses, qu'une personne raisonnable pourrait prendre pour réelles. Cela n'inclut pas les légères modifications d'une image ou d'une voix, ni les divertissements ou satires inoffensifs qui sont facilement reconnus comme étant synthétiques. Aujourd'hui, les deepfakes concernent souvent l'imagerie sexuelle, la fraude ou la désinformation politique. Étant donné que l'IA progresse rapidement et qu'il est beaucoup plus facile de créer des deepfakes, il est nécessaire de mettre en place des mesures de protection pour assurer le fonctionnement et l'intégrité de notre infrastructure numérique.
Déclaration
Les deepfakes constituent une menace croissante pour la société, et les gouvernements doivent imposer des obligations tout au long de la chaîne d'approvisionnement pour mettre fin à la prolifération des deepfakes. Les nouvelles lois doivent :
- Criminaliser totalement la pornographie infantile "deepfake", même lorsque seuls des enfants fictifs sont représentés ;
- Prévoir des sanctions pénales pour toute personne qui crée ou facilite sciemment la diffusion de "deepfakes" préjudiciables ; et
- Exiger des développeurs et distributeurs de logiciels qu'ils empêchent leurs produits audio et visuels de créer des deepfakes nuisibles, et qu'ils soient tenus pour responsables si leurs mesures préventives sont trop facilement contournées.
Si elles sont conçues judicieusement, ces lois pourraient favoriser l'émergence d'entreprises socialement responsables et ne devraient pas être excessivement contraignantes.
Et vous ?
Pensez-vous que cette lettre soit crédible ou pertinente ?
Quel est votre avis sur le sujet ?
Voir aussi :
La FTC propose de nouvelles protections pour lutter contre l'usurpation d'identité par l'IA. Elle finalise un règlement interdisant la fraude à l'administration et à l'usurpation d'identité
La NSA, le FBI et la CISA publient une fiche d'information sur la cybersécurité concernant les menaces liées aux Deepfake
Quelles seront les avancées technologiques les plus dangereuses à l'avenir ? L'IA figure parmi les réponses les plus courantes, ainsi que les deepfakes et les essaims de drones