
La Chine rend obligatoire l'étiquetage de tout type de contenu généré par l'IA
En 2024, des rapports ont confirmé que les contenus générés par l'IA sont de plus en plus présents sur Internet. Des experts s'attendent à ce qu'une bonne partie des contenus en ligne soient générés par l'IA d'ici la fin de l'année 2025. « Je pense que nous pourrions atteindre 90 % du contenu en ligne généré par l'IA d'ici 2025, donc cette technologie est exponentielle », a déclaré Nina Schick, conseillère et conférencière en IA, au début de l'année 2023.
Dans ce contexte, la Chine avait envisagé d'exiger l'apposition d'étiquettes sur tous les contenus générés par l'IA et diffusés en ligne, car la technologie pose de nouveaux défis. C'est désormais chose faite. La nouvelle réglementation chinoise est prévue pour entrer en vigueur le 1er septembre 2025.
La réglementation a été publiée conjointement par l'Administration du cyberespace de Chine (CAC), le ministère chinois de l'Industrie et des Technologies de l'information, le ministère chinois de la Sécurité publique et l'Administration nationale de la radio et de la télévision (NRTA).
Les directives stipulent que « le contenu généré ou synthétisé à l'aide de technologies d'IA - y compris les textes, les images, les audios, les vidéos et les scènes virtuelles - doit être étiqueté de manière visible et invisible ». Pour les contenus générés par des technologies de synthèse profonde susceptibles de confondre ou d'induire le public en erreur, des étiquettes explicites doivent être placées à un endroit raisonnable pour que le public en soit conscient.
Un porte-parole de l'administration du cyberespace a déclaré que « la nouvelle réglementation vise à mettre un terme à l'utilisation abusive des technologies d'IA de génération de contenu et à la diffusion d'infox ». Des règles similaires sont également à l'étude en Europe et aux États-Unis.
Étiquette visible et invisible : comment cela va-t-il se passer dans la pratique ?
Les étiquettes explicites doivent être clairement visibles pour les utilisateurs, tandis que les étiquettes implicites, comme les filigranes numériques, doivent être intégrées dans les métadonnées. Plus de détails sont attendus dans les mois à venir. En attendant, la réglementation stipule que les étiquettes implicites doivent inclure des détails sur les attributs du contenu, le nom ou le code du fournisseur de services et les numéros d'identification du contenu.
Les fournisseurs de services en ligne proposant des plateformes de génération de contenu doivent également veiller à respecter les règles chinoises en matière de cybersécurité et de gestion de la synthèse profonde. Les plateformes doivent vérifier les contenus générés par l'IA avant de les mettre en ligne.
Elles doivent ajouter des étiquettes si nécessaire. Si les métadonnées ne comportent pas de marqueurs d'IA, mais que le contenu présente des signes de génération par l'IA, il faut le signaler en conséquence. Les distributeurs d'application doivent évaluer les caractéristiques liées à l'IA avant d'approuver les services.
Le gouvernement espagnol a approuvé un projet de loi qui prévoit d'imposer des amendes massives aux entreprises qui utilisent des contenus générés par l'IA sans les étiqueter correctement comme tels. La réglementation vise à freiner la diffusion des deepfakes nuisibles.
les utilisateurs doivent déclarer lorsqu'ils publient des contenus générés par l'IA
Selon la nouvelle réglementation chinoise sur l'IA, les utilisateurs qui publient du contenu généré par l'IA doivent le déclarer, tandis que les fournisseurs de services sont tenus d'en conserver une trace pendant au moins six mois. La suppression, la modification ou la dissimulation des étiquettes sur le contenu généré par l'IA sont strictement interdites, et des sanctions sont prévues en cas de non-respect de ces règles. Peu de détails ont fuité à ce sujet.
Cette réglementation reflète la surveillance accrue de l'IA par Pékin, qui s'inquiète de plus en plus de la désinformation, de la violation des droits d'auteur et de la fraude en ligne. La dernière directive des régulateurs chinois s'appuie sur les règles existantes régissant la technologie de synthèse profonde (deepfake) et les recommandations algorithmiques, renforçant ainsi la surveillance gouvernementale des contenus générés par des systèmes d'IA.
Parmi les principaux objectifs de cette année figurent un contrôle rigoureux du contenu généré par l'IA, une application stricte de l'étiquetage obligatoire et des sanctions à l'encontre de ceux qui utilisent l'IA pour diffuser des infox ou manipuler l'opinion publique, notamment via des commentateurs en ligne rémunérés. Ces influenceurs sont également appelés « armées de l'eau », en référence à leur capacité à inonder le Web de messages coordonnés.
Parmi les autres priorités du gouvernement chinois figurent la répression du marketing trompeur sur les plateformes de vidéos courtes, la lutte contre la désinformation par les influenceurs des médias sociaux et le renforcement des protections en ligne pour les utilisateurs mineurs.
L'étiquetage est-il la solution optimale ? Il souffre de nombreuses limites
Le soutien à l'étiquetage obligatoire du contenu généré par l'IA s'est accru en Chine. La montée en puissance des modèles d'IA développés au niveau national, tels que ceux de DeepSeek et du laboratoire Qwen AI d'Alibaba, ainsi que de Manus, l'agent d'IA de la startup Butterfly Effect, a intensifié les discussions sur la réglementation. Les gouvernements du monde entier ont pris des mesures rapides dans le but de réglementer les contenus générés par l'IA.
La nouvelle loi sur l'IA de l'Union européenne (EU AI Act) impose un étiquetage clair assorti d'exigences de traçabilité, tandis que les États-Unis travaillent à l'élaboration de lignes directrices pour l'étiquetage et la détection des contenus générés par l'IA. [URL="https:/...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.