IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Google va commencer à étiqueter les images générées par l'IA dans ses résultats de recherche
Car plus de 70 % des consommateurs craignent d'être dupés par des IA

Le , par Anthony

20PARTAGES

2  0 
Google a annoncé qu'il commencerait à étiqueter les images générées et modifiées par l'IA dans ses résultats de recherche dans le courant de l'année. Le géant de la technologie signalera ces contenus via la fonction « À propos de cette image », qui apparaîtra dans Google Search, Google Lens et Circle to Search d'Android en s'appuyant sur les métadonnées de la Coalition for Content Provenance and Authenticity (C2PA). L'entreprise prévoit également d'étendre cette technologie aux services publicitaires et éventuellement aux vidéos YouTube.

Une récente étude de la société de vérification d'identité Jumio a révélé une inquiétude croissante quant à l'influence que l'IA et les deepfakes pourraient avoir lors des prochaines élections et à la manière dont ils pourraient influencer la confiance dans les médias en ligne. L'étude menée auprès de plus de 8 000 consommateurs adultes montre que 72 % des consommateurs s'inquiètent quotidiennement d'être trompés par un deepfake et souhaitent que leur gouvernement fasse davantage pour réglementer l'IA. Au niveau mondial, seuls 46 % des consommateurs pensent qu'ils pourraient facilement repérer un deepfake d'une personnalité politique ou d'une célébrité. Ce chiffre tombe à 37 % aux États-Unis.

Face à cette situation, Google a déclaré dans un communiqué de presse publié ce mardi 17 septembre qu'il commencerait à étiqueter les résultats de recherche d'images générés et modifiés par l'IA dans le courant de l'année.

L'entreprise signalera les contenus générés par l'IA dans la fenêtre « À propos de cette image » et cette mesure sera appliquée à Google Search, à Google Lens et à la fonction « Circle to Search » d'Android. Google appliquera également cette technologie à ses services publicitaires et envisage d'ajouter un indicateur similaire aux vidéos YouTube, mais « nous aurons plus d'informations à ce sujet dans le courant de l'année », selon le communiqué.

Par ailleurs, Google a déclaré qu'il s'appuiera sur les métadonnées de la Coalition for Content Provenance and Authenticity (C2PA) pour identifier les images générées par l'IA. Il s'agit d'un groupe industriel que l'entreprise a rejoint en tant que membre du comité directeur au début de l'année. Ces « métadonnées C2PA » seront utilisées pour suivre la provenance de l'image, en identifiant quand et où une image a été créée, ainsi que l'équipement et le logiciel utilisés pour sa génération.


Alors que Google continue d'intégrer l'IA à de nouveaux produits et services pour stimuler la créativité et la productivité, il s'attache également à aider les utilisateurs à mieux comprendre comment un contenu particulier a été créé et modifié au fil du temps. Google estime qu'il est essentiel que les utilisateurs aient accès à ces informations et investit massivement dans des outils et des solutions innovantes, comme SynthID, pour les fournir.

Selon Google, il est essentiel de s'associer à d'autres acteurs du secteur pour accroître la transparence globale en ligne, car le contenu circule entre les plateformes. C'est pourquoi, au début de l'année, Google a rejoint la Coalition for Content Provenance and Authenticity (C2PA) en tant que membre du comité directeur.

Aujourd'hui, Google montre comment elle entend contribuer à développer la dernière technologie d'identification de la provenance de la C2PA et à l'intégrer à ses produits.

Faire progresser la technologie existante pour créer des références plus sûres

La technologie de provenance des contenus peut aider à expliquer si une photo a été prise avec un appareil photo, éditée par un logiciel ou produite par l'IA générative. Ce type d'information aide les utilisateurs à prendre des décisions plus éclairées sur le contenu avec lequel ils s'engagent - y compris les photos, les vidéos et le son - et renforce l'éducation aux médias et la confiance.

En rejoignant la C2PA en tant que membre du comité directeur, Google a travaillé aux côtés des autres membres pour développer et faire progresser la technologie utilisée pour associer des informations de provenance au contenu. Au cours du premier semestre de cette année, Google a collaboré à la nouvelle version (2.1) de la norme technique Content Credentials. Cette version est plus sûre contre un plus grand nombre d'attaques de falsification grâce à des exigences techniques plus strictes en matière de validation de l'historique de la provenance du contenu. Le renforcement des protections contre ces types d'attaques permet de s'assurer que les données jointes ne sont pas altérées ou trompeuses.

Intégration de la norme C2PA dans les produits Google

Au cours des prochains mois, Google a déclaré qu'elle intégrera la dernière version de Content Credentials dans quelques-uns de ses principaux produits dont :

  • Google Search : Si une image contient des métadonnées C2PA, les internautes pourront utiliser la fonctionnalité « À propos de cette image » pour savoir si elle a été créée ou modifiée à l'aide d'outils d'IA. La fonction « À propos de cette image » permet aux internautes de connaître le contexte des images qu'ils consultent en ligne. Elle est accessible dans Google Images, Lens et Circle to Search.
  • Google Ads : Les systèmes publicitaires de Google commencent à intégrer les métadonnées C2PA. L'objectif de Google étant d'intensifier cette intégration au fil du temps et d'utiliser les signaux C2PA pour informer sur la façon dont l'entreprise applique ses principales règles.

Google étudie également des moyens de transmettre les informations C2PA aux utilisateurs de YouTube lorsque le contenu est capturé à l'aide d'une caméra, et fera le point sur cette question dans le courant de l'année.

Selon Google, la société veillera à ce que ses implémentations valident le contenu par rapport à la future C2PA Trust List, qui permet aux plateformes de confirmer l'origine du contenu. Par exemple, si les données indiquent qu'une image a été prise par un modèle d'appareil photo spécifique, la liste de confiance permet de valider l'exactitude de cette information.

Il ne s'agit là que de quelques exemples de la manière dont Google envisage aujourd'hui de mettre en œuvre la technologie de provenance des contenus, et la société indique qu'elle continuera à l'intégrer à d'autres produits au fil du temps.

Poursuite des partenariats avec d'autres acteurs du secteur

Établir et signaler la provenance du contenu reste un défi complexe, avec une série de considérations basées sur le produit ou le service. S'il est vrai qu'il n'existe pas de solution miracle pour tous les contenus en ligne, la collaboration avec d'autres acteurs du secteur est essentielle pour créer des solutions durables et interopérables. C'est pourquoi Google encourage un plus grand nombre de fournisseurs de services et de matériel à envisager d'adopter les Content Credentials de la C2PA.

Le travail de Google avec la C2PA complète directement son approche plus large de la transparence et du développement responsable de l'IA. Par exemple, l'entreprise continue d'apporter SynthID - un filigrane intégré créé par Google DeepMind - à d'autres outils d'IA générative pour la création de contenu et à d'autres formes de médias, y compris le texte, l'audio, l'image et la vidéo.

Google a également rejoint plusieurs autres coalitions et groupes axés sur la sécurité et la recherche en matière d'IA et a introduit un framework d'IA sécurisé (SAIF) et une coalition. En outre, l'entreprise continue de progresser dans la mise en œuvre des engagements volontaires qu'elle a pris à la Maison-Blanche l'année dernière.

Source : Google

Et vous ?

Quel est votre avis sur le sujet ?
Trouvez-vous cette initiative de Google crédible ou pertinente ?

Voir aussi :

Plus de 70 % des consommateurs craignent d'être dupés par un deepfake et de voir l'IA et les deepfakes influencer les prochaines élections dans leur pays, selon une étude de Jumio

Un expert en IA « complètement terrifié » par les élections américaines de 2024, qui s'annoncent comme un « tsunami de désinformation » avec l'avènement des deepfakes et les IA génératives

Les "deepfakes" politiques représentent l'utilisation abusive la plus populaire de l'IA : sa faible technicité et son accessibilité ont accru l'utilisation malveillante de l'IA générative, selon DeepMind

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Jules34
Membre émérite https://www.developpez.com
Le 09/10/2024 à 16:25
Ils le font tous et dans tout les sens alors les accusations américaines ne riment pas à grand chose...

Plus rien ne semble vrai passé un certains niveau, c'est surtout ça qui devrait nous alarmer.

On attends aussi peut-être trop de choses de ces élections alors que nous même n'attendons plus rien des nôtres, c'est triste.
3  0