IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Le filigrane invisible SynthID de Google permettra désormais d'identifier les textes et les vidéos générés par l'IA,
Mais il est moins détectable lorsque le texte a été entièrement réécrit ou traduit

Le , par Mathis Lucas

5PARTAGES

4  0 
Google étend sa technologie de détection et de filigrane des contenus à deux nouveaux supports. La nouvelle version du système d'impression de filigrane SynthID peut désormais marquer les vidéos et les textes générés numériquement par les programmes d'IA Gemini de Google dans l'application Gemini ou sur le Web. Auparavant, l'outil SynthID ne permettait de filigraner que les images et les sons générés par l'IA de Google. Le logiciel permettra de répondre aux inquiétudes concernant l'influence des contenus générés par l'IA lors des élections. OpenAI a également lancé récemment un outil capable de détecter les images créées par son logiciel DALL-E 3.

Alors que les contenus générés par l'IA commencent à inonder Internet, la nécessité de les détecter et de les distinguer s'est accrue. L'une des principales solutions explorées par les entreprises est le filigrane. Le filigrane des contenus générés par l'IA sera de plus en plus important au fur et à mesure que la technologie gagnera en popularité, en particulier lorsque l'IA sera utilisée à des fins malveillantes. L'IA est déjà utilisée pour générer et diffuser des informations politiques erronées, prétendre que quelqu'un a dit quelque chose qu'il n'a pas dit et créer des contenus sexuels de célébrités sans leur consentement.


Toutefois, les outils de filigrane ont été beaucoup plus faciles à mettre au point pour les images que pour le texte. Mardi, Demis Hassabis, PDG de Google DeepMind, est monté sur scène pour la première fois lors de la conférence des développeurs Google I/O pour parler non seulement des nouveaux outils d'IA de l'équipe, comme le générateur vidéo Veo, mais également du nouveau système d'impression de filigrane SynthID. Ce système peut désormais marquer les vidéos générées numériquement ainsi que les textes générés par l'IA. Hassabis a fourni peu d'informations sur l'outil, mais un billet de blogue de l'entreprise note :

Citation Envoyé par Google DeepMind

Aujourd'hui, nous étendons les capacités de SynthID au tatouage de texte généré par l'IA dans l'application Gemini et l'expérience Web, et de vidéo dans Veo, notre modèle vidéo génératif le plus performant.

SynthID pour le texte est conçu pour compléter la plupart des modèles de génération de texte par IA disponibles et pour être déployé à grande échelle, tandis que SynthID pour la vidéo s'appuie sur notre méthode de marquage d'image et d'audio pour inclure toutes les images dans les vidéos générées. Cette méthode innovante permet d'intégrer un filigrane imperceptible sans affecter la qualité, la précision, la créativité ou la rapidité du processus de génération de texte ou de vidéo.
Pour les images, Google explique avoir conçu le filigrane SynthID de manière à ce qu'il reste détectable même après qu'elles ont été modifiées par l'ajout de filtres, la modification des couleurs ou l'ajustement de la luminosité. Et contrairement aux filigranes visibles, SynthID ne peut pas être supprimé par recadrage. Quant aux contenus textuels, Google DeepMind explique brièvement que le fonctionnement de SynthID est basé sur la façon dont les grands modèles de langage (LLM) génèrent du contenu. Les LLM prédisent la phrase, le mot ou le caractère suivant en fonction de ce qui est le plus susceptible d'apparaître dans la séquence.

Les LLM génèrent des séquences de texte à partir d'une question telle que "Explique-moi la mécanique quantique comme si j'avais cinq ans" ou "Quel est ton fruit préféré ?". Les phrases, mots et caractères sont appelés "tokens" et chaque token se voit attribuer un score de probabilité. Google DeepMind explique :

Citation Envoyé par Google DeepMind

Les jetons sont les blocs de construction qu'un modèle génératif utilise pour traiter l'information. Dans ce cas, il peut s'agir d'un seul caractère, d'un mot ou d'une partie de phrase. Chaque jeton possible se voit attribuer un score, qui représente le pourcentage de chances qu'il soit le bon. Les jetons ayant un score élevé ont plus de chances d'être utilisés. Les LLM répètent ces étapes pour construire une réponse cohérente.

SynthID est conçu pour intégrer des filigranes imperceptibles directement dans le processus de génération de texte. Pour ce faire, il introduit des informations supplémentaires dans la distribution des jetons au point de génération en modulant la probabilité de génération des jetons ; le tout sans compromettre la qualité, la précision, la créativité ou la rapidité de la génération du texte.
Pushmeet Kohli, vice-président de la recherche chez Google DeepMind, précise : « il s'agit spécifiquement de modifier le contenu généré par l'IA de manière à ce qu'il reste détectable à l'avenir ». Bien que Google affirme que "SynthID pour le texte est compatible avec la plupart des modèles d'IA de génération de texte", il reste à voir si ses concurrents, notamment OpenAI, Microsoft et Meta, l'adopteront ou s'ils proposeront leurs propres approches. En février, Meta a annoncé que l'entreprise commencera à étiqueter les images générées par les modèles d'IA des rivaux tels qu’OpenAI, Google, Midjourney, Adobe et bien d'autres.

Meta a également appelé à l'adoption de normes visant à étiqueter le matériel généré par l'IA. Nick Clegg, président des affaires mondiales de Meta, a déclaré que le géant des réseaux sociaux collabore avec différentes entités, dont le Partenariat sur l'IA (une organisation à but non lucratif composée d'universitaires, de professionnels de la société civile et d'organisations médiatiques dont l'objectif est de veiller à ce que l'IA ait des résultats positifs pour les personnes et la société) afin d'élaborer des normes pouvant être utilisées pour identifier les images d'IA sur l'ensemble du Web. OpenAI travaille aussi sur des outils similaires.

OpenAI a lancé au début du mois un outil capable de détecter les images générées par son modèle d'IA de génération d'images DALL-E 3 afin de répondre aux inquiétudes concernant l'influence des contenus générés par l'IA lors des élections. L'entreprise a déclaré que l'outil avait identifié correctement les images créées par DALL-E 3 dans environ 98 % des cas lors de tests internes et qu'il pouvait gérer des modifications courantes telles que la compression, le recadrage et les changements de saturation avec un impact minimal. OpenAI prévoit d'ajouter un filigrane inviolable pour marquer les photos ou les audios générés par l'IA.

Les filigranes sont encore limités et peuvent être supprimés en combinant différentes techniques. Google DeepMind indique que le texte généré par l'IA avec son filigrane peut être détecté même en cas de "paraphrase légère", mais que le filigrane est moins détectable lorsque le contenu a été entièrement réécrit ou traduit. SynthID pour le texte est également moins efficace pour les documents factuels lorsqu'il y a peu de réponses possibles à une question donnée. L'entreprise prévoit d'ouvrir le code source de cette technique de filigrane dans le courant de l'été afin que d'autres puissent l'intégrer dans leurs services.

« SynthID n'est pas une solution miracle pour identifier les contenus créés par l'IA, mais il constitue un élément important pour développer des outils d'identification de l'IA plus fiables et peut aider des millions de personnes à prendre des décisions éclairées sur la manière dont elles interagissent avec les contenus générés par l'IA. Dans le courant de l'été, nous prévoyons d'ouvrir le code source de SynthID pour le filigrane de texte, afin que les développeurs puissent utiliser cette technologie et l'incorporer dans leurs modèles », affirme Google DeepMind.

Source : Google DeepMind

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous de la nouvelle version de l'outil de filigrane SynthID ?
Sera-t-il efficace contre les abus de l'IA ? Que pensez-vous des limites de SynthID ?

Voir aussi

Google intègre des filigranes inaudibles appelés SynthID dans sa musique générée par l'IA, la protection contre les contrefaçons ne devrait pas compromettre la vie privée des utilisateurs

Meta va commencer à étiqueter les images générées par les modèles d'IA des entreprises comme OpenAI et Google, et appelle à l'adoption de normes visant à étiqueter le matériel généré par l'IA

OpenAI ajoutera bientôt des filigranes aux images générées par DALL-E 3, l'adoption des normes C2PA est essentielle pour accroître la fiabilité des informations numériques, selon OpenAI

Une erreur dans cette actualité ? Signalez-nous-la !