IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Meta va commencer à étiqueter les images générées par les modèles d'IA des entreprises comme OpenAI et Google,
Et appelle à l'adoption de normes visant à étiqueter le matériel généré par l'IA

Le , par Mathis Lucas

217PARTAGES

4  0 
Meta veut faciliter la distinction des contenus générés par l'IA des contenus créés par un humain. Le leader mondial des réseaux sociaux a annoncé qu'il commencera par filigraner les photos générées par l'IA et téléversées sur Facebook, Instagram et Threads au cours des prochains mois. En outre, il commencera également à sanctionner les utilisateurs qui ne révèlent pas si une vidéo réaliste ou un morceau de musique a été créé par l'IA. Meta a annoncé que l'initiative vise à prévenir les abus des modèles d'IA générative et préserver l'intégrité des élections et la démocratie. L'entreprise appelle l'industrie à suivre la même voie et à élaborer des normes en la matière.

Meta a annoncé qu'il travaille sur un moyen de mieux détecter et identifier les images générées par l'IA sur ses plateformes de médias sociaux Facebook, Instagram et Threads. La technologie de détection de Meta informera les utilisateurs lorsqu'une image qu'ils voient dans leur fil d'actualité a été générée à l'aide de l'IA. La fonctionnalité concernait dans un premier les modèles d'IA de Meta, mais Nick Clegg, le président des affaires mondiales de Meta, a déclaré lors d'une récente interview qu'elle sera étendue aux images générées par les produits d'IA des concurrents tels qu'Adobe, Google, Midjourney, et bien d'autres.

L'annonce donne un premier aperçu d'un système émergent de normes que les entreprises technologiques sont en train de mettre au point pour atténuer les dommages potentiels associés aux outils d'IA générative, qui peuvent produire un contenu faux, mais d'apparence réaliste en réponse à de simples invites. L'approche de Meta s'inspire d'un modèle établi au cours de la dernière décennie par certaines de ces mêmes entreprises pour coordonner le retrait de contenus "interdits" ou jugés illégaux sur les plateformes en ligne, notamment les contenus violents et explicites, le matériel d'abus sexuel d'enfants (CSAM), etc.


Meta applique déjà un filigrane "Imaginé avec l'IA" aux images créées avec son propre générateur Imagine AI, et la société commencera à faire de même pour les photos générées par l'IA avec des produits de Google, OpenAI, Microsoft, Adobe, Midjourney et Shutterstock. Clegg a déclaré qu'il est convaincu que les entreprises peuvent à ce stade étiqueter de manière fiable les images générées par l'IA, mais il a ajouté que les outils permettant de marquer les contenus audio et vidéo étaient plus compliqués et encore en cours de développement. Il a déclaré que Meta et toute l'industrie sont très en retard dans ce domaine.

« Même si la technologie n'est pas encore tout à fait au point, en particulier en ce qui concerne l'audio et la vidéo, nous espérons pouvoir créer une dynamique et inciter le reste de l'industrie à suivre », a déclaré Clegg. D'après lui, bien que Meta soit très vigilant quant à la manière dont ces médias peuvent être utilisés pour tromper, l'entreprise ne sera pas en mesure de tout détecter par ses propres moyens. Clegg a ajouté que Meta va commencer à exiger des utilisateurs qu'ils étiquettent leurs propres contenus audio et vidéo modifiés et appliquera des sanctions s'ils ne le font pas. Il n'a toutefois pas décrit les sanctions.

Clegg a également souligné que même si Meta sera en mesure d'identifier les images générées par l'IA, il existe toujours des moyens de manipuler ou de supprimer ces marqueurs. Pour éviter cela, la division FAIR (Fundamental AI Research) de Meta travaille sur un moyen d'implanter un filigrane dans une image pendant qu'elle est générée, de manière à ce qu'il ne puisse pas être supprimé. Toutefois, de nombreux experts sont sceptiques quant à l'efficacité de cette initiative et affirment que la mise en place d'une norme mondiale de filigrane pourrait s'avérer complexe et couteuse, avec des résultats peu satisfaisants.

Selon les critiques, les utilisateurs trouveront le moyen de supprimer le...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Leruas
Membre éclairé https://www.developpez.com
Le 09/02/2024 à 22:03
Et si on fait une capture d'écran de la photo, ça supprime ou conserve ces métadonnées?
4  0