Des images réalistes générées par IA et décrivant le conflit entre Israël et Gaza sont vendues sur le service d'abonnement aux images de stock d'Adobe et utilisées par des publications en ligne. La préoccupation est que certaines de ces publications ne mentionnent pas que ces images avaient été générées par IA, diffusant ainsi des informations erronées sur le conflit.
Les services d'abonnement d'Adobe permettent aux utilisateurs de télécharger et de vendre des images, y compris celles générées par l'IA, dans le cadre de l'adoption de la technologie par l'entreprise, avec ses outils d'intelligence artificielle générative Firefly.
Les personnes qui soumettent des images générées par l'IA au service de stock d'images d'Adobe sont tenues d'indiquer qu'elles sont générées par IA, et les images sont accompagnées d'une mention "généré par l'IA" sur le site. Certaines de ces images ont l'air très réelles, ce qui signifie que sans ces marques, il ne serait pas difficile de les confondre avec des photos réelles.
Cette préoccupation est en train de devenir une réalité, puisque des images d'IA décrivant la guerre entre Israël et le Hamas ont été utilisées par un certain nombre de publications sans mentionner qu'elles avaient été générées par l'IA. Ces images représentent des scènes d'explosions dans des zones peuplées de civils ou des femmes et des enfants fuyant les zones de combat et les flammes, paraissant photoréalistes alors qu'elles ne sont pas réelles.
Par exemple, une recherche d'image inversée sur une image de nuages de fumée noire s'élevant de bâtiments intitulée "conflict between israel and palestine generative ai" par Scheidle-Design montre qu'elle a été utilisée par un grand nombre de publications d'information.
Le problème est que ces publications diffusent, sciemment ou non, des informations erronées au cours d'un conflit où la désinformation et la propagande sont monnaie courante, et où il est déjà difficile de discerner ce qui est vrai ou faux.
Layla Mashkoor, rédactrice en chef adjointe du Digital Forensic Research Lab de l'Atlantic Council, a déclaré que l'IA générative avait déjà joué un rôle important en influençant les partisans de chaque camp. "Les exemples incluent un panneau d'affichage généré par l'IA à Tel Aviv pour défendre les Forces de défense israéliennes, un compte israélien partageant de fausses images de personnes acclamant les FDI, un influenceur israélien utilisant l'IA pour générer des condamnations du Hamas, et des images d'IA représentant des victimes du bombardement israélien de Gaza", a-t-elle déclaré.
Malgré cela, Mashkoor a déclaré que ces images sont largement utilisées pour "susciter le soutien, ce qui n'est pas l'une des façons les plus malveillantes d'utiliser l'IA à l'heure actuelle", et que leur efficacité est limitée en raison de l'ampleur même de la désinformation qui circule en ligne. "L'espace d'information est déjà inondé d'images et de séquences réelles et authentiques, ce qui a pour effet d'inonder les plateformes de médias sociaux", a-t-elle déclaré.
Quoi qu'il en soit, ces images suscitent une réaction émotionnelle chez le spectateur et, qu'elles le veuillent ou non, ont le potentiel de manipuler les opinions de ceux qui les voient, en particulier dans le contexte d'un article qui les accompagne. La désinformation et l'armement de la désinformation sont des préoccupations majeures liées à l'adoption de l'IA. Selon une enquête de Forbes Advisor, 76 % des consommateurs craignent que les outils d'IA tels que Google Bard, ChatGPT et Bing Chat ne génèrent des informations erronées.
En outre, Sam Altman, directeur général d'OpenAI, la société mère de ChatGPT, a déclaré que sa plus grande préoccupation concernant le développement de l'IA était sa capacité à diffuser des informations erronées. "Ce qui me préoccupe le plus, ce sont les capacités plus générales de ces modèles à manipuler, à persuader, à fournir une sorte de désinformation interactive individuelle", a-t-il déclaré au Congrès en mai dernier. "Étant donné que nous allons être confrontés à des élections l'année prochaine et que ces modèles s'améliorent, je pense qu'il s'agit d'un sujet de préoccupation important, et je pense qu'il existe de nombreuses politiques que les entreprises peuvent adopter volontairement."
Source : Crikey, Adobe
Et vous ?
Quel est votre avis sur le sujet ?
Selon vous, quelles sont les solutions pour éviter l'utilisation de l'IA générative pour la désinformation ?
Voir aussi :
Les contenus générés par l'IA générative devraient être étiquetés afin de prévenir les abus potentiels de la technologie et les risques de désinformation, selon la commissaire européenne Jourova
La pensée critique serait plus efficace que la censure pour lutter contre la désinformation, selon une étude d'experts de l'université de l'État du Michigan
Qui se laisse séduire par les infox (fake news) ? Profilage psychologique et clinique des consommateurs de fake news
Adobe vend de fausses images de la guerre entre Israël et Gaza générées par IA
Des publications en ligne ont utilisé une image d'une attaque provenant d'Adobe Stock sans la signaler comme fausse
Adobe vend de fausses images de la guerre entre Israël et Gaza générées par IA
Des publications en ligne ont utilisé une image d'une attaque provenant d'Adobe Stock sans la signaler comme fausse
Le , par Jade Emy
Une erreur dans cette actualité ? Signalez-nous-la !