IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

39 % des Américains et 37 % des Français ont cessé d'utiliser les médias sociaux pour éviter les fausses informations générées par l'IA
Selon une enquête d'Adobe

Le , par Jade Emy

4PARTAGES

7  0 
Une nouvelle étude d'Adobe menée aux États-Unis, au Royaume-Uni, en France et en Allemagne révèle que les internautes pensent que la désinformation et les deepfakes nuisibles influenceront les futures élections. Les personnes interrogées se disent préoccupées par la manipulation potentielle du contenu qu'elles consomment en ligne. Ils estiment qu'il est essentiel de disposer d'outils permettant de vérifier la fiabilité du contenu en ligne.

Les élections présidentielles approchent à grands pas aux États-Unis, mais de nombreux citoyens américains ne savent pas si ce qu'ils voient sur l'internet est réel ou s'il s'agit d'informations générées par l'IA. Adobe a mené une enquête auprès de 6 000 personnes de quatre pays différents et leur a demandé ce qu'elles pensaient de la diffusion de fausses informations par l'IA sur l'internet et de la façon dont les fausses informations générées par l'IA deviennent un problème de plus en plus important chaque jour. Les résultats de l'enquête ont montré que de nombreuses personnes sont très préoccupées par les deepfakes de l'IA et qu'elles ont cessé d'utiliser les applications de médias sociaux pour éviter ce problème.

De nombreuses plateformes de médias sociaux et agences gouvernementales tentent d'enrayer la propagation des deepfakes de l'IA, en particulier lorsqu'il s'agit de contenus liés à la politique et aux élections. Adobe a lancé sa propre fiche d'évaluation, appelée Content Authenticity Initiative, afin de créer un label qui permette de savoir si le contenu que les utilisateurs voient sur les médias sociaux est authentique et n'est pas généré par l'IA.


L'enquête d'Adobe a révélé que sept citoyens américains sur dix ont déclaré qu'il était difficile d'identifier l'IA du contenu humain sur les médias sociaux. Près de la moitié des citoyens américains ont déclaré avoir vu des informations erronées publiées sur les médias sociaux par une personne qu'ils connaissaient. Les personnes interrogées dans le cadre de l'enquête ont également déclaré qu'elles pensaient que les vidéos et les images pouvaient être générées par l'IA plus facilement que le texte et l'audio. Quatre personnes interrogées sur cinq ont également suggéré que les candidats qui participent à des campagnes politiques ne devraient utiliser aucune forme d'IA dans leurs campagnes. Les Américains qui ont cessé d'utiliser les médias sociaux pour ne pas être dupés par l'IA représentent 39 % de l'ensemble des personnes interrogées.

Inquiétude à l'égard de la désinformation et de son impact potentiel sur les élections

Adobe a publié les résultats de sa première étude sur l'avenir de la confiance, qui a interrogé plus de 6 000 consommateurs aux États-Unis, au Royaume-Uni, en France et en Allemagne sur leur expérience de la désinformation en ligne et leurs préoccupations concernant l'impact de l'IA générative. Dans le cadre de ses travaux sur l'innovation responsable, Adobe a commandé cette étude pour comprendre les perceptions et les sentiments du public concernant l'impact sociétal de l'IA générative et de la désinformation, y compris ses implications dans le contexte des élections mondiales de cette année.

"Nous sommes tous enthousiasmés par la capacité de l'IA générative à transformer la créativité et la productivité," a déclaré Dana Rao, vice-président exécutif, directeur juridique et directeur de la confiance d'Adobe. "En tant que leader dans le déploiement commercial de la technologie de l'IA, nous avons longtemps considéré son implication dans la société. Comme le montrent clairement les résultats de cette étude, il est essentiel d'informer les consommateurs sur les dangers des deepfakes et de leur fournir des outils pour comprendre ce qui est vrai. À l'approche des élections, le moment est venu d'adopter des technologies de protection telles que Content Credentials afin de rétablir la confiance dans le contenu numérique que nous consommons."

Les principales conclusions de l'étude sont les suivantes :

La désinformation est considérée comme l'une des plus grandes menaces auxquelles la société est confrontée - une préoccupation qui peut éroder la confiance dans certaines plateformes où la désinformation est diffusée.

  • La désinformation étant de plus en plus répandue, l'étude montre que la plupart des personnes interrogées (84 % aux États-Unis, 85 % au Royaume-Uni, 84 % en France, 80 % en Allemagne) craignent que le contenu qu'elles consomment en ligne soit susceptible d'être modifié pour alimenter la désinformation.
  • Un nombre important de consommateurs (70 % aux États-Unis, 76 % au Royaume-Uni, 73 % en France, 70 % en Allemagne) déclarent qu'il devient difficile de vérifier si le contenu qu'ils consomment en ligne est digne de confiance.
  • Les inquiétudes liées à la désinformation ont également un impact sur l'utilisation des plateformes de médias sociaux par les consommateurs, certaines personnes interrogées (39 % aux États-Unis, 29 % au Royaume-Uni, 37 % en France, 24 % en Allemagne) ayant déclaré avoir cessé ou réduit leur utilisation d'une plateforme de médias sociaux spécifique en raison de la quantité d'informations erronées qui s'y trouvent.


Dans un climat d'érosion de la confiance dans les contenus numériques, les consommateurs sont préoccupés par la protection de l'intégrité des élections.

  • En cette année où plus de quatre milliards de personnes dans le monde devraient se rendre aux urnes, l'étude révèle qu'un nombre important de personnes (80 % aux États-Unis, 78 % au Royaume-Uni, 67 % en France, 70 % en Allemagne) pensent que la désinformation et les deepfakes nuisibles auront un impact sur les élections à venir.
  • Sans outils répandus pour les aider à décider si le contenu en ligne qu'ils consomment est vrai, un nombre important de personnes (78 % aux États-Unis, 83 % au Royaume-Uni, 78 % en France, 72 % en Allemagne) pensent que les candidats aux élections devraient se voir interdire l'utilisation de l'IA générative dans leur contenu promotionnel.
  • La plupart des consommateurs (83 % aux États-Unis, 88 % au Royaume-Uni, 84 % en France, 79 % en Allemagne) pensent que les gouvernements et les entreprises technologiques devraient collaborer pour protéger l'intégrité des élections contre les effets néfastes des deepfakes et de la désinformation.


La plupart des gens prennent en compte la crédibilité d'une source avant de partager un contenu, mais estiment qu'il est important de disposer des outils et des compétences médiatiques nécessaires pour vérifier la véracité d'un contenu.

  • La plupart des personnes interrogées (88 % aux États-Unis, 88 % au Royaume-Uni, 85 % en France, 79 % en Allemagne) estiment qu'il est essentiel de disposer des bons outils pour vérifier si un contenu en ligne est digne de confiance.
  • En outre, un pourcentage élevé de personnes interrogées (76 % aux États-Unis, 82 % au Royaume-Uni, 77 % en France, 74 % en Allemagne) reconnaissent qu'il est important de savoir si le contenu qu'elles consomment est généré à l'aide de l'IA.
  • Les inquiétudes concernant la désinformation ont un impact sur la façon dont les gens pensent à son effet potentiel sur les enfants, la plupart des consommateurs (84 % aux États-Unis, 89 % au Royaume-Uni, 83 % en France, 81 % en Allemagne) affirmant que les enfants devraient apprendre à maîtriser les médias dans le cadre de leur cursus scolaire.



Analyse des résultats sur la France

À l'approche des élections parlementaires européennes en France (9 juin 2024), l'influence potentielle de la désinformation et des deepfakes sur le processus démocratique suscite des inquiétudes. Dans un climat d'érosion de la confiance dans les contenus numériques, les consommateurs sont préoccupés par la protection de l'intégrité des élections.

  • 7 Français sur 10 (67 %) craignent que la désinformation n'ait un impact sur les élections.
  • 1 personne sur 6 (16 %) a vu un contenu produit par l'IA générative sur des politiciens au cours des six derniers mois.
  • Sans outils répandus pour les aider à décider si le contenu qu'ils consomment est vrai, 78 % des personnes interrogées déclarent que les candidats aux élections devraient se voir interdire l'utilisation l'IA générative dans leur contenu promotionnel.


Les gens ont du mal à vérifier la fiabilité des contenus en ligne, et beaucoup admettent avoir eux-mêmes partagé des informations erronées. Les gens sont très favorables à des outils qui les aideraient à vérifier la véracité des contenus, et davantage d'éducation est nécessaire pour les aider à repérer les fausses informations.

  • 73 % des personnes interrogées admettent qu'il est difficile de vérifier la véracité des contenus consommés en ligne.
  • 85 % des personnes interrogées pensent qu'il est important de disposer d'outils permettant de vérifier la véracité du contenu.
  • Cependant, la moitié des personnes interrogées (51 %) pensent qu'il n'est pas possible d'authentifier les contenus produits par l'IA.
  • 37 % des personnes ont cessé ou réduit leur utilisation de certaines plateformes de médias sociaux en raison de la quantité d'informations erronées qu'elles y ont trouvées.
  • 40 % des personnes ont utilisé des outils de recherche en ligne pour les aider à repérer les informations erronées, tandis que 19 % ont regardé des tutoriels vidéo.
  • La génération Z est le groupe démographique le plus confiant en ce qui concerne sa capacité à repérer les fausses informations. Pourtant, plus d'une personne sur trois (36 %) a admis avoir partagé de fausses informations au cours des six derniers mois, ce qui est plus que tout autre groupe d'âge. Deux tiers des répondants de la génération Z (65 %) déclarent qu'il est difficile de vérifier si un contenu en ligne est digne d'intérêt.


Les consommateurs pensent que les entreprises technologiques et les gouvernements devraient collaborer pour réglementer l'IA générative, mais estiment en fin de compte que ceux qui créent des contenus trompeurs sont les plus responsables.

  • 41 % des personnes interrogées ont déclaré que ceux qui sont responsables de la création de contenus trompeurs devraient être les plus responsables de la diffusion d'informations erronées.
  • Cela dit, 84 % des personnes interrogées souhaitent que les gouvernements et les entreprises technologiques collaborent pour réglementer l'IA générative et éviter qu'elle ne soit utilisée pour influencer les élections.


Conclusion

L'étude met en évidence la volonté des consommateurs de disposer d'outils pour vérifier la fiabilité des contenus numériques et le besoin urgent de mesures proactives pour faire face à l'impact potentiel de la désinformation sur l'intégrité des élections à l'échelle mondiale.

Source : Adobe

Et vous ?

Pensez-vous que cette étude est crédible ou pertinente ?
Quel est votre avis sur le sujet ?

Voir aussi :

La Chine utilisera l'IA pour perturber les élections aux USA, en Corée du Sud et en Inde, prévient Microsoft à propos du tsunami de désinformation dû à l'avènement des deepfakes et IA génératives

France : la Commission de l'IA publie une liste de recommandations pour faire du pays un champion mondial en la matière. Les six axes majeurs d'action peuvent-ils permettre de détrôner les GAFA ?

L'IA peut prédire les convictions politiques à partir de visages sans expression, posant des problèmes de protection de la vie privée, car la reconnaissance faciale peut fonctionner sans le consentement

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Jules34
Membre émérite https://www.developpez.com
Le 29/04/2024 à 17:14
Elle a bon dos l'IA, la qualité des infos à la télé à elle aussi largement baissée. Le X de Macron et de Bruno Le Maire contiennent aussi des sacrées pépites de mauvaise foi, de déclaration contradictoire et autres...

On a désormais des chaines d'infos à l'américaine de réaction à chaud à l'actu qui ne font gaffe à rien.

Et que dire de la censure des sections de commentaires et des compteurs de downvote sur pleins de site pour éviter que les gens ne puissent dire :
- Qu'ils ne veulent pas de la crise en Ukraine,
- Que le gouvernement Macron est largement désavoué depuis la réforme des retraites voir le COVID,
- Que beaucoup de gens se posent des questions -légitimes ou non-, sur le niveau de corruption du gouvernement et de l'UE, la gestion du COVID, enfin plus généralement, du pognon,
- Que l'UE est elle aussi largement désavouée.

Donc on peut faire dire n'importe quoi à un sondage à la télé mais surtout pas lire n'importe quoi sur les médias sociaux, ou encore pire : faire son propre sondage

Et que dire de la mascarade des pétitions citoyennes ^^ Une aventure rocambolesque qui a remplit de gravier les pompes du gouvernement.

C'est comme ça que le fascisme avance.
2  0