IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les clauses de non-responsabilité relatives à l'IA dans les publicités politiques se retournent contre les candidats,
Selon une étude

Le , par Bruno

22PARTAGES

6  0 
Une étude du Center on Technology Policy de l'université de New York montre que les clauses de non-responsabilité liées à l'utilisation de l'IA dans les publicités politiques peuvent nuire aux candidats qui les affichent. Malgré les efforts des gouvernements pour contrer la désinformation en obligeant les candidats à signaler l'utilisation de l'IA, ces étiquettes entraînent une perception négative. Les participants à l'étude ont jugé moins dignes de confiance les candidats utilisant ces avertissements, même dans des contextes inoffensifs.

L'effet est particulièrement marqué pour les candidats qui diffusent des publicités d'attaque, qui sont perçus comme moins attrayants par rapport à ceux qui en sont la cible. Les chercheurs constatent que les étiquettes visant des utilisations trompeuses de l'IA suscitent des réactions encore plus défavorables que les avertissements généraux. Bien que cet impact soit statistiquement significatif, il reste modeste. Cela souligne la nécessité de concevoir ces clauses avec soin pour éviter de discréditer des usages non trompeurs. Les chercheurs appellent à des recherches supplémentaires sur ce sujet avant d'adopter de nouvelles réglementations.

Les produits marqués AI ne parviennent pas à se vendre. Le dispositif portable Humane AI Pin fait l'objet de vives critiques de la part de nombreux experts, qui affirment qu'il n'apporte aucune solution concrète. Pour Karl Guttag, spécialiste en dispositifs électroniques d'affichage, le Humane AI Pin est à la fois coûteux et inutile, et représente un rebondissement de 230 millions de dollars d'une vieille escroquerie. Il souligne que ce gadget intègre un projecteur laser de mauvaise qualité dans un appareil ressemblant à un téléphone, et que l'ajout de la mention "IA" vise à le faire passer pour une innovation, ce qui est trompeur. Selon lui, Humane mélange des concepts qui ont échoué par le passé.


Au cours de l'année écoulée, les décideurs politiques ont étudié de nouvelles lois concernant les clauses de non-responsabilité pour les publicités politiques utilisant de l'IA générative, et plus d'une douzaine de lois ont été adoptées aux États-Unis. Dans cette étude, plus de 1 000 participants ont visionné des publicités politiques de candidats fictifs, certaines incluant des avertissements relatifs à l'IA, d'autres non. Les résultats révèlent que les publicités avec étiquettes d'IA ont un impact globalement négatif sur l'image des candidats, affectant tant les utilisations trompeuses que les applications inoffensives de l'IA.

De plus, les étiquettes d'IA ont particulièrement nui aux candidats diffusant des publicités d'attaque, un phénomène que les chercheurs qualifient d’« effet de retour ». Selon Scott Babwah Brennen, directeur du centre et co-auteur du rapport, le candidat attaqué est perçu comme plus digne de confiance et plus attrayant que celui qui a produit la publicité.

Les résultats préliminaires indiquent que les avertissements liés à l'IA peuvent avoir des effets contre-productifs, ne renforçant pas la confiance dans la communication politique. Pour l'instant, les coûts liés à l'obligation d'inclure des clauses de non-responsabilité pourraient l'emporter sur les bénéfices. Les décideurs politiques devraient soutenir des recherches complémentaires sur la conception et l'impact de ces avertissements avant de se hâter à les imposer.

À ce jour, aucune étude n'a examiné l'effet ou l'efficacité des nouvelles clauses adoptées par les États américains, laissant incertain leur impact sur l’évaluation des candidats et des publicités par les électeurs. Deux sources d’information pourraient éclairer cet effet : la recherche sur les étiquettes d’IA dans des contextes non politiques et les études sur les clauses de non-responsabilité. Les recherches indiquent que ces étiquettes peuvent influencer les attitudes et comportements des téléspectateurs, mais leur impact pourrait être limité par la capacité des participants à les remarquer et à les comprendre.

Les recherches existantes montrent que la formulation et la conception des étiquettes peuvent influencer leur efficacité. Des expériences ont démontré que différentes conceptions et formulations entraînent des impacts variés. Par exemple, Dobber et al. ont noté qu'une clause de non-responsabilité placée au début d'une publicité augmentait la confiance par rapport à celle située à la fin.

Wittenberg et al. ont découvert que les étiquettes AI combinant des informations sur le processus de création des médias et les risques associés avaient le plus grand impact sur la crédibilité. De plus, Epstein et al. ont révélé que les répondants comprenaient différemment les termes « généré par l’IA », « manipulé par l’IA » et « deepfake », sans établir de lien fiable entre ces termes et la génération par l’IA.

Bien que la formulation et le choix des mots soient cruciaux, les clauses de non-responsabilité et les étiquettes concernant le contenu généré par l’IA peuvent réduire la confiance des téléspectateurs. Les études montrent que les contenus étiquetés par l’IA sont souvent jugés moins crédibles et fiables, indépendamment de leur véracité. De même, les clauses de non-responsabilité dans les publicités politiques amènent souvent à juger le candidat associé comme moins crédible. Cependant, cet effet reste généralement faible comparé à d'autres interventions.

Concernant les étiquettes de contenu d’IA, il a été suggéré que la transparence pourrait atténuer leur impact négatif. Toff et Simon ont observé que la confiance des utilisateurs était affectée par les contenus étiquetés comme générés par l’IA, mais s'améliorait lorsque les sources de contenu étaient divulguées. Feng et al. ont également constaté qu'une provenance incomplète diminuait la confiance des utilisateurs plus que des informations complètes.

En outre, l’inclusion d’une clause de non-responsabilité en matière de financement dans une publicité politique peut réduire son efficacité. Par exemple, Ridout et al. ont constaté que les publicités d'attaque de groupes inconnus étaient souvent plus efficaces que celles des candidats, mais que l'ajout d'une clause de non-responsabilité tendait à équilibrer leur impact. De plus, cette clause réduit également l’efficacité des publicités positives, bien que cet effet semble dépendre de la congruence politique, étant moins marqué lorsque les membres d'un parti voient des clauses de non-responsabilité dans des publicités de candidats opposés.

Les étiquettes d'IA pénalisent les candidats utilisant l'IA générative

Dans presque toutes les situations examinées, les participants ayant vu une étiquette sur une publicité ont jugé le candidat à l'origine de celle-ci moins attrayant et moins digne de confiance (voir tableau 1). Ce constat s'applique aussi bien aux annonces positives, où les répondants avaient une meilleure opinion du candidat, qu'aux annonces d'attaque, où l'évaluation était plus basse.

En plus de dévaluer le candidat, les étiquettes ont également altéré la perception de la véracité des publicités. Ainsi, les participants ont jugé les annonces d'attaque moins précises en présence d'étiquettes, tout comme ils ont considéré les annonces élogieuses comme moins exactes par rapport à celles sans étiquette. Ce phénomène est cohérent avec des études antérieures montrant que les étiquettes liées à l'IA réduisent la perception de l'exactitude dans d'autres contextes médiatiques.

Nous avons également interrogé les sujets sur leur probable réaction à ces publicités s'ils les voyaient sur les réseaux sociaux. De manière générale, les étiquettes ont accru la probabilité que les participants signalent la publicité et diminué leur appréciation. Dans l'ensemble, l'étiquette du Michigan a eu un impact plus marqué que celle de la Floride, mais la tendance demeurait similaire pour les deux types de publicités.

Nous ne savons pas précisément comment les participants ont interprété chaque publicité avec les étiquettes. Toutefois, l'apparition d'un label, en particulier celui du Michigan, sur une annonce d'attaque semblait suggérer que le candidat avait utilisé des techniques d'IA générative pour falsifier des déclarations de son adversaire. En revanche, une étiquette sur une annonce positive laissait entendre que l'IA avait été utilisée pour créer ou modifier des images du passé du candidat. Cela indique que l'impact des étiquettes pourrait être en partie indépendant du contenu de la publicité.

Comment les électeurs interprètent les avertissements relatifs à l'IA

L'étude du Center on Technology Policy de l'université de New York soulève des questions importantes sur l'impact des clauses de non-responsabilité concernant l'utilisation de l'IA dans les publicités politiques. Cependant, plusieurs éléments méritent une critique approfondie. Tout d'abord, il est crucial de considérer le contexte dans lequel ces résultats sont présentés. L'étude met en avant que les avertissements relatifs à l'IA peuvent nuire à la perception des candidats, mais elle ne prend pas suffisamment en compte la nature de la désinformation dans le paysage politique actuel.

Les électeurs, de plus en plus sensibilisés aux manipulations médiatiques, peuvent légitimement apprécier la transparence qu'offrent ces clauses. L'idée que la simple mention de l'IA entraîne une baisse de confiance peut sous-estimer la capacité des électeurs à faire la distinction entre une utilisation éthique et une manipulation malveillante.

Ensuite, l'effet de « retour » observé dans l'étude, où le candidat attaqué est perçu comme plus digne de confiance, soulève des interrogations. Ce phénomène pourrait indiquer que les électeurs valorisent la transparence et l'honnêteté, plutôt que de rejeter systématiquement les avertissements sur l'IA. La perception négative des clauses pourrait donc être plus complexe qu'elle n'y paraît, et une analyse plus fine des motivations des électeurs serait nécessaire.

De plus, la portée de l'étude semble limitée par son échantillon et sa méthodologie. Les résultats peuvent ne pas être généralisables à l'ensemble de la population électorale, surtout dans un contexte où les attitudes envers l'IA et la transparence peuvent varier considérablement. Les résultats pourraient également dépendre de la manière dont les clauses de non-responsabilité sont formulées et présentées, un aspect qui mériterait une attention particulière.


Enfin, il serait intéressant de voir comment ces résultats s'inscrivent dans un cadre plus large de réglementation de l'IA dans la communication politique. Plutôt que de rejeter en bloc ces clauses, il serait plus constructif de réfléchir à leur conception et à leur mise en œuvre afin de maximiser leur efficacité. Encourager des pratiques de communication transparente pourrait finalement renforcer la confiance des électeurs, au lieu de l'éroder.

En somme, bien que l'étude du Center on Technology Policy soulève des préoccupations légitimes, elle semble offrir une vision trop simpliste des interactions entre transparence, confiance et perception des candidats. Une exploration plus nuancée et approfondie serait nécessaire pour guider les politiques publiques en matière de communication politique et d'utilisation de l'IA.

Source : New York University’s Center on Technology Policy

Et vous ?

Les conclusions de l'étude du Center on Technology Policy de l'université de New York sont-elles pertinentes ?

Quelles méthodes alternatives auraient pu être utilisées pour évaluer plus précisément l'impact de l'IA sur la communication politique ?

Voir aussi :

Les LLM réduisent le partage des connaissances publiques sur les plateformes de questions-réponses en ligne : il y a moins de contenu valable pour former les IA, qui finissent donc ar s'auto-empoisonner

La Silicon Valley débat sur la question de savoir si les armes animées par IA doivent être autorisées à décider de tuer, comme le ferait l'IA Lavender d'Israël sans intervention d'opérateurs humains

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Zeeraptor
Membre régulier https://www.developpez.com
Le 15/10/2024 à 23:50
L'IA est la nouvelle révolution depuis internet..mais internet informe rapidement a propos de l'IA...On se méfie rapidement de l'IA...L'IA sera bonne et mauvaise.
Il faut l'accepter.
1  1