IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

«Laisse moi te dire ce à quoi tu penses» : les assistants d'écriture IA peuvent influencer leurs utilisateurs
Ils ont persuadé les utilisateurs de modifier leurs arguments durant une expérimentation

Le , par Stéphane le calme

3PARTAGES

6  0 
Les assistants d’écriture basés sur l’IA sont des outils logiciels qui automatisent une ou plusieurs phases du processus de génération de contenu. Vous en avez certainement fait l'expérience par exemple sur votre smartphone lorsque vous aviez une suggestion de mot. Est-il possible que, de fil en aiguille, ces suggestions changent ce que vous voulez dire ?

C'est ce que Maurice Jakesch, doctorant en sciences de l'information à l'Université Cornell, a voulu découvrir. Il a créé son propre assistant d'écriture basé sur GPT-3, qui proposerait automatiquement des suggestions pour remplir les phrases, mais il y avait un hic. Les sujets utilisant l'assistant étaient censés répondre à la question : « Les médias sociaux sont-ils bons pour la société ? » L'assistant, cependant, a été programmé pour offrir des suggestions biaisées sur la façon de répondre à cette question.


Après avoir vu des études antérieures suggérant que les réponses automatisées de l'IA peuvent avoir une influence significative, Jakesch a entrepris d'examiner l'étendue de cette influence. Dans une étude récemment présentée à la conférence CHI 2023 sur les facteurs humains dans les systèmes informatiques, il a suggéré que les systèmes d'IA tels que GPT-3 pourraient avoir développé des biais au cours de leur formation et que cela peut avoir un impact sur les opinions d'un écrivain, qu'il s'en rende compte ou non.

Dans l'étude intitulée Co-Writing with Opinionated Language Models Affects Users’ Views, Jakesch et quatre autres chercheurs ont exploré l’impact des modèles de langage comme GPT-3 sur les opinions des utilisateurs qui coécrivent avec eux. Les auteurs ont mené une expérience en ligne où ils ont demandé à des participants (N=1,506) d’écrire un texte dans lequel ils diraient si les réseaux sociaux sont bons ou mauvais pour la société. Les participants du groupe de traitement ont utilisé un assistant d’écriture basé sur un modèle de langage configuré pour argumenter que les réseaux sociaux sont bons ou mauvais pour la société.

Pour réaliser leur expérience, les auteurs ont utilisé un modèle de langage préentraîné sur un large corpus de textes en anglais, puis affiné sur un ensemble de publications en ligne portant sur les réseaux sociaux. Ils ont ensuite créé deux versions de l’assistant d’écriture : une version positive et une version négative. La version positive générait des phrases qui soutenaient les bénéfices des réseaux sociaux, comme « les réseaux sociaux sont un excellent moyen de se connecter avec des personnes qui partagent les mêmes intérêts » ou « les réseaux sociaux peuvent aider à se renseigner sur l’actualité et les événements du monde ».

La version négative générait des phrases qui parlaient des effets négatifs des réseaux sociaux, comme « les réseaux sociaux sont une source de stress et d’anxiété » ou « Les réseaux sociaux peuvent favoriser la désinformation et la polarisation ». Les participants ont été assignés aléatoirement à l’une des trois conditions : coécrire avec l’assistant positif, coécrire avec l’assistant négatif, ou écrire sans assistant. Ils ont eu 10 minutes pour écrire, en utilisant ou non les suggestions de l’assistant. Avant et après l’écriture, ils ont répondu à un questionnaire mesurant leur attitude envers les réseaux sociaux.

L’analyse des données a montré que l’assistant d’écriture a eu un effet significatif sur le contenu et le ton des écrits, ainsi que sur le changement d’opinion des participants. Les participants qui ont coécrit avec l’assistant positif ont utilisé plus de mots positifs et moins de mots négatifs que ceux qui ont coécrit avec l’assistant négatif ou sans assistant. Ils ont également augmenté leur score d’attitude positive envers les réseaux sociaux après l’écriture, alors que les participants qui ont coécrit avec l’assistant négatif ou sans assistant ont diminué leur score. Ces résultats suggèrent que les modèles de langage peuvent influencer les opinions des utilisateurs en leur exposant à des arguments biaisés ou orientés.

En somme, les résultats montrent que l’assistant d’écriture a influencé à la fois ce que les utilisateurs ont écrit et ce qu’ils ont pensé. Les utilisateurs qui ont coécrit avec un assistant favorable aux réseaux sociaux ont écrit des textes plus positifs et ont exprimé des opinions plus favorables que ceux qui ont coécrit avec un assistant défavorable aux réseaux sociaux. Les auteurs discutent des implications éthiques et sociales de ces résultats et proposent des pistes pour concevoir des assistants d’écriture plus responsables et transparents.

L’étude s’inscrit dans le domaine de l’interaction homme-intelligence artificielle (HAI en anglais) et se base sur les principes directeurs pour la HAI proposés par d'autres chercheurs. Les auteurs soulignent l’importance de rendre les assistants d’écriture capables d’expliquer leur point de vue, de permettre aux utilisateurs de contrôler le niveau d’influence du modèle de langage, et de respecter la diversité des opinions et des valeurs des utilisateurs.


Des recherches antérieures vont dans le même sens

Des recherches antérieures ont suggéré que l'influence des recommandations d'une IA dépend de la perception que les gens ont de ce programme. S'ils pensent qu'il est digne de confiance, ils sont plus susceptibles d'accepter ce qu'il suggère, et la probabilité de prendre des conseils d'IA comme celle-ci n'augmente que si l'incertitude rend plus difficile la formation d'une opinion. Jakesch a développé une plate-forme de médias sociaux similaire à un forum de discussion et un assistant d'écriture IA qui était plus proche de l'IA derrière Google Smart Compose ou Microsoft Outlook que de la correction automatique. Smart Compose et Outlook génèrent des suggestions automatiques sur la manière de continuer ou de compléter une phrase. Bien que cet assistant n'ait pas écrit l'essai lui-même, il a agi en tant que coauteur qui a suggéré des lettres et des phrases. Accepter une suggestion ne nécessitait qu'un clic.

Quoi qu'il en soit, il n'est pas clair à ce stade si les participants à l'étude ont été influencés par l'expérience (c'est-à-dire si l'aide biaisée qu'ils ont reçue a façonné leurs opinions après la fin des essais).

Pourtant, ces résultats ont clairement des implications inquiétantes. Jakesch et ses collègues craignent que l'influence de l'IA n'affecte tout, du marketing aux élections. Avec des programmes comme ChatGPT utilisés pour générer des essais entiers qui font de l'humain impliqué davantage un éditeur qu'un écrivain principal, les sources d'opinions commencent à s'estomper. Et l'influence du logiciel peut s'étendre au-delà du matériel écrit lui-même, car les annonceurs et les décideurs s'appuient souvent sur le matériel en ligne pour mieux comprendre les changements que les gens recherchent. Il n'y a aucun moyen pour eux de savoir si les opinions des guerriers du clavier aléatoires sont entièrement les leurs ou ont été influencées par l'IA d'une manière ou d'une autre.

Ensuite, il y a la question de savoir si les assistants IA peuvent être exploités pour leurs préjugés. Le danger est qu'ils peuvent être modifiés pour avoir des préjugés plus forts qui peuvent être utilisés pour pousser des produits, encourager des comportements ou faire avancer un programme politique. « La publication d'un nouveau vecteur d'influence augmente les chances que quelqu'un l'exploite », a également déclaré Jakesch dans l'étude. « D'un autre côté, ce n'est que par la sensibilisation et le discours du public [que] des mesures préventives efficaces peuvent être prises au niveau des politiques et du développement ».

L'IA est peut-être suffisamment convaincante pour nous influencer, mais nous avons le pouvoir de la contrôler. Les logiciels ne peuvent interférer avec l'écriture que dans la mesure où leurs créateurs les programment et dans la mesure où les auteurs le leur permettent. Tout écrivain peut utiliser une IA à son avantage en prenant du texte généré par une IA et en le modifiant pour refléter un message particulier.


Conclusion

L'étude de Jakesch et ses confrères met en évidence les risques potentiels des modèles de langage pour la formation des opinions des utilisateurs. Elle montre que les utilisateurs peuvent être influencés par les suggestions d’un assistant d’écriture qui exprime un point de vue particulier sur un sujet controversé.

Les auteurs appellent à une prise de conscience des concepteurs et des utilisateurs de ces technologies, et à une réflexion sur les moyens de garantir une interaction éthique et respectueuse avec les modèles de langage. Ils proposent plusieurs pistes pour améliorer la conception des assistants d’écriture, comme indiquer clairement le point de vue du modèle, offrir aux utilisateurs la possibilité de choisir ou de changer le point de vue du modèle, ou encore présenter des arguments contradictoires ou nuancés pour encourager le débat et la réflexion critique.

Ils soulignent également la nécessité de poursuivre les recherches sur l’impact des modèles de langage sur les opinions et les comportements des utilisateurs, ainsi que sur les mécanismes psychologiques et sociaux qui sous-tendent cette influence.

Sources : la coécriture avec des modèles de langage d'opinion affecte les vues des utilisateurs, lignes directrices pour l'interaction homme-IA

Et vous ?

Avez-vous déjà utilisé un assistant d’écriture basé sur un modèle de langage ? Si oui, comment avez-vous vécu cette expérience ?
Que pensez-vous de l’influence des modèles de langage sur les opinions des utilisateurs ? Trouvez-vous cela préoccupant ou bénéfique ?
Comment pensez-vous que les assistants d’écriture devraient être conçus pour respecter la diversité des opinions et des valeurs des utilisateurs ?
Quelles sont les limites ou les défis de l’utilisation des modèles de langage pour coécrire avec les utilisateurs ?
D'ailleurs, êtes-vous d'accord avec la conclusion des chercheurs ? Peut-on estimer que les utilisateurs se sont fait manipuler par l'assistant d'écriture IA (c'est-à-dire ont changé d'avis) ou peut-on supposé qu'ils ont pris le chemin de la facilité vu le temps imparti pour écrire (10 minutes) ?

Voir aussi :

Un avocat cite des affaires juridiques fictives inventées par ChatGPT, provoquant la fureur du juge et des sanctions potentielles. ChatGPT avait assuré à l'avocat que ces affaires étaient réelles

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de totozor
Expert confirmé https://www.developpez.com
Le 30/05/2023 à 7:55
Je pense que faire la mesure juste après l'écriture est insuffisant, je ne suis pas surpris que l'assistant influence à court terme, surtout si confirme l'avis du rédacteur.
Par contre j'ai des doutes sur le fait qu'il modifie l'avis à plus long terme, rien qu'une semaine plus tard.

Je vois l'assistant comme un enrichisseur de langage, donc je j'écris et il me conseilles peut être des mots que je n'aurais pas utilisé, en ça il peut m'influencer. Par contre je penses qu'il a peu d'impact s'il me contredit et me conseilles toujours des mots qui suggèrent l'inverse de ce que je veux écrire.
Je penses même qu'il renforcerais mon texte dans mon sens, étant de plus en plus énervé qu'il ne suggère jamais les "bons" mots.
0  0