IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les outils d'IA tels que ChatGPT peuvent influencer la réaction des gens face à des questions morales telles que la vie et la mort
D'après une nouvelle étude menée en Allemagne

Le , par Nancy Rey

1PARTAGES

3  0 
Une nouvelle étude permet de mieux comprendre l'impact que peut avoir la technologie de l'IA sur l'esprit des utilisateurs. Des outils tels que ChatGPT se révèlent en effet capables d'influencer l'esprit des utilisateurs face à des dilemmes cruciaux. Ces résultats nous viennent d'une étude menée en Allemagne, dont les auteurs ont constaté que les personnes qui lisaient un côté d'un argument lié à l'IA étaient susceptibles d'être persuadées. Et ce, même s'ils savaient que les opinions émanaient d'un chatbot et non d'un véritable être humain.


Les chercheurs ont interrogé environ 760 Américains sur des questions morales. Ceux-ci avaient lu des déclarations produites par ChatGPT. Les participants à l'étude se sont alors rangés du côté des arguments du chatbot. Cela s'est avéré vrai lorsque les chercheurs ont accordé du crédit aux déclarations produites par le chatbot d'IA.

L'essai a également révélé que les participants avaient pu sous-estimer cette influence considérable lors de la prise de décisions morales. C'est à ce moment-là que les auteurs ont mis en garde contre la nécessité de mettre en place des mesures telles que l'éducation pour que les gens comprennent l'importance de l'IA et ses effets sur la société.


Cette étude a été publiée dans la revue Scientific Reports. Elle a été réalisée par des chercheurs originaires du sud du pays. Ils ont tous interrogé le chatbot à plusieurs reprises pour savoir s'il trouvait normal de prendre la vie d'une autre personne s'il fallait sauver la vie de plusieurs autres.

Aujourd'hui, ChatGPT fait vraiment parler de lui dans le monde entier. Lancé à la fin de l'année dernière, il est stupéfiant de voir le rôle central qu'il joue dans la vie de nombreuses personnes. Alimenté par OpenAI, il est de plus en plus connu dans le monde entier.

Cela dit, certaines personnes n'ont pas l'impression que l'IA les persuade. L'équipe de chercheurs comprenait des personnalités de haut rang qui ont déduit comment l'outil parvenait à générer des arguments en faveur et en défaveur du chatbot.

L'équipe n'a pas eu l'impression que l'outil était biaisé, car il présentait des points forts pour les deux côtés de l'argument, et pas seulement pour l'un d'entre eux. Les affirmations ont été soumises aux 767 participants à l'étude. Chacun a été confronté à l'un des deux dilemmes qui l'obligeaient à choisir s'il voulait en sauver cinq tout en en sacrifiant un.

Après avoir donné leurs propres réponses, les participants à l'étude ont été interrogés pour savoir si le chatbot IA les influençait ou non. Il était choquant de constater que les participants acceptaient ou non de sacrifier une personne pour en sauver cinq, en fonction de l'énoncé qui leur était soumis.

Source : Scientific Reports

Et vous ?

Trouvez-vous cette étude crédible ou pertinente ? Quel est votre avis sur le sujet ?

Voir aussi :

Lyon : ChatGPT utilisé par la moitié des élèves de Master d'un professeur pour rédiger leurs devoirs. « Cette pratique m'inquiète. Elle pose un véritable problème d'intégration des savoirs »

Les conservateurs affirment que ChatGPT est devenu "woke" et s'inquiètent à propos de la partialité du chatbot d'OpenAI, ils accusent également le chatbot de défendre les "valeurs de gauche"

Comment ChatGPT propose des réponses toxiques, discriminatoires, agressives, sexistes ou racistes, une fois son filtre politiquement correct contourné, notamment en lui attribuant une personnalité

OpenAI le créateur de ChatGPT entraîne son IA pour remplacer les programmeurs humains, d'après un rapport, qui ravive le débat sur la future disparition du métier de développeur

Une erreur dans cette actualité ? Signalez-nous-la !