Un chatbot est une application logicielle ou une interface web conçue pour imiter une conversation humaine par le biais d'interactions textuelles ou vocales. Les chatbots modernes sont généralement en ligne et utilisent des systèmes d'intelligence artificielle (IA) générative capables d'entretenir une conversation avec un utilisateur en langage naturel et de simuler la manière dont un humain se comporterait en tant que partenaire de conversation. Ces chatbots utilisent souvent l'apprentissage profond et le traitement du langage naturel, mais des chatbots plus simples existent depuis des décennies.
Ethan Mollick, professeur associé à la Wharton School de l'université de Pennsylvanie, avait souligné la capacité de persuasion remarquable de l'IA. Selon lui, l'IA a démontré des aptitudes de persuasion surhumaines, avec des études montrant que les individus sont 82 % plus susceptibles d'adopter le point de vue de l'IA lors d'un débat que lors d'un échange avec un humain. En outre, M. Mollick a indiqué que l'IA s'est avérée efficace pour réduire la croyance humaine dans les théories du complot. Si ces résultats laissent entrevoir des avantages significatifs, le scientifique met en garde contre les conséquences négatives potentielles des capacités de persuasion de l'IA.
Une récente étude publiée dans la revue Science vient appuyer son avis. Selon l'étude, des chatbots formés aux bases du débat ont réussi à faire changer d'avis des adeptes de la théorie du complot, du moins une partie du temps. Des conversations relativement brèves avec des chatbots formés aux "contre-arguments fondés sur des preuves" ont réduit d'environ 20 % la croyance des participants à l'étude dans les théories du complot pendant au moins deux mois, ont constaté des chercheurs du MIT, de Cornell et de l'American University.
Ce qu'il faut en retenir ? Des théories du complot "classiques" sur l'assassinat de John F. Kennedy et les Illuminati aux théories plus actuelles sur le COVID-19 et l'élection présidentielle américaine de 2020, les croyants ne sont pas aussi imperméables aux faits qu'on le pensait, a déclaré Gordon Pennycook, coauteur de l'étude et membre de l'université Cornell. "Le monde de la post-vérité fait couler beaucoup d'encre, mais les preuves comptent." La capacité du chatbot à adapter ses réponses à des croyances spécifiques pourrait expliquer pourquoi d'autres études n'ont pas abouti à des résultats similaires.
Les auteurs de l'étude affirment que leurs résultats remettent en question l'idée selon laquelle les besoins et les motivations psychologiques sont les principaux moteurs de la pensée conspirationniste, mais cette interprétation dénature les théories existantes et confond le remède avec la cause, selon un critique. La réduction relativement faible des croyances conspirationnistes profondes lorsqu'elles sont confrontées à des faits montre que les facteurs sociaux et politiques sous-jacents exercent une plus grande influence sur les gens. "Croire qu'une information est vraie n'est pas seulement une question cognitive ou rationnelle, mais est profondément lié à la vision du monde, à l'identité et à la communauté des gens."
La critique ajoute que l'un des aspects prometteurs de la recherche est que les solutions alimentées par l'IA peuvent être "étendues pour atteindre de nombreuses personnes et ciblées pour atteindre, au moins en théorie, ceux qui en bénéficieraient le plus". Toutefois, il n'est pas certain que les adeptes du conspirationnisme choisissent de s'engager avec de tels robots, et ils pourraient même être effrayés si le robot lui-même devenait l'objet de théories conspirationnistes.
Ekeoma Uzogara, éditeur de l'étude, la présente en déclarant :
La croyance en une conspiration selon laquelle les élections américaines auraient été volées a provoqué une tentative d'insurrection le 6 janvier 2021. Une autre conspiration alléguant que les restrictions allemandes du COVID-19 étaient motivées par des intentions malveillantes a déclenché de violentes manifestations au Reichstag, le bâtiment du parlement à Berlin, en août 2020.
Face aux menaces croissantes qui pèsent sur la démocratie, Costello et al. ont cherché à savoir si des dialogues avec une interface d'intelligence artificielle (IA) générative pouvaient convaincre les gens d'abandonner leurs croyances conspirationnistes (voir la Perspective de Bago et Bonnefon). Les participants humains ont décrit une théorie du complot à laquelle ils adhéraient, et l'IA s'est ensuite engagée avec eux dans des arguments persuasifs qui réfutaient leurs croyances à l'aide de preuves.
La capacité du chatbot à soutenir des contre-arguments sur mesure et des conversations personnalisées approfondies a permis de réduire les croyances des participants en matière de conspiration pendant des mois, remettant en cause les recherches suggérant que ces croyances sont imperméables au changement. Cette intervention illustre comment le déploiement de l'IA peut atténuer les conflits et servir la société.
Face aux menaces croissantes qui pèsent sur la démocratie, Costello et al. ont cherché à savoir si des dialogues avec une interface d'intelligence artificielle (IA) générative pouvaient convaincre les gens d'abandonner leurs croyances conspirationnistes (voir la Perspective de Bago et Bonnefon). Les participants humains ont décrit une théorie du complot à laquelle ils adhéraient, et l'IA s'est ensuite engagée avec eux dans des arguments persuasifs qui réfutaient leurs croyances à l'aide de preuves.
La capacité du chatbot à soutenir des contre-arguments sur mesure et des conversations personnalisées approfondies a permis de réduire les croyances des participants en matière de conspiration pendant des mois, remettant en cause les recherches suggérant que ces croyances sont imperméables au changement. Cette intervention illustre comment le déploiement de l'IA peut atténuer les conflits et servir la société.
Réduire durablement les croyances conspirationnistes grâce à des dialogues avec l'IA
La croyance généralisée en des théories du complot non fondées est une source majeure d'inquiétude pour le public et un sujet de recherche universitaire. Bien qu'elles soient souvent peu plausibles, de nombreuses conspirations sont largement acceptées. Selon les théories psychologiques les plus en vogue, de nombreuses personnes souhaitent adopter des théories du complot (pour satisfaire des "besoins" ou des motivations psychiques sous-jacentes), et il est donc impossible de convaincre les croyants d'abandonner ces croyances infondées et invraisemblables en s'appuyant sur des faits et des contre-preuves. Dans cette étude, les chercheurs remettent en question cette idée reçue et cherchent à savoir s'il est possible de convaincre les gens de sortir du "terrier du lapin" conspirationniste à l'aide de preuves suffisamment convaincantes.
Les chercheurs ont émis l'hypothèse que les interventions basées sur des informations factuelles et correctives peuvent sembler inefficaces simplement parce qu'elles ne sont pas suffisamment approfondies et personnalisées. Pour tester cette hypothèse, ils ont tiré parti des progrès réalisés dans le domaine des grands modèles de langage (LLM), une forme d'intelligence artificielle (IA) qui a accès à de vastes quantités d'informations et qui est capable de générer des arguments sur mesure. Les LLM peuvent ainsi réfuter directement les preuves particulières que chaque individu cite pour étayer ses croyances conspirationnistes.
Pour ce faire, ils ont développé un pipeline pour mener des recherches en sciences comportementales en utilisant des interactions personnalisées en temps réel entre les sujets de recherche et l'IA. Dans le cadre de deux expériences, 2 190 Américains ont formulé - avec leurs propres mots - une théorie du complot à laquelle ils croient, ainsi que les preuves qui, selon eux, étayent cette théorie. Ils ont ensuite engagé une conversation de trois tours avec le Turbo GPT-4 du LLM, incité à répondre à ces preuves spécifiques tout en essayant de réduire la croyance des participants dans la théorie du complot (ou, comme condition de contrôle, à converser avec l'IA sur un sujet sans rapport).
Le traitement a réduit de 20 % en moyenne la croyance des participants dans la théorie du complot qu'ils avaient choisie. Cet effet a persisté pendant au moins deux mois ; il a été observé de manière cohérente sur un large éventail de théories du complot, allant des conspirations classiques impliquant l'assassinat de John F. Kennedy, les extraterrestres et les illuminati, aux conspirations liées à des événements d'actualité tels que le COVID-19 et l'élection présidentielle américaine de 2020 ; et il s'est produit même chez les participants dont les croyances au complot étaient profondément ancrées et importantes pour leur identité.
Il est à noter que l'IA n'a pas réduit la croyance en de véritables conspirations. En outre, lorsqu'un vérificateur de faits professionnel a évalué un échantillon de 128 affirmations faites par l'IA, 99,2 % étaient vraies, 0,8 % étaient trompeuses et aucune n'était fausse. La démystification a également eu pour effet de réduire les croyances en des conspirations sans rapport, ce qui indique une diminution générale de la vision du monde conspirationniste et une augmentation des intentions de réfuter d'autres croyants en des conspirations.
Conclusion
De nombreuses personnes qui croient fermement à des conspirations apparemment résistantes aux faits peuvent changer d'avis lorsqu'on leur présente des preuves convaincantes. D'un point de vue théorique, cela donne une image étonnamment optimiste du raisonnement humain : Les terriers de lapin conspirationnistes peuvent en effet avoir une issue. Les besoins et les motivations psychologiques ne rendent pas intrinsèquement les conspirationnistes aveugles aux preuves - il suffit d'avoir les bonnes preuves pour les atteindre. D'un point de vue pratique, en démontrant le pouvoir de persuasion des LLM, les résultats soulignent à la fois les impacts positifs potentiels de l'IA générative lorsqu'elle est déployée de manière responsable et l'importance pressante de minimiser les possibilités d'utilisation irresponsable de cette technologie.
Source : "Durably reducing conspiracy beliefs through dialogues with AI"
Et vous ?
Pensez-vous que cette étude est crédible ou pertinente ?
Quel est votre avis sur le sujet ?
Voir aussi :
L'IA surpasse les humains en matière de persuasion avec une réussite de 82 % en moyenne, selon une étude où les LLM ont surpassé les participants sur tous les sujets avec un haut niveau de persuasion
Une recherche sur les tâches simples montrant la décomposition du raisonnement IA dans les LLM de pointe donne OpenAI GPT-4o largement en tête, suivi d'Anthropic Claude 3
Les chatbots d'IA ont un biais politique qui pourrait influencer la société à son insu, car la plupart des LLM existants affichent des préférences politiques de centre-gauche, d'après une étude de David Rozado