Les auteurs qui ont participé à cette étude ont révélé que les amis fictifs qui s'appuient sur l'IA pour concevoir des textes ne font certainement pas beaucoup d'efforts pour se lier d'amitié, par rapport à ceux qui créent eux-mêmes le message. Cela donne lieu à une perception qui peut sembler compréhensible pour certains, mais pas pour d'autres.
Ce qu'il faut savoir, c'est que les effets de ce phénomène vont au-delà du texte lui-même, comme l'a confirmé le chercheur principal impliqué dans l'étude. Selon lui, les messages sur le thème de l'IA sont peut-être très simples et pratiques à concevoir, mais ils donnent à vos amis et à vos proches le sentiment d'être laissés pour compte et moins satisfaits. De plus, cela met en péril leur relation avec l'ami en question et les fait se sentir vulnérables et incertains du rôle qu'ils jouent l'un dans l'autre.
L'étude a été menée à l'université d'État de l'Ohio et les résultats sont pour le moins uniques. Mais en toute justice pour la technologie innovante de l'IA, ce n'est pas seulement cette dernière qui a contrarié les gens ou les a découragés. Cette étude a également montré les aspects négatifs des sentiments de rancœur ressentis par le destinataire d'un ami, après avoir appris que l'un de ses amis avait utilisé l'IA au lieu de faire l'effort de dire ce qu'il avait sur le cœur ou d'exprimer ses sentiments. Personne ne se sent bien lorsqu'il apprend qu'un ami s'est fait aider par des sources artificielles ou par une autre personne, au lieu de faire l'effort lui-même. Il est donc essentiel de rédiger un message qui vienne directement du cœur ou de l'esprit, et non de l'IA. Cette nouvelle étude vient d'être publiée dans le Journal of Social and Personal Relationships.
Avec le temps, les chatbots IA, dont ChatGPT, sont devenus très populaires et faciles à utiliser. C'est pourquoi les auteurs affirment que tout problème lié à leur utilisation serait certainement qualifié de difficile à comprendre et de super pertinent à l'heure actuelle.
La recherche a montré que près de 208 adultes ont participé à une telle étude par le biais de moyens en ligne. Tous les participants ont été informés qu'ils étaient de bons copains avec un autre appelé Taylor. Ce lien était censé durer des années. Ensuite, chacun d'entre eux a été invité à s'imaginer dans un certain type de scénario. Pour commencer, ils ont parlé d'un épuisement professionnel et d'un besoin de soutien. Ensuite, ils ont parlé d'un conflit avec un bon ami et ont demandé des conseils. Enfin, on leur a parlé de l'anniversaire d'un ami qui allait bientôt avoir lieu. De nombreux participants ont été informés de la nécessité d'écrire de courts textes mettant en lumière leur situation actuelle par le biais d'un écran d'ordinateur.
Tout le monde a ensuite été informé de la manière dont Taylor a rédigé une réponse et le projet initial a été partagé. C'est alors que l'entrée en scène de l'IA a été révélée pour mieux éditer le message et trouver le bon ton. En outre, quelques personnes ont été informées de la façon dont l'IA a été utilisée pour mieux faire certaines révisions, puis un troisième groupe a été informé de la personne qui a fait des modifications à l'aide du logiciel d'IA dans l'ensemble du texte.
Bien que le message ait été qualifié de très réfléchi par Taylor, tout le monde n'avait pas le même avis sur la question. De nombreuses personnes ont estimé qu'il s'agissait d'une erreur et que la réponse de Taylor à l'aide d'un logiciel d'intelligence artificielle n'était tout simplement pas justifiable. D'un autre côté, ceux qui ont vu Taylor faire le message toute seule étaient heureux et pensaient que c'était la bonne façon de gérer la situation.
Le maintien de relations étroites satisfaisantes est important pour le bien-être des individus. À l'ère numérique, l'intelligence artificielle (IA) trouve de plus en plus d'applications dans l'entretien des relations et a donc des répercussions sur le bien-être relationnel. Nous émettons l'hypothèse que, bien que l'utilisation de l'IA pour faciliter l'entretien des relations puisse réduire les efforts d'un individu, son partenaire peut percevoir les activités améliorées par l'IA de manière négative.
Selon le modèle d'investissement et la théorie de l'équité, la perception d'une diminution de l'effort dans une relation peut conduire à une moindre satisfaction et à une plus grande incertitude quant à l'implication du partenaire dans la relation. Dans une expérience en ligne, nous avons présenté aux participants (N = 208) des scénarios hypothétiques d'entretien relationnel initiés par un ami proche fictif, avec un modèle 3 (agence : autonome sans augmentation vs. augmentée par l'IA vs. augmentée par l'homme) × 3 (tâche relationnelle : donner du soutien vs. donner des conseils vs. fêter un anniversaire) entre les sujets.
Par rapport à la condition "sans augmentation" (c'est-à-dire la condition de contrôle) dans laquelle l'ami accomplit une tâche relationnelle sans aide extérieure, l'utilisation de l'assistance de l'IA a conduit les participants à percevoir que l'ami avait fourni moins d'efforts, ce qui a réduit la satisfaction relationnelle des participants et a augmenté l'incertitude. Obtenir de l'aide d'une autre personne n'était pas significativement différent de l'utilisation de l'IA en termes de perception de l'effort du partenaire, de satisfaction relationnelle, d'incertitude et d'adéquation perçue. Nous discutons des implications de ces résultats pour l'entretien relationnel et la communication médiatisée par la technologie.
Selon le modèle d'investissement et la théorie de l'équité, la perception d'une diminution de l'effort dans une relation peut conduire à une moindre satisfaction et à une plus grande incertitude quant à l'implication du partenaire dans la relation. Dans une expérience en ligne, nous avons présenté aux participants (N = 208) des scénarios hypothétiques d'entretien relationnel initiés par un ami proche fictif, avec un modèle 3 (agence : autonome sans augmentation vs. augmentée par l'IA vs. augmentée par l'homme) × 3 (tâche relationnelle : donner du soutien vs. donner des conseils vs. fêter un anniversaire) entre les sujets.
Par rapport à la condition "sans augmentation" (c'est-à-dire la condition de contrôle) dans laquelle l'ami accomplit une tâche relationnelle sans aide extérieure, l'utilisation de l'assistance de l'IA a conduit les participants à percevoir que l'ami avait fourni moins d'efforts, ce qui a réduit la satisfaction relationnelle des participants et a augmenté l'incertitude. Obtenir de l'aide d'une autre personne n'était pas significativement différent de l'utilisation de l'IA en termes de perception de l'effort du partenaire, de satisfaction relationnelle, d'incertitude et d'adéquation perçue. Nous discutons des implications de ces résultats pour l'entretien relationnel et la communication médiatisée par la technologie.
Source : Chercheurs de l'Université d'État de l'Ohio
Et vous ?
Pensez-vous que cette étude est crédible ou pertinente ?
Quel est votre avis sur l'utilisation de l'IA dans la rédaction de message pour un ami ou un proche ?
Voir aussi :
Les utilisateurs de Replika sont tombés amoureux d'un chatbot d'IA, puis ont perdu leur compagnon après une mise à jour. Ils supplient l'auteur de revenir à la version originale du logiciel
Une influenceuse Snapchat de 23 ans a utilisé le modèle de langage GPT-4 d'OpenAI pour créer copie virtuelle d'elle-même pilotée par l'IA qui peut être votre petite amie pour 1 dollar par minute
57 % des employés de bureau américains utilisent des outils d'IA, selon une étude de Cybsafe démontrant qu'ils partagent plus de secrets avec l'IA qu'ils ne le feraient avec un ami