IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

L'intelligence artificielle pourrait être utilisée pour favoriser des tendances de médias sociaux plus saines
D'après une nouvelle étude

Le , par Jade Emy

5PARTAGES

6  0 
Les chatbots d'IA peuvent favoriser des tendances plus saines dans les médias sociaux. Grâce à cette nouvelle étude, l'IA a été reconnue comme un moyen essentiel pour favoriser des relations saines en ligne. Les résultats de l'étude ont été obtenus après que les auteurs ont pris en considération 500 chatbots et les interactions entre eux.

Les chercheurs ont examiné en détail la manière dont ces chatbots étaient utilisés dans le monde des médias sociaux pour faciliter et stimuler toutes sortes d'interactions grâce à l'utilisation de modèles expérimentaux. Ces chatbots ont donné lieu à des comportements beaucoup moins toxiques après avoir été exposés à l'engagement par le biais d'interactions entre partis. Bien qu'il faille encore beaucoup de travail et d'études pour confirmer ces affirmations, celles-ci prouvent à quel point ces médias peuvent refléter avec précision la nature humaine.

Aujourd'hui, l'IA est synonyme de commodité de la plus haute qualité. Elle donne naissance à des solutions qui limitent l'activité sur les médias sociaux que de nombreuses personnes considèrent comme négative et polarisante. De la même manière, il était très intéressant de voir comment les auteurs ont été impliqués dans la suggestion de petites modifications concernant le fonctionnement des réseaux sociaux afin que certains documents publiés puissent limiter les clivages partisans, et qu'ils entraînent une plus grande positivité parmi les chats en général.

Cette étude particulière a été réalisée par une grande équipe composée d'un professeur de l'université d'Amsterdam, Petter Tornberg. Les chercheurs ont participé à la programmation de 500 chatbots qui affichaient toutes sortes de profils, en fonction du type de données de l'enquête. Ces bots étaient conçus pour lire les nouvelles et les messages qui circulaient dans l'écosystème X. On a ainsi pu constater que de nombreux chatbots s'en donnaient à cœur joie dans la recherche d'un terrain d'entente et d'un comportement jugé moins toxique par nature.


Le monde de l'IA est conçu pour imiter les individus de manière plus réaliste et, grâce à ce type de recherche, on peut voir comment elle contribue à unir les individus et à limiter les écueils éthiques. Après avoir attribué à chaque chatbot un lien vers un parti politique, on vu d'autres facteurs être associés, comme le sexe, la race, la religion, le revenu et d'autres encore. L'objectif était d'ajouter un certain degré de diversité.

On a vu des bots lire de vraies nouvelles et produire des commentaires sur le sujet en question. On les a également vus s'engager dans le contenu. Le comportement des chatbots a ensuite été suivi grâce à des simulations qui ont duré six heures et à des chercheurs qui ont suivi leur comportement. Les modèles de rapprochement ont montré une plus grande probabilité de bonheur sur de nombreux sujets comme les LGBTQ.

Ces résultats suggèrent comment les médias sociaux peuvent être conçus pour susciter l'engagement sans donner lieu à des abus entre différents groupes. Mais de nombreuses autres études sont nécessaires pour valider les affirmations concernant l'efficacité de ces modèles à stimuler le bon type d'actions humaines en ligne.

Mais il ne faut pas oublier les problèmes éthiques majeurs qui se posent sur ce front. Le degré d'utilisation d'informations privées à des fins d'entraînement des robots est élevé, car ces derniers pourraient être entraînés à partir de l'historique de l'utilisateur, de données confidentielles et autres, ce qui soulève une multitude de problèmes éthiques. C'est la raison pour laquelle les experts appellent à l'élaboration de nouvelles lignes directrices dans ce domaine, car elles seraient nécessaires à des fins de formation pour que d'autres études de cette nature puissent être menées.

Les chatbots d'IA ont un comportement plus humain que jamais. Cette toxicité réduite est observée dans les applications de médias sociaux, mais la principale chose à retenir est que le meilleur côté de l'humanité doit être représenté.

Simulation des médias sociaux à l'aide de grands modèles linguistiques pour évaluer des algorithmes alternatifs de fil d'actualité

Les médias sociaux sont souvent critiqués pour amplifier les discours toxiques et décourager les conversations constructives. Mais concevoir des plateformes de médias sociaux pour promouvoir de meilleures conversations est intrinsèquement difficile. Cet article se demande si la simulation des médias sociaux à l'aide d'une combinaison de grands modèles de langage (LLM) et de modélisation basée sur les agents peut aider les chercheurs à étudier comment les différents algorithmes de flux de nouvelles façonnent la qualité des conversations en ligne.

Nous créons des personas réalistes en utilisant les données de l'American National Election Study pour peupler des plateformes de médias sociaux simulés. Ensuite, nous invitons les agents à lire et à partager des articles d'actualité - et à aimer ou commenter les messages des autres - sur trois plateformes qui utilisent des algorithmes de fil d'actualité différents. Sur la première plateforme, les utilisateurs voient les messages les plus appréciés et les plus commentés des utilisateurs qu'ils suivent. Dans la deuxième, ils voient les messages de tous les utilisateurs, même ceux qui ne font pas partie de leur propre réseau. La troisième plateforme utilise un nouvel algorithme de "rapprochement" qui met en évidence les messages appréciés par des personnes ayant des opinions politiques opposées.

Nous avons constaté que cet algorithme de rapprochement favorise des conversations plus constructives et non toxiques au-delà des clivages politiques que les deux autres modèles. Bien que d'autres recherches soient nécessaires pour évaluer ces résultats, nous soutenons que les LLM ont un potentiel considérable pour améliorer la recherche de simulation sur les médias sociaux et de nombreux autres environnements sociaux complexes.


Conclusion

Les possibilités d'innovation dans le secteur des médias sociaux ne seront peut-être jamais aussi grandes qu'aujourd'hui. Au cours des deux dernières décennies, le secteur s'est caractérisé par un renouvellement constant des plateformes dominantes - de Friendster à Facebook et TikTok. La confiance du public dans les grandes entreprises technologiques n'a jamais été aussi faible. Le grand nombre de nouveaux venus dans le domaine au cours des périodes les plus récentes est une indication supplémentaire que les entrepreneurs et les consommateurs veulent des alternatives au statu quo.

Dans une étude récente, Rathje et al. ont demandé aux utilisateurs des médias sociaux ce qui, selon eux, provoque la propagation virale des messages et quelles sont les caractéristiques qui, à leur avis, devraient déterminer cette diffusion rapide. Les personnes interrogées ont répondu à une écrasante majorité qu'elles souhaitaient voir davantage de contenus productifs, utiles et positifs.

L'algorithme de rapprochement que nous avons étudié ci-dessus est l'un des nombreux outils qui pourraient être utilisés pour produire de telles améliorations. Grâce à une combinaison unique de technologies innovantes, nos résultats préliminaires indiquent que l'amplification des messages qui suscitent des réactions positives au-delà des clivages sociaux peut aider les plateformes de médias sociaux à optimiser le consensus et à faire de leurs forums un endroit moins attrayant pour les trolls qui sèment la discorde.

Utilisés judicieusement, nous pensons que les LLM offrent une solution intermédiaire convaincante entre les modèles traditionnels basés sur des agents et les expériences sur des sujets humains difficiles à réaliser. Nos résultats préliminaires indiquent que la sophistication linguistique de ces modèles peut permettre aux chercheurs d'étudier une série d'autres sujets, par exemple la façon dont les modèles de discours, le cadrage et les émotions collectives influencent le flux des conversations sur les médias sociaux. Cette approche peut également apporter de nouvelles connaissances sur les moteurs des phénomènes collectifs sur les médias sociaux, notamment la diffusion de fausses informations ou la montée de la polarisation et de l'extrémisme.

La recherche avec les LLM peut également ouvrir de nouvelles pistes de réflexion sur le rôle des plateformes de médias sociaux dans la formation des comportements de groupe dans toute une série de contextes différents en dehors des États-Unis - en particulier compte tenu de la capacité de ces modèles à produire un contenu humain réaliste dans des langues autres que l'anglais. Ces outils peuvent également s'avérer très utiles pour les recherches qui sont trop dangereuses pour être menées sur des sujets humains - ou qui pourraient soulever des dilemmes éthiques. Des interventions potentiellement dangereuses pourraient être testées non seulement pour décourager la diffusion de fausses informations, mais aussi pour dissuader l'extrémisme.

Les LLM pourraient être utiles pour étudier ces sujets et bien d'autres en dehors des plateformes de médias sociaux, d'autant plus que la taille et la diversité des données d'entraînement utilisées pour créer de tels modèles ne cessent d'augmenter. Enfin, les ABM alimentés par les LLM pourraient être combinés avec des modèles de recherche plus conventionnels (tels que les expériences d'enquête ou les expériences de terrain à grande échelle) afin de faire progresser la gamme et la qualité des analyses empiriques possibles dans le domaine en pleine expansion des sciences sociales computationnelles.
Source : Simulating Social Media Using Large Language Models to Evaluate Alternative News Feed Algorithms

Et vous ?

Pensez-vous que cette étude est crédible ou pertinente ?
Quel est votre avis sur le sujet ?

Voir aussi :

Google, Facebook et Twitter privilégient l'utilisation de l'IA pour les activités de modération et préviennent que des erreurs peuvent survenir, leurs employés étant priés de rester chez eux

GPT-4 peut-il résoudre le problème de la modération du contenu ? OpenAI affirme que GPT-4 permettrait de réagir plus rapidement et réduirait la charge mentale des modérateurs humains

Call Of Duty utilise l'intelligence artificielle pour détecter les propos haineux lors des matchs en ligne et améliorer la modération

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 29/12/2023 à 12:20
L'intelligence artificielle pourrait être utilisée pour favoriser des tendances de médias sociaux plus saines, d'après une nouvelle étude
En d'autre terme, l'IA va rendre la censure plus efficace!!!

Et là, la même affirmation mais exprimée avec des termes différents semble tout d'un coup moins positive pour l'IA!!!
0  1 
Avatar de unanonyme
Membre éclairé https://www.developpez.com
Le 29/12/2023 à 12:43
Oui l'IA partout c'est la techno-police partout car ce sera à moindre coût, 24/24 et devenu indispensable.
0  1