L'IA générative a le potentiel de changer complètement la vie telle que nous la connaissons, mais malgré cela, elle est également coupable de créer des montagnes de fausses nouvelles. À mesure que le ChatGPT a pris de l'importance et que des concurrents comme Bard de Google ont commencé à apparaître, le niveau d'attention plus élevé aurait dû rendre ces événements moins fréquents qu'ils ne l'auraient été autrement. Toutefois, une étude récente a montré que les choses ne s'améliorent pas.
Dans le cas de ChatGPT, 100 % des fausses narrations trouvées lors du test initial d'avril provenaient de lui. Quant à Bard, 76 % des faux récits lui ont été attribués. Au cours des derniers mois, ChatGPT n'a guère progressé, les tests les plus récents révélant un taux de 98 % de fausses narrations.
Ceci étant dit, il est important de noter que Bard a évolué dans la direction opposée. Il est passé de 76% à 80%, ce qui suggère qu'il crée plus de fausses informations qu'il ne l'aurait fait autrement. Bard utilise même parfois des sources attribuées à des théories du complot telles que Q Anon. Cela pourrait entraîner une augmentation considérable de la proportion de fausses informations, et un manque d'esprit critique pourrait rendre cette situation incontrôlable.
Ces données proviennent d'une analyse réalisée par NewsGuard. Il sera intéressant de voir les résultats futurs, car cela pourrait potentiellement finir par déterminer la nature de la vérité en ligne. La combinaison de chatbots d'IA défectueux et de plateformes de médias sociaux capables de les diffuser à un public suffisamment large crée un effet d'entraînement qui pourrait ne pas disparaître de sitôt.
À l'approche de l'élection présidentielle américaine de 2024, tous les regards se tourneront vers les chatbots d'IA pour voir le type d'impact qu'ils auront. Il y a fort à parier qu'ils changeront la donne et que les candidats devront les garder à l'esprit.
Source : NewsGuard
Et vous ?
Pensez-vous que cette étude est crédible ou pertinente ?
Quel est votre avis sur le sujet ?
Voir aussi :
Les éditeurs scientifiques face à l'impasse des faux documents générés par l'IA. Les outils de génération de textes et d'images constituent un nouvel obstacle aux efforts déployés
Le PDG d'OpenAI, Sam Altman, se dit effrayé par sa propre invention. L'IA pourrait être utilisée pour diffuser largement de fausses informations, ou encore lancer une nouvelle course à l'armement
Un avocat a cité 6 fausses affaires inventées par ChatGPT, l'outil d'IA conversationnelle développé par Open AI, le juge qualifie cette affaire de « sans précédent »
L'IA générative crée toujours des fausses nouvelles (fake news) selon cette étude de NewsGuard
L'IA générative crée toujours des fausses nouvelles (fake news) selon cette étude de NewsGuard
Le , par Jade Emy
Une erreur dans cette actualité ? Signalez-nous-la !