IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

L'IA générative crée toujours des fausses nouvelles (fake news) selon cette étude de NewsGuard

Le , par Jade Emy

3PARTAGES

4  0 
L'IA générative a le potentiel de changer complètement la vie telle que nous la connaissons, mais malgré cela, elle est également coupable de créer des montagnes de fausses nouvelles. À mesure que le ChatGPT a pris de l'importance et que des concurrents comme Bard de Google ont commencé à apparaître, le niveau d'attention plus élevé aurait dû rendre ces événements moins fréquents qu'ils ne l'auraient été autrement. Toutefois, une étude récente a montré que les choses ne s'améliorent pas.

Dans le cas de ChatGPT, 100 % des fausses narrations trouvées lors du test initial d'avril provenaient de lui. Quant à Bard, 76 % des faux récits lui ont été attribués. Au cours des derniers mois, ChatGPT n'a guère progressé, les tests les plus récents révélant un taux de 98 % de fausses narrations.

Ceci étant dit, il est important de noter que Bard a évolué dans la direction opposée. Il est passé de 76% à 80%, ce qui suggère qu'il crée plus de fausses informations qu'il ne l'aurait fait autrement. Bard utilise même parfois des sources attribuées à des théories du complot telles que Q Anon. Cela pourrait entraîner une augmentation considérable de la proportion de fausses informations, et un manque d'esprit critique pourrait rendre cette situation incontrôlable.


Ces données proviennent d'une analyse réalisée par NewsGuard. Il sera intéressant de voir les résultats futurs, car cela pourrait potentiellement finir par déterminer la nature de la vérité en ligne. La combinaison de chatbots d'IA défectueux et de plateformes de médias sociaux capables de les diffuser à un public suffisamment large crée un effet d'entraînement qui pourrait ne pas disparaître de sitôt.

À l'approche de l'élection présidentielle américaine de 2024, tous les regards se tourneront vers les chatbots d'IA pour voir le type d'impact qu'ils auront. Il y a fort à parier qu'ils changeront la donne et que les candidats devront les garder à l'esprit.

Source : NewsGuard

Et vous ?

Pensez-vous que cette étude est crédible ou pertinente ?
Quel est votre avis sur le sujet ?

Voir aussi :

Les éditeurs scientifiques face à l'impasse des faux documents générés par l'IA. Les outils de génération de textes et d'images constituent un nouvel obstacle aux efforts déployés

Le PDG d'OpenAI, Sam Altman, se dit effrayé par sa propre invention. L'IA pourrait être utilisée pour diffuser largement de fausses informations, ou encore lancer une nouvelle course à l'armement

Un avocat a cité 6 fausses affaires inventées par ChatGPT, l'outil d'IA conversationnelle développé par Open AI, le juge qualifie cette affaire de « sans précédent »

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Delias
Modérateur https://www.developpez.com
Le 18/08/2023 à 12:07
ChatGPT et ses conseurs ne font qu'aligner les mots (voir des parties de mots) de la manière la plus probable qu'il soit. Ce sont un outils statistique à grande échelle.
En concéquence il y a zéro réfléxion, logique ou esprit critique dans ce qu'ils écrivent, sauf de parraître le plus plausible qu'il soit car l'ordre des mots est quasi parfaite.

Et les IA ferront comment quand il n'y aura plus de données d'entrainement générée par des humains?

Il est grand temps que cette bulle spéculative crève
2  0