IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

L'IA générative crée toujours des fausses nouvelles (fake news) selon cette étude de NewsGuard

Le , par Jade Emy

3PARTAGES

4  0 
L'IA générative a le potentiel de changer complètement la vie telle que nous la connaissons, mais malgré cela, elle est également coupable de créer des montagnes de fausses nouvelles. À mesure que le ChatGPT a pris de l'importance et que des concurrents comme Bard de Google ont commencé à apparaître, le niveau d'attention plus élevé aurait dû rendre ces événements moins fréquents qu'ils ne l'auraient été autrement. Toutefois, une étude récente a montré que les choses ne s'améliorent pas.

Dans le cas de ChatGPT, 100 % des fausses narrations trouvées lors du test initial d'avril provenaient de lui. Quant à Bard, 76 % des faux récits lui ont été attribués. Au cours des derniers mois, ChatGPT n'a guère progressé, les tests les plus récents révélant un taux de 98 % de fausses narrations.

Ceci étant dit, il est important de noter que Bard a évolué dans la direction opposée. Il est passé de 76% à 80%, ce qui suggère qu'il crée plus de fausses informations qu'il ne l'aurait fait autrement. Bard utilise même parfois des sources attribuées à des théories du complot telles que Q Anon. Cela pourrait entraîner une augmentation considérable de la proportion de fausses informations, et un manque d'esprit critique pourrait rendre cette situation incontrôlable.


Ces données proviennent d'une analyse réalisée par NewsGuard. Il sera intéressant de voir les résultats futurs, car cela pourrait potentiellement finir par déterminer la nature de la vérité en ligne. La combinaison de chatbots d'IA défectueux et de plateformes de médias sociaux capables de les diffuser à un public suffisamment large crée un effet d'entraînement qui pourrait ne pas disparaître de sitôt.

À l'approche de l'élection présidentielle américaine de 2024, tous les regards se tourneront vers les chatbots d'IA pour voir le type d'impact qu'ils auront. Il y a fort à parier qu'ils changeront la donne et que les candidats devront les garder à l'esprit.

Source : NewsGuard

Et vous ?

Pensez-vous que cette étude est crédible ou pertinente ?
Quel est votre avis sur le sujet ?

Voir aussi :

Les éditeurs scientifiques face à l'impasse des faux documents générés par l'IA. Les outils de génération de textes et d'images constituent un nouvel obstacle aux efforts déployés

Le PDG d'OpenAI, Sam Altman, se dit effrayé par sa propre invention. L'IA pourrait être utilisée pour diffuser largement de fausses informations, ou encore lancer une nouvelle course à l'armement

Un avocat a cité 6 fausses affaires inventées par ChatGPT, l'outil d'IA conversationnelle développé par Open AI, le juge qualifie cette affaire de « sans précédent »

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Jules34
Membre émérite https://www.developpez.com
Le 03/06/2024 à 15:08
En tant que Juriste je peux vous dire qu'on utilisera jamais ça dans ma boîte, on a testé le produit Lexis, c'est juste un index de recherche qui parle.

J'ai testé Ordalie c'est du même acabit, ils règlent le problème des sources en adoptant le parti pris de ne pas présenter de source (ce qui est le truc le plus débile à faire dans le monde juridique) et de répondre en étant le plus évasif possible. Si je lui demande comment transformer une SCI en SAS et vice versa le truc répond la même chose. Game over puisque du coup ça n'est même pas pour le moment au niveau d'article écris par des juniors.

Pour les particuliers c'est encore plus dangereux puisqu'avant de vouloir une réponse, il faut déjà savoir quoi demander
3  0 
Avatar de Delias
Modérateur https://www.developpez.com
Le 18/08/2023 à 12:07
ChatGPT et ses conseurs ne font qu'aligner les mots (voir des parties de mots) de la manière la plus probable qu'il soit. Ce sont un outils statistique à grande échelle.
En concéquence il y a zéro réfléxion, logique ou esprit critique dans ce qu'ils écrivent, sauf de parraître le plus plausible qu'il soit car l'ordre des mots est quasi parfaite.

Et les IA ferront comment quand il n'y aura plus de données d'entrainement générée par des humains?

Il est grand temps que cette bulle spéculative crève
2  0 
Avatar de Jules34
Membre émérite https://www.developpez.com
Le 13/06/2024 à 14:08
26 secondes pour que l'IA analyse le contrat et 94 minutes pour un avocat. OK, combien de temps passés à programmer l'IA pour qu'elle soit aussi efficace sur ce segment spécifique d'une analyse de documents ? Remplacer le contrat de non divulgation par un babar l'éléphant et le truc ne sait déjà plus ou il habite non ?

Quoiqu'il en soit ça laisse songeur. J'aimerais bien pouvoir passer moins de temps à la rédaction et la vérification et si l'IA pouvait s'assurer que je fasse pas de bourde dans les chiffres ou une clause particulière c'est vrai qu'au final ce serait pas mal.

Après comme d'habitude ça soulève plus d'interrogation que de solution et évidemment tout le monde se lance dedans tête baissée
0  0