IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

L'IA générative crée toujours des fausses nouvelles (fake news) selon cette étude de NewsGuard

Le , par Jade Emy

25PARTAGES

4  0 
L'IA générative crée toujours de fausses nouvelles selon cette étude de NewsGuard.

L'IA générative a le potentiel de changer complètement la vie telle que nous la connaissons, mais malgré cela, elle est également coupable de créer des montagnes de fausses nouvelles. À mesure que le ChatGPT a pris de l'importance et que des concurrents comme Bard de Google ont commencé à apparaître, le niveau d'attention plus élevé aurait dû rendre ces événements moins fréquents qu'ils ne l'auraient été autrement. Toutefois, une étude récente a montré que les choses ne s'améliorent pas.

Dans le cas de ChatGPT, 100 % des fausses narrations trouvées lors du test initial d'avril provenaient de lui. Quant à Bard, 76 % des faux récits lui ont été attribués. Au cours des derniers mois, ChatGPT n'a guère progressé, les tests les plus récents révélant un taux de 98 % de fausses narrations.

Ceci étant dit, il est important de noter que Bard a évolué dans la direction opposée. Il est passé de 76% à 80%, ce qui suggère qu'il crée plus de fausses informations qu'il ne l'aurait fait autrement. Bard utilise même parfois des sources attribuées à des théories du complot telles que Q Anon. Cela pourrait entraîner une augmentation considérable de la proportion de fausses informations, et un manque d'esprit critique pourrait rendre cette situation incontrôlable.


Ces données proviennent d'une analyse réalisée par NewsGuard. Il sera intéressant de voir les résultats futurs, car cela pourrait potentiellement finir par déterminer la nature de la vérité en ligne. La combinaison de chatbots d'IA défectueux et de plateformes de médias sociaux capables de les diffuser à un public suffisamment large crée un effet d'entraînement qui pourrait ne pas disparaître de sitôt.

À l'approche de l'élection présidentielle américaine de 2024, tous les regards se tourneront vers les chatbots d'IA pour voir le type d'impact qu'ils auront. Il y a fort à parier qu'ils changeront la donne et que les candidats devront les garder à l'esprit.

Source : NewsGuard

Et vous ?

Pensez-vous que cette étude est crédible ou pertinente ?
Quel est votre avis sur le sujet ?

Voir aussi :

Les éditeurs scientifiques face à l'impasse des faux documents générés par l'IA. Les outils de génération de textes et d'images constituent un nouvel obstacle aux efforts déployés

Le PDG d'OpenAI, Sam Altman, se dit effrayé par sa propre invention. L'IA pourrait être utilisée pour diffuser largement de fausses informations, ou encore lancer une nouvelle course à l'armement

Un avocat a cité 6 fausses affaires inventées par ChatGPT, l'outil d'IA conversationnelle développé par Open AI, le juge qualifie cette affaire de « sans précédent »
Vous avez lu gratuitement 483 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Jules34
Membre émérite https://www.developpez.com
Le 03/06/2024 à 15:08
En tant que Juriste je peux vous dire qu'on utilisera jamais ça dans ma boîte, on a testé le produit Lexis, c'est juste un index de recherche qui parle.

J'ai testé Ordalie c'est du même acabit, ils règlent le problème des sources en adoptant le parti pris de ne pas présenter de source (ce qui est le truc le plus débile à faire dans le monde juridique) et de répondre en étant le plus évasif possible. Si je lui demande comment transformer une SCI en SAS et vice versa le truc répond la même chose. Game over puisque du coup ça n'est même pas pour le moment au niveau d'article écris par des juniors.

Pour les particuliers c'est encore plus dangereux puisqu'avant de vouloir une réponse, il faut déjà savoir quoi demander
3  0 
Avatar de Matthieu Vergne
Expert éminent https://www.developpez.com
Le 12/11/2025 à 0:36
Remplacez le jargon des avocats par celui des développeurs et vous aurez un autre article criant de vérité :
L’automatisation du développement logiciel

Ce que révèle cette crise, c’est la mutation d’un métier fondé sur la précision, la nuance et la responsabilité. L’usage d’outils comme GPT, Claude ou Copilot promet de gagner du temps, d’améliorer la clarté ou de simplifier la recherche de code. Mais le revers de la médaille, c’est la perte du contrôle intellectuel.

Là où le développeur devrait interpréter, il se contente parfois de recopier. Là où il devrait peser chaque instruction, il laisse l’algorithme formuler des généralités verbeuses. Le « slop coding » n’est pas qu’un problème de style : il est la preuve d’une déresponsabilisation progressive, d’un glissement où le code devient une simple sortie de modèle statistique.

Et dans le domaine logiciel, une erreur de raisonnement ou une valeur inventée ne se corrige pas comme une coquille dans un e-mail : elle peut fausser une décision, nuire à un client, voire porter atteinte à la société.
Pas plus tard que vendredi je parlais avec mes collègues de faire la distinction entre ceux qui sont rigoureux et ceux qui ne le sont pas :
  • les rigoureux peuvent tirer de l'IA les principaux avantages, car leur rigueur s'assure qu'ils vérifient derrière et comprennent ce qu'ils font, l'IA peut alors faire gagner un peu de temps sur les parties à écrire qu'on maîtrise déjà (peu de temps de vérification nécessaire) ou beaucoup pour les juniors qui peuvent focaliser leur temps d'apprentissage sur ce qui marche (moins de recherches infructueuses, qui peuvent apprendre des trucs mais moins pertinentes à l'instant T), et pour le reste rend surtout le job plus fun
  • les non-rigoureux par contre ont toutes les chances de donner une fausse impression de gros coup de pouce sur le court terme, en se contentant de copier sans vraiment réfléchir à ce qu'ils font, donnant l'impression qu'ils exploitent mieux l'IA alors qu'en fait les conséquences néfastes ne s'en ressentiront que plus tard, introduisant des coûts qui gomment les avantages illusoires de court terme. Quant au long terme, à force de se laisser aller à l'IA, ils ne forgeront pas leur propre expertise, se contentant de rester dépendants d'outils qu'ils ne maîtrisent pas et de stagner à leur niveau. Rendant le renouvellement des générations de dévs précaire.


En tant que développeurs, c'est à nous de nous assurer que nos juniors et nos employeurs ne tombent pas dans le panneau.

Pour les ingénieurs français, inscrits au répertoire des Ingénieurs et Scientifiques de France (IESF), il en va de notre responsabilité d'informer et de former :
https://www.iesf.fr/752_p_49680/char...ingenieur.html
Citation Envoyé par Charte IESF
En tant que membres d’un collectif de travail, l'ingénieur et le scientifique :
  • se mettent au service de leurs commanditaires et les informent des risques et contraintes (sociaux, environnementaux, économiques) des solutions proposées (Sens du service),
  • ...
  • participent à l'adaptation des activités de leur collectif de travail aux évolutions de la société et de l’environnement (Agilité),
  • encouragent la montée en compétences techniques et scientifiques de leurs collaborateurs et équipes (Management),
  • travaillent méthodiquement afin d’assurer la traçabilité des résultats et des données qui fondent les décisions de leur collectif de travail (Transparence),
  • participent activement à la gouvernance de leur collectif de travail (Engagement),
  • ...
  • signalent, de bonne foi et de manière désintéressée, les risques et les atteintes graves envers les droits humains, les libertés fondamentales, la santé et la sécurité des personnes, ainsi que l’environnement, résultant des activités de leur collectif de travail (Intégrité).
Citation Envoyé par Charte IESF
En tant que membres de la société toute entière, l’ingénieur et le scientifique :
  • ...
  • adoptent une posture active dans la société en éclairant l'opinion publique sur les problématiques qui nécessitent une vision de l'ingénieur ou du scientifique (Citoyenneté),
  • transmettent leur savoir scientifique et leur expérience, en les rendant accessibles au plus grand nombre (Vulgarisation),
  • ...
3  0 
Avatar de Delias
Modérateur https://www.developpez.com
Le 18/08/2023 à 12:07
ChatGPT et ses conseurs ne font qu'aligner les mots (voir des parties de mots) de la manière la plus probable qu'il soit. Ce sont un outils statistique à grande échelle.
En concéquence il y a zéro réfléxion, logique ou esprit critique dans ce qu'ils écrivent, sauf de parraître le plus plausible qu'il soit car l'ordre des mots est quasi parfaite.

Et les IA ferront comment quand il n'y aura plus de données d'entrainement générée par des humains?

Il est grand temps que cette bulle spéculative crève
2  0 
Avatar de PascalC67
Nouveau Candidat au Club https://www.developpez.com
Le 11/11/2025 à 1:29
entre les réponses approximatives façon profession de foi ("vous nous avez demandé si... nous certifions que" sans aucune réf juridique) et les inventions c'est catastrophique. dans les cas les plus fréquents l'IA est co... comme une b... quel écran de fumée, tout ça pour facturer. Un bon vieux moteur de recherches qui pointe vers des données validées... pas photo. ça c'est pire que tout.
2  0 
Avatar de totozor
Expert confirmé https://www.developpez.com
Le 14/11/2025 à 7:35
Citation Envoyé par calvaire Voir le message
Ça répond déjà à un besoin, aux usa celui qui veut pas mettre 500€ dans une consultation médicale ou un avocat utilise déjà chatgpt et se débrouille.
Et soigne sa dépression en se pendant.
l'école de mes gosses et payante mais c'est 15 élèves dans la classe avec 2 profs, la oui y'a une value d'avoir un humain. Mais cela a un prix.
Bienvenue dans le capitalisme : tu veux sortir du lot? Payes.
2  0 
Avatar de Jules34
Membre émérite https://www.developpez.com
Le 13/06/2024 à 14:08
26 secondes pour que l'IA analyse le contrat et 94 minutes pour un avocat. OK, combien de temps passés à programmer l'IA pour qu'elle soit aussi efficace sur ce segment spécifique d'une analyse de documents ? Remplacer le contrat de non divulgation par un babar l'éléphant et le truc ne sait déjà plus ou il habite non ?

Quoiqu'il en soit ça laisse songeur. J'aimerais bien pouvoir passer moins de temps à la rédaction et la vérification et si l'IA pouvait s'assurer que je fasse pas de bourde dans les chiffres ou une clause particulière c'est vrai qu'au final ce serait pas mal.

Après comme d'habitude ça soulève plus d'interrogation que de solution et évidemment tout le monde se lance dedans tête baissée
0  0 
Avatar de totozor
Expert confirmé https://www.developpez.com
Le 12/11/2025 à 16:01
Citation Envoyé par Stéphane le calme Voir le message
Un mouvement se développe au sein de la profession pour recenser les affaires inventées par l'IA utilisées par leurs confrères

Aux États-Unis, les tribunaux commencent à crouler sous des documents juridiques « slopifiés » – des textes générés ou fortement assistés par des intelligences artificielles qui déforment la logique, inventent des jurisprudences et brouillent le langage du droit. Ce phénomène, dénoncé par des juristes eux-mêmes, marque une dérive inquiétante : celle d’une profession qui, en cédant trop vite à la tentation de l’IA, met en péril la rigueur de sa propre parole.
Vraie question bête : est il si compliqué de développer une IA qui vérifie ces plaidoiries.
Les gars écrivent des plaidoiries en 5 min?
On est pas capable de les détruire à peine plus lentement?
Surtout que les gens doivent donner des sources (articles, jurisprudence du xx/xx/xxxx etc).
0  0 
Avatar de Matthieu Vergne
Expert éminent https://www.developpez.com
Le 12/11/2025 à 20:37
Citation Envoyé par totozor Voir le message
Vraie question bête : est il si compliqué de développer une IA qui vérifie ces plaidoiries.
Elle te générera, comme les autres, un texte plausible. Correct quand tu as de la chance, avec des illusions quand tu en as moins, genre elle invente des bons points ou des mauvais points que la plaidoirie n'a pas, ou de vrais critiques mais sur la base de raisons inventées. Si on pouvait faire ça, on pourrait tout aussi bien faire des plaidoiries qui tiennent la route. Tu ne peux jamais rien "vérifier" avec un LLM, quel que soit le prompt. Tu peux générer une analyse plausible, mais il faut toujours repasser derrière pour confirmer, sinon tu ne sais pas quand tu te baseras sur du bullshit.

Et si par IA tu parles d'autre chose que du LLM, le soucis est que c'est une tâche de traitement du langage en premier lieu, là où justement les LLM sont bons. Le truc est qu'il faut combiner ça avec de la logique (juridique, pour le coup) ce qui est hors de leur portée. À voir avec les futures technos en cours de construction (JEPA ?).
0  0 
Avatar de totozor
Expert confirmé https://www.developpez.com
Le 13/11/2025 à 8:05
Citation Envoyé par Matthieu Vergne Voir le message
Tu ne peux jamais rien "vérifier" avec un LLM, quel que soit le prompt.
Et si par IA tu parles d'autre chose que du LLM, le soucis est que c'est une tâche de traitement du langage en premier lieu, là où justement les LLM sont bons. Le truc est qu'il faut combiner ça avec de la logique (juridique, pour le coup) ce qui est hors de leur portée. À voir avec les futures technos en cours de construction (JEPA ?).
je comprends bien qu'on a besoin d'un LLM à la base pour identifier les sources mais ça ne doit pas être la mer à boire. Nous arrivons à développer des IA qui identifient des exigences ou retrouvent des sujets dans nos procédures alors que ce n'est pas notre coeur de métier, en grande partie parce que les documents sont très normalisés et les mots clés sont facile à retrouver ("jurispridence" "article" par exemple pour le juridique).
Ne peut-on pas se contenter ensuite d'un "moteur de recherche automatisé" pour aller chercher les références? L'objectif premier est d'identifier les plaidoiries avec des fausses sources.
On peut ensuite remettre une couche de LLM pour extraire le texte des source identifiée et sortir un facteur de corrélation.

Je vois bien que la première étape est pas si évidente et le risque (qu'on voit chez les élèves) d'uniformisation des plaidoiries.
Mais on se retrouve quand même face à des gens qui protègent leur profession de l'IA pour à la fin se transformer en porte parole de celles ci et qui ne se donnent même pas le mal de les relire et faire leur boulot.
je suis sincèrement pour que les professionnels puissent se protéger des IA mais je pense aussi qu'il faut être sans pitié pour ceux qui se cache derrière ça mais n'assurent pas leur travail à la fin. Et si la vague est si grosse alors il faut combattre le feu par le feu ou embaucher une armée de "légicheckeurs" qui seront les légistes fraudeurs de demain
0  0 
Avatar de AoCannaille
Expert confirmé https://www.developpez.com
Le 13/11/2025 à 10:32
Personnellement, ce qui m'étonne c'est que les avocats utilisent des LLM qui génère du bullshit alors que des IA du type systèmes experts existent et sont bien plus fiable (sans être parfaite).
J'imagine qu'il y a la place pour une combinaison des deux : L'avocat entre une série de faits dans le système expert, qui sort ensuite une série de texte de lois applicables, les fourchettes des peines encourues et la jurisprudence sur ces cas là, puis le LLM synthétise ces résultat là, rien d'autre.

Reste que la jurisprudence, c'est pas magique, c'est consigné par une poignée d'éditeurs qui doivent facturer cher l'accès à leur BDD.
0  0