La veille de Noël, NewsBreak, une application gratuite d'origine chinoise qui est l'application d'actualités la plus téléchargée aux États-Unis, a publié un article alarmant sur une fusillade dans une petite ville. Le titre était « La tragédie du jour de Noël frappe Bridgeton, dans le New Jersey, dans un contexte d'augmentation de la violence par armes à feu dans les petites villes » :
Envoyé par extrait de l'article
Un évènement qui n'est pas isolé
NewsBreak, dont le siège se trouve à Mountain View, en Californie, et qui possède des bureaux à Pékin et à Shanghai, a déclaré avoir retiré l'article le 28 décembre, soit quatre jours après sa publication. La société a déclaré que « les informations inexactes provenaient de la source du contenu » et a fourni un lien vers le site web en ajoutant : « lorsque NewsBreak identifie un contenu inexact ou une violation de nos normes communautaires, nous prenons rapidement des mesures pour le retirer ».
Mais la situation était loin d'être exceptionnelle : selon les médias, l'outil d'IA de NewsBreak, qui scrute le web et aide à réécrire des articles d'actualité locale, a été utilisé pour publier au moins 40 articles trompeurs ou erronés depuis 2021. Ces articles trompeurs de l'IA ont causé un réel préjudice aux communautés, ont déclaré sept anciens employés de NewsBreak, s'exprimant sous couvert d'anonymat en raison d'accords de confidentialité.
Par exemple, deux programmes communautaires locaux d'aide aux personnes défavorisées ont déclaré avoir été affectés par des informations erronées produites par l'IA de NewsBreak.
À trois reprises en janvier, février et mars, Food to Power, une banque alimentaire basée dans le Colorado, a déclaré qu'elle avait dû refuser des personnes parce que NewsBreak avait indiqué des heures incorrectes pour les distributions de nourriture. L'organisation caritative s'est plainte à NewsBreak dans un courriel envoyé le 30 janvier à l'adresse générale du service clientèle de NewsBreak, que Reuters a examiné. L'association a déclaré n'avoir reçu aucune réponse.
Harvest912, une organisation caritative d'Erie, en Pennsylvanie, a envoyé un courriel à NewsBreak à propos de deux articles inexacts basés sur l'intelligence artificielle qui affirmaient qu'elle proposait des soins des pieds 24 heures sur 24 pour les sans-abri, demandant au média de « cesser et de s'abstenir » de publier des articles erronés. « Vous faites du tort en publiant ces informations erronées - les sans-abri se rendront à pied à ces endroits pour bénéficier de soins qui n'existent pas », a déclaré Harvest912 à NewsBreak, dans un courriel daté du 12 janvier.
NewsBreak a déclaré avoir supprimé les cinq articles sur les organisations caritatives après avoir appris qu'ils étaient erronés et que les articles étaient basés sur des informations incorrectes figurant sur certaines pages web des organisations caritatives.
Sans fournir de raison, NewsBreak a ajouté une clause de non-responsabilité sur sa page d'accueil au début du mois de mars, avertissant que son contenu « n'est pas toujours exempt d'erreurs ».
Newsbreak génère des revenus en diffusant des publicités à ses utilisateurs, qui sont majoritairement des femmes, âgées de plus de 45 ans, sans diplôme universitaire et vivant dans des banlieues ou des zones rurales des États-Unis, selon les sept anciens employés et une présentation de la société datant de 2021.
L'entreprise a été lancée aux États-Unis en 2015 en tant que filiale de Yidian, une application chinoise d'agrégation d'actualités. Les deux sociétés ont été fondées par Jeff Zheng, le PDG de Newsbreak, et elles partagent un brevet américain déposé en 2015 pour un algorithme « Interest Engine », qui recommande des contenus d'actualité en fonction des centres d'intérêt et de la localisation de l'utilisateur.
NewsBreak a révélé la source d'une fausse histoire de fusillade
Esquiver les responsabilités n'est pas nécessairement une bonne chose, mais c'est apparemment devenu la tactique préférée des défenseurs des outils d'intelligence artificielle. Dans les procès en diffamation, OpenAI a insisté à plusieurs reprises sur le fait que ce sont les utilisateurs qui sont responsables de la publication des résultats nuisibles de ChatGPT, et non l'entreprise, comme en témoigne un exemple marquant.
Non seulement les articles de NewsBreak ne sont « pas toujours » exempts d'erreurs, mais en plus l'application publie parfois des articles d'actualité locale « sous des titres fictifs ».
La source de contenu identifiée par NewsBreak est un article publié sur un site d'actualités appelé FindPlace.xyz. Il a été rédigé par une journaliste nommée Amelia Washington, qui a contribué à la plupart des contenus les plus récents du site. Il n'y a pas de profil public pour Amelia Washington en dehors du site d'actualités, et une recherche d'image inversée de la photo utilisée avec sa bio suggère qu'une photo d'archive a été utilisée. La même photo apparaît sur un témoignage pour un supplément nutritionnel sur Amazon et sur des articles pour des sites indépendants étrangers où son nom et son parcours ne correspondent pas à sa bio sur FindPlace.xyz.
NewsBreak se sert de « bribes » d'articles pour produire des articles complets à l'aide d'OpenAI
Selon Reuters, l'outil d'IA de NewsBreak fonctionne en lisant des « bribes » d'articles visibles publiquement pour produire des articles complets à l'aide d'OpenAI. Il s'agit apparemment d'un moyen d'éviter les plaintes pour violation du droit d'auteur, NewsBreak ayant réglé deux litiges et étant actuellement en train d'en combattre un autre, selon Reuters. Un porte-parole d'OpenAI a déclaré que la société d'IA interdisait « d'utiliser sa technologie pour induire les gens en erreur ».
Mais les actualités générées par l'IA ne semblent pas être les plus fiables. Le rapport de Reuters intervient peu de temps après que Google a admis que sa fonctionnalité AI Overview résumant l'internet étaient défectueuse de par sa conception, après que des personnes ont rapidement constaté que l'outil donnait des réponses inexactes, trompeuses et dangereuses.
NewsBreak se présente comme une application cruciale qui comble un vide en matière d'informations locales, évitant ce que l'ancienne responsable du contenu, Xana O'Neill, a décrit en 2023 comme « un futur dystopique, peut-être pas si lointain », où « les informations locales ont disparu » et où « les influenceurs et les politiciens autoproclamés » peuvent « créer leur récit public comme ils l'entendent », sans aucun contrôle.
O'Neill a quitté NewsBreak l'année dernière, mais elle avait auparavant participé à l'élaboration des « politiques en matière d'IA et de médias synthétiques » de l'application, selon son profil LinkedIn. Dans un message publié sur LinkedIn, elle a écrit que les journalistes « devraient être ravis » que l'IA soit « utilisée pour fournir des informations crédibles » « plus tôt que nous ne le pensons ».
« L'utilisation de l'IA pour rédiger des articles de base tels que des mises à jour boursières ou des bulletins de circulation deviendra sans aucun doute monnaie courante dans un avenir proche », a écrit O'Neill. « Vous avez du pain sur la planche ? Déléguez à l'IA ! »
O'Neill a précisé que son intention n'était pas de « dissimuler la menace que l'IA fait peser sur les institutions et les créateurs », reconnaissant que la protection contre la désinformation « doit encore être réglée ».
En juillet dernier, O'Neill a apparemment quitté NewsBreak pour se concentrer sur sa propre « plateforme de création de journalistes pour des informations crédibles », appelée Forth. O'Neill a déclaré qu'elle n'avait « aucune connaissance des histoires erronées » rapportées et qu'elle n'y était pas impliquée. Elle a précisé que Forth avait été créée en réponse aux inquiétudes suscitées par « la prolifération des fausses informations, de la désinformation et des informations générées par l'IA ». La politique de Forth exige que les journalistes divulguent l'utilisation de l'IA et les reporters sont responsables de la crédibilité de leurs articles.
« La plupart de nos partenaires sont des rédactions locales, et notre succès dépend du leur », a déclaré O'Neill. « Nous croyons fermement qu'il faut soutenir le journalisme local et trouver une voie durable pour nos partenaires en s'appuyant sur des reportages originaux. »
Alors que les applications d'actualités basées sur l'IA prolifèrent et s'appuient peut-être trop sur l'IA pour concurrencer les sites d'actualités réputés, elles pourraient finir par faire le contraire de la mission déclarée de NewsBreak et rendre plus difficile la recherche d'informations exactes pour les communautés.
Sources : version archivée de l'article, page désormais supprimée, communiqué du département de police de Bridgeton, Xana O'Neill (1, 2)
Et vous ?
Avis général : quelle lecture faites-vous de cette situation ? Êtes-vous surpris ? Dans quelle mesure ?
La responsabilité des plateformes d’information : quelle devrait être la responsabilité des applications de nouvelles et des plateformes d’information lorsqu’elles utilisent des outils d’IA pour générer du contenu ? Comment peuvent-elles garantir l’exactitude et la véracité des histoires partagées ?
Transparence et confiance : comment les entreprises devraient-elles communiquer sur l’utilisation de l’IA dans la rédaction d’articles ? Quelles mesures peuvent-elles prendre pour renforcer la confiance des lecteurs ?
Impact sur les communautés locales : quels sont les effets réels des histoires générées par l’IA sur les communautés locales ? Comment pouvons-nous minimiser les conséquences négatives tout en exploitant les avantages de l’automatisation ?
Éthique et réglementation : quelles normes éthiques devraient guider l’utilisation de l’IA dans le journalisme ? Faut-il mettre en place des réglementations spécifiques pour encadrer ces pratiques ?