IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

NewsBreak, l'application d'information américaine la plus téléchargée, prise en flagrant délit de diffusion d'articles « entièrement faux » générés par l'IA.
Elle s'appuie sur l'outil d'OpenAI

Le , par Stéphane le calme

64PARTAGES

14  0 
NewsBreak, l’application d'actualités la plus téléchargée aux États-Unis, a récemment été au centre d’une controverse. Elle a partagé une histoire générée par l’IA sur une fausse fusillade au New Jersey la veille de Noël, ce qui a incité la police du New Jersey à publier une déclaration en ligne pour rassurer les citoyens troublés. Cependant, l’histoire s’est avérée « entièrement fausse ». Il a fallu quatre jours à NewsBreak, qui compte plus de 50 millions d'utilisateurs mensuels, pour supprimer le faux article sur la fusillade, et il ne s'agissait apparemment pas d'un incident isolé.

La veille de Noël, NewsBreak, une application gratuite d'origine chinoise qui est l'application d'actualités la plus téléchargée aux États-Unis, a publié un article alarmant sur une fusillade dans une petite ville. Le titre était « La tragédie du jour de Noël frappe Bridgeton, dans le New Jersey, dans un contexte d'augmentation de la violence par armes à feu dans les petites villes » :

Citation Envoyé par extrait de l'article
Un habitant du New Jersey a été tué lors d'une fusillade dans le comté de Cumberland, selon les autorités locales.

La fusillade s'est produite le 25 décembre 2023, vers 2h30 du matin, dans le bloc 100 de West Broad Street à Bridgeton. La victime a été retrouvée avec de multiples blessures par balle et a été déclarée morte sur place. Le bureau du procureur du comté de Cumberland enquête sur l'incident et n'a pas encore communiqué d'informations sur un éventuel suspect ou motif. Toute personne ayant des informations sur la fusillade est priée de contacter le bureau du procureur au (856) 453-0486.

La fusillade a plongé la communauté dans le choc et le deuil. Les habitants ont exprimé leurs condoléances à la famille et aux amis de la victime. Cet incident est un rappel tragique du problème permanent de la violence armée aux États-Unis.
Le problème, c'est qu'aucune fusillade de ce type n'a eu lieu. Le 27 décembre, la police de Bridgeton, dans le New Jersey, a dû publier une déclaration en ligne pour rassurer les citoyens troublés en leur disant que l'histoire était « entièrement fausse » : « Rien de semblable à cette histoire ne s'est produit pendant ou autour de Noël, ni même de mémoire récente dans la zone décrite », a déclaré la police. « Il semble que l'intelligence artificielle de ce média écrive des fictions qu'il n'a aucun problème à publier à ses lecteurs ».


Un évènement qui n'est pas isolé

NewsBreak, dont le siège se trouve à Mountain View, en Californie, et qui possède des bureaux à Pékin et à Shanghai, a déclaré avoir retiré l'article le 28 décembre, soit quatre jours après sa publication. La société a déclaré que « les informations inexactes provenaient de la source du contenu » et a fourni un lien vers le site web en ajoutant : « lorsque NewsBreak identifie un contenu inexact ou une violation de nos normes communautaires, nous prenons rapidement des mesures pour le retirer ».

Mais la situation était loin d'être exceptionnelle : selon les médias, l'outil d'IA de NewsBreak, qui scrute le web et aide à réécrire des articles d'actualité locale, a été utilisé pour publier au moins 40 articles trompeurs ou erronés depuis 2021. Ces articles trompeurs de l'IA ont causé un réel préjudice aux communautés, ont déclaré sept anciens employés de NewsBreak, s'exprimant sous couvert d'anonymat en raison d'accords de confidentialité.

Par exemple, deux programmes communautaires locaux d'aide aux personnes défavorisées ont déclaré avoir été affectés par des informations erronées produites par l'IA de NewsBreak.

À trois reprises en janvier, février et mars, Food to Power, une banque alimentaire basée dans le Colorado, a déclaré qu'elle avait dû refuser des personnes parce que NewsBreak avait indiqué des heures incorrectes pour les distributions de nourriture. L'organisation caritative s'est plainte à NewsBreak dans un courriel envoyé le 30 janvier à l'adresse générale du service clientèle de NewsBreak, que Reuters a examiné. L'association a déclaré n'avoir reçu aucune réponse.

Harvest912, une organisation caritative d'Erie, en Pennsylvanie, a envoyé un courriel à NewsBreak à propos de deux articles inexacts basés sur l'intelligence artificielle qui affirmaient qu'elle proposait des soins des pieds 24 heures sur 24 pour les sans-abri, demandant au média de « cesser et de s'abstenir » de publier des articles erronés. « Vous faites du tort en publiant ces informations erronées - les sans-abri se rendront à pied à ces endroits pour bénéficier de soins qui n'existent pas », a déclaré Harvest912 à NewsBreak, dans un courriel daté du 12 janvier.

NewsBreak a déclaré avoir supprimé les cinq articles sur les organisations caritatives après avoir appris qu'ils étaient erronés et que les articles étaient basés sur des informations incorrectes figurant sur certaines pages web des organisations caritatives.

Sans fournir de raison, NewsBreak a ajouté une clause de non-responsabilité sur sa page d...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !