IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Apple suspend ses notifications générées par IA après la diffusion de faux titres. Les hallucinations liées à l'IA sont toujours aussi répandues
Deux ans après le lancement de ChatGPT

Le , par Stéphane le calme

0PARTAGES

7  0 
Apple a temporairement interrompu une fonction de résumé d'actualités d'Apple Intelligence, son service phare d'intelligence artificielle (IA), après plusieurs cas où des résumés d'actualités erronés ont été présentés aux utilisateurs. La décision d'Apple de suspendre le service a été prise à la suite d'une plainte déposée par la BBC. Le service d'Apple avait généré un résumé d'actualité portant le logo de la BBC et indiquant à tort que Luigi Mangione (l'homme accusé d'avoir tué le PDG de UnitedHealthcare, Brian Thompson) s'était suicidé. Ce n'est pas la seule fausse alerte générée par l'IA d'Apple à porter le logo de la BBC. Parmi les autres, citons une information selon laquelle le joueur de tennis Rafael Nadal avait révélé son homosexualité, et une autre annonçant le nom du champion de la finale mondiale de fléchettes PDC avant que le match n'ait eu lieu.

Contexte

Apple a décidé de suspendre son système de notifications générées par intelligence artificielle pour son service Apple News. Cette décision survient après la diffusion de faux titres ayant suscité des controverses, mettant en lumière les défis complexes de l'intégration de l'IA dans les processus éditoriaux.

Un porte-parole d'Apple a déclaré « Avec les dernières versions bêta des logiciels iOS 18.3, iPadOS 18.3 et macOS Sequoia 15.3, les résumés de notification pour la catégorie Actualités et divertissement seront temporairement indisponibles ». Et de préciser : « Nous travaillons sur des améliorations et les rendrons disponibles lors d'une prochaine mise à jour logicielle ». Apple a également confirmé que les résumés générés par l'IA feraient l'objet d'un changement de format, toutes les notifications d'applications résumées par l'IA apparaissant en italique.

Des titres d'autres organismes de presse ont également été résumés de manière erronée par l'IA d'Apple, notamment un article du New York Times que l'IA a résumé en disant que le premier ministre d'Israël, Benjamin Netanyahu, avait été arrêté.

Une erreur coûteuse pour l'image d'Apple

Ce rare revirement de la part du fabricant de l'iPhone concernant sa fonction Apple Intelligence, fortement commercialisée, intervient après que la technologie a produit des résumés trompeurs ou carrément faux de titres d'actualité, qui semblent presque identiques aux notifications push habituelles.

Jeudi, Apple a mis à la disposition des développeurs une mise à jour logicielle bêta qui désactive la fonction d'intelligence artificielle pour les titres d'actualité et de divertissement, qu'elle prévoit de déployer ultérieurement pour tous les utilisateurs pendant qu'elle travaille à l'amélioration de la fonction d'intelligence artificielle. La société prévoit de réactiver la fonction dans une prochaine mise à jour.

Dans le cadre de cette mise à jour, l'entreprise a indiqué que les résumés d'Apple Intelligence, auxquels les utilisateurs doivent adhérer, souligneront plus explicitement que les informations ont été produites par l'IA, en précisant que celle-ci peut parfois produire des résultats inexacts.

L'Apple Intelligence a été introduite sur les iPhone, les iPad et les Mac en décembre, promettant toute une série de nouvelles fonctionnalités. L'une d'entre elles consistait à résumer les longues notifications sur l'iPhone et à condenser plusieurs notifications en une seule.

La fonction a notamment tendance à partager allègrement des intox. La situation est devenue suffisamment grave pour que les principaux organes de presse se plaignent de la manière dont les titres induisent les lecteurs en erreur et demandent à Apple de corriger ou de supprimer sa fonction avant qu'elle ne les mette encore plus dans l'embarras.


Des erreurs qui suscitent la colère

Le mois dernier, la BBC s'est plainte de cette technologie auprès d'Apple, l'exhortant à supprimer la fonction après qu'elle a créé de faux titres affirmant que Luigi Mangione, accusé de meurtre dans la mort du PDG de UnitedHealthcare, s'était suicidé. À une autre occasion, trois articles du New York Times ont également été résumés dans une seule notification push, affirmant à tort que le Premier ministre israélien Benjamin Netanyahu avait été arrêté.

Un porte-parole de la BBC a déclaré en décembre qu'il était « essentiel qu'Apple s'attaque d'urgence à ces problèmes, car l'exactitude de nos informations est essentielle pour maintenir la confiance ». Et de préciser que « Ces résumés d'Apple par l'IA ne reflètent pas - et dans certains cas contredisent complètement - le contenu original de la BBC ».

Mercredi, la fonction alimentée par l'IA a une fois de plus résumé de manière incorrecte une notification du Washington Post, indiquant faussement que « Pete Hegseth a été licencié ; les tarifs douaniers de Trump ont un impact sur l'inflation ; Pam Bondi et Marco Rubio ont été confirmés. » Rien de tout cela n'est vrai.

« Il s'agit de ma diatribe périodique sur le fait que l'intelligence d'Apple est si mauvaise qu'aujourd'hui, elle s'est trompée dans tous les faits en résumant les alertes du Washington Post », a écrit Geoffrey Fowler, chroniqueur technique du journal. « Il est tout à fait irresponsable qu'Apple ne désactive pas les résumés pour les applications d'actualités jusqu'à ce qu'elle s'améliore un peu dans le domaine de l'intelligence artificielle ».

Les groupes de défense de la liberté de la presse ont également souligné les dangers que représentent les résumés pour les consommateurs à la recherche d'informations fiables. Reporters sans frontières les qualifie de « danger pour le droit du public à des informations fiables sur l'actualité » et l'Union nationale des journalistes, l'un des plus grands syndicats de journalistes au monde, souligne que « le public ne doit pas être placé dans une position où il doit remettre en question l'exactitude des informations qu'il reçoit ». Tous deux ont demandé la suppression des résumés alimentés par l'IA.

Vincent Berthier, Responsable du bureau Technologie et Journalisme de Reporters Sans Frontières, a déclaré :

« Les IA sont des machines à probabilités, et les faits ne peuvent pas être décidés par un coup de dé. RSF demande à Apple d'agir de manière responsable en supprimant cette fonctionnalité. La production automatisée de fausses informations attribuées à un média porte atteinte à la crédibilité de ce dernier et met en péril le droit du public à une information fiable sur l'actualité. La loi européenne sur l'IA, qui est pourtant la législation la plus avancée au monde dans ce domaine, n'a pas classé les IA génératrices d'informations parmi les systèmes à haut risque, ce qui laisse un vide juridique important. Ce vide doit être comblé immédiatement ».

Laura Davison, secrétaire générale de l'Union nationale des journalistes, a déclaré :

« Apple doit agir rapidement en supprimant Apple Intelligence pour s'assurer qu'il ne joue aucun rôle dans la désinformation déjà répandue et qu'il ne porte pas préjudice au journalisme en ligne. À une époque où l'accès à des informations exactes n'a jamais été aussi important, le public ne doit pas être placé dans une position où il doit remettre en question l'exactitude des informations qu'il reçoit.

« L'intégrité éditoriale est cruciale pour notre radiodiffuseur de service public et les résumés générés par l'IA qui attribuent faussement des informations risquent de nuire à la réputation des journalistes qui travaillent dans le respect de l'éthique. Nous continuerons à nous engager auprès de la BBC pour soutenir ses préoccupations concernant la fonctionnalité d'Apple, tout en demandant clairement à Apple de prendre des mesures allant au-delà d'une mise à jour d'Apple Intelligence ».


Deux ans après le lancement de ChatGPT, les hallucinations liées à l'IA sont toujours aussi répandues

Ce n'est pas la première fois qu'un développeur est confronté à la fabrication d'informations par l'IA d'Apple, des modèles populaires comme ChatGPT produisant souvent des « hallucinations » confiantes.

Suresh Venkatasubramanian, professeur à l'université Brown et coauteur du projet de charte des droits de l'IA de la Maison-Blanche, a déclaré que les modèles à langage étendu, la technologie qui sous-tend les outils d'IA, sont entraînés à répondre aux données en utilisant « une réponse plausible » aux questions posées.

« En ce sens, toute réponse à consonance plausible, qu'elle soit exacte, factuelle, inventée ou non, est une réponse raisonnable, et c'est ce qu'elle produit », a déclaré Venkatasubramanian. « Il n'y a pas de connaissance de la vérité ».

Deux ans après le lancement de ChatGPT, les hallucinations liées à l'IA sont toujours aussi répandues. Une étude réalisée en juillet 2024 par Cornell, l'université de Washington et l'université de Waterloo a révélé que les modèles d'IA les plus performants ne sont toujours pas dignes de confiance en raison de leur propension à inventer des informations.

Une réflexion nécessaire sur les limites de l’automatisation

L'incident met en évidence un problème plus large concernant l'utilisation de l'IA dans les médias. Si ces technologies offrent un potentiel énorme pour automatiser et accélérer le traitement de grandes quantités d’informations, elles peuvent également introduire des erreurs si elles ne sont pas supervisées correctement. Dans ce cas, l’IA utilisée par Apple semble avoir mal interprété ou décontextualisé certains contenus, entraînant des erreurs embarrassantes.

La mésaventure d’Apple soulève des questions importantes sur le rôle de l’IA dans la sélection et la diffusion des informations. Peut-on réellement confier des tâches aussi sensibles à une machine, même entraînée sur des ensembles de données volumineux ? Quels mécanismes de contrôle humain doivent être mis en place pour garantir l’intégrité de l’information ?

Des géants de la technologie comme Google et Microsoft investissent également dans des solutions d’IA pour les médias. Cependant, ces incidents montrent qu’une approche purement automatisée, sans intervention humaine, est encore loin d’être fiable.

Le futur des notifications d’Apple News

Apple a indiqué qu’elle travaillerait à l’amélioration de son système avant de le réintroduire. L’entreprise prévoit de renforcer la supervision humaine et d’ajuster les algorithmes pour éviter de futures erreurs. Cette situation servira sans doute de leçon non seulement pour Apple, mais aussi pour d'autres entreprises explorant l'utilisation de l'IA dans des domaines critiques.

« Nous sommes heureux qu'Apple ait pris en compte nos préoccupations et suspende la fonction de résumé pour les actualités », a déclaré un porte-parole de la BBC.

« Nous sommes impatients de travailler avec eux de manière constructive sur les prochaines étapes. Notre priorité est l'exactitude des informations que nous diffusons au public, ce qui est essentiel pour établir et maintenir la confiance ».

Sources : Apple, Union nationale des journalistes, Reporters sans frontières

Et vous ?

Apple a-t-elle sous-estimé les risques liés à l'automatisation dans un domaine aussi sensible que l'information ?

Quels mécanismes de contrôle auraient pu être mis en place pour éviter ces erreurs ?

Les géants de la technologie ont-ils une responsabilité accrue dans la lutte contre la désinformation, même lorsque celle-ci est générée par des erreurs algorithmiques ?

Peut-on faire confiance à l'IA pour résumer ou éditorialiser des contenus journalistiques ? Comment équilibrer les avantages de l’automatisation avec le risque de diffuser des informations erronées ?

L’utilisation de l’IA dans les médias doit-elle être strictement régulée, et si oui, par qui ?

Cet incident pourrait-il affecter la confiance des utilisateurs envers Apple News ou d'autres plateformes automatisées ?

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Jules34
Membre émérite https://www.developpez.com
Le 17/01/2025 à 15:28
Même le truc de transcription des messages vocaux est éclaté, à la première notif que j'ai eu j'ai cru que mon patron avait fait une syncope et m'envoyait un SMS alors qu'il faisait une rupture d'anévrisme tellement c'était incohérent... 'Ouais Jules Ouais... J'arrive la. Ouais. Descend. Ouais."

C'était juste une transcription de son message vocal. Pas un seul ouais dans le message vocal. Enfait quasi rien à part quelque syllabe
1  0 
Avatar de blbird
Membre chevronné https://www.developpez.com
Le 17/01/2025 à 23:27
Citation Envoyé par Jules34 Voir le message
Même le truc de transcription des messages vocaux est éclaté, à la première notif que j'ai eu j'ai cru que mon patron avait fait une syncope et m'envoyait un SMS alors qu'il faisait une rupture d'anévrisme tellement c'était incohérent... 'Ouais Jules Ouais... J'arrive la. Ouais. Descend. Ouais."

C'était juste une transcription de son message vocal. Pas un seul ouais dans le message vocal. Enfait quasi rien à part quelque syllabe
J'en fait un paquet de transcription de réunions avec beaucoup de monde, et j'ai très très très rarement des erreurs.

Pour ma part, malgré les nombreuses mauvaises connexions, personnes qui parlent trop vite, personnes qui parlent en même temps, si je devais donner un taux de réussite, je dirais 99.90% au moins. Sur BEAUCOUP d'heures de transcription en français et en anglais.
1  0