Les clients de Slack ont découvert récemment que la plateforme de communication collaborative utilisait leurs informations personnelles pour entraîner ses modèles d'IA sans avoir préalablement obtenu leur consentement explicite. Les politiques de confidentialité de Slack autorisaient la plateforme à analyser les données des clients pour la formation de l'IA, à moins qu'ils n'aient reçu l'instruction de ne pas le faire. Cela signifie que pratiquement tout ce qui est partagé dans les canaux Slack, y compris les messages et le contenu des fichiers, peut être utilisé pour la formation des modèles d'IA propriétaires de l'entreprise.
Hello from Slack! To clarify, Slack has platform-level machine-learning models for things like channel and emoji recommendations and search results. And yes, customers can exclude their data from helping train those (non-generative) ML models. Customer data belongs to the…
— Slack (@SlackHQ) May 17, 2024
Slack a inscrit par défaut tous ses utilisateurs et pour se soustraire à ce programme de collecte de données, il faut envoyer un courriel à la société. Les implications de cette politique ont suscité des craintes parmi les utilisateurs, qui ont fait part de leur indignation. En réponse, Slack a assuré que les données ne fuiraient pas d'un espace de travail à l'autre, bien qu'il ait admis que ses modèles globaux utilisent des données de clients. Le service a maintenant révisé ses principes de confidentialité pour apaiser l'indignation et clarifier sa position sur l'utilisation des données. Les principes mis à jour se lisent en partie comme ci-après :
Envoyé par Slack
Les utilisateurs regrettent que Slack n'ait pas été clair sur ses intentions dès le départ. Lorsque Slack a commencé à utiliser les données de ses clients, de nombreux utilisateurs n'étaient pas au courant de ce changement et auraient peut-être voulu en être directement informés et avoir la possibilité de refuser avant que la collecte et l'utilisation des données ne commencent. D'après les critiques, Slack a agi de la sorte, car l'entreprise était consciente que la plupart des utilisateurs n'auraient pas autorisé cette collecte. Slack rejette ces allégations, mais ne donne pas les raisons qui l'ont poussé à prendre une telle initiative.
Still amused that Slack decided to *autmatically* opt-in ingesting customer messages for them to build better ML models they deploy to all customers.
— Gergely Orosz (@GergelyOrosz) May 18, 2024
"Trust us that we do this securely and please consider NOT opting out" is their stance.
My stance is: why is this not opt-in? pic.twitter.com/BwzAgIKpYG
Corey Quinn, cadre chez Duckbill Group, a déclenché la semaine dernière la polémique avec un post rageur demandant : « je suis désolé Slack, vous faites QUOI avec les DM des utilisateurs, les messages, les fichiers, etc. ? » Quinn faisait référence à un extrait des principes de confidentialité de Slack qui dit : « pour développer des modèles d'IA/ML, nos systèmes analysent les données des clients (par exemple, les messages, le contenu et les fichiers) soumises à Slack ainsi que d'autres informations (y compris les informations d'utilisation) telles que définies dans notre politique de confidentialité et dans votre contrat client ».
Slack a répondu au billet de Quinn sur X, confirmant qu'il utilise effectivement les données des clients pour former certains de ces outils d'IA dans l'application. Mais l'entreprise précise que ces données ne sont pas destinées à son offre d'IA premium, qu'elle présente comme étant totalement isolée des informations des utilisateurs. Elizabeth Wharton, avocate et fondatrice du cabinet Silver Key Strategies, a qualifié le comportement de Slack de "gâchis en matière de protection de la vie privée". Elle a également critiqué l'entreprise pour ne pas avoir donné aux utilisateurs individuels un moyen beaucoup plus facile de se désinscrire.
En effet, le processus d'exclusion lui-même est également compliqué. Les personnes ne peuvent pas se désinscrire elles-mêmes ; il faut qu'un administrateur de l'ensemble de l'organisation en fasse la demande en envoyant un courriel dont l'objet est très précis, comme vous pouvez le voir dans le message suivant :
Envoyé par Slack
Les incohérences dans les politiques de Slack n'aident pas non plus. Une section indique que l'application ne peut pas accéder au contenu sous-jacent lorsqu'elle développe des modèles d'IA. Une autre page commercialisant les outils d'IA de Slack indique : « travaillez en toute tranquillité. Vos données sont vos données. Nous ne les utilisons pas pour former l'IA de Slack. Tout fonctionne sur l'infrastructure sécurisée de Slack, répondant aux mêmes normes de conformité que Slack lui-même ». Toutefois, l'utilisation des données des utilisateurs dans la formation de modèles d'IA de Slack vient contredire ces déclarations.
Sur Threads, un ingénieur de Slack a tenté de clarifier les choses, déclarant que les règles de confidentialité ont été écrites à l'origine pour le travail de recherche que la société a fait pendant des années avant Slack AI". Il a admis que les règles ont besoin d'une mise à jour. Mais le plus gros problème est évidemment l'approche "opt-in" par défaut. Bien qu'elle soit courante dans la technologie, elle va à l'encontre des principes de confidentialité des données qui consistent à donner aux gens un choix explicite sur la manière dont leurs informations sont utilisées. Certains critiques appellent au boycotte de Slack.
Matthew Hodgson, PDG d'Element, a déclaré à The Register qu'il trouve "tout à fait hallucinant que Slack propose de former l'IA sur des données privées de clients. « Il est déjà assez grave que des fournisseurs de cloud comme Slack et Teams aient accès à vos données non chiffrées en premier lieu, mais les introduire ensuite dans un modèle d'IA opaque et imprévisible est terrifiant ». Le changement opéré par Slack aurait eu lieu vers fin 2023, et le tollé qu'il a suscité souligne la nécessité pour les utilisateurs de vérifier à quoi servent leurs données, alors que l'engouement pour l'IA continue de déferler sur l'industrie technologique.
Par ailleurs, Slack n'indique pas combien de temps le processus de retrait prendra pour les clients qui ne veulent pas que leurs données soient utilisées dans l'entraînement des modèles d'IA du service de messagerie. Si la réponse rapide de Slack à l'indignation des utilisateurs et ses politiques révisées témoignent d'une volonté de répondre aux préoccupations, nombreux sont ceux qui plaident en faveur d'un système d'opt-in qui donne aux clients plus de contrôle sur leur volonté d'adhérer ou non à la politique d'utilisation des données de Slack.
Slack n'est pas le seul service à utiliser les données des clients pour l'entraînement des modèles. Reddit s'est rapproché d'OpenAI et permet désormais à ce dernier de former ses modèles d'IA sur ses messages de forum. L'année dernière, la plateforme d'hébergement et de conception de sites Web Squarespace a discrètement mis en place une fonctionnalité permettant à ses utilisateurs de refuser certains outils d'IA d'exploration de données, mais l'exploration de données est autorisée par défaut. Cette décision a suscité des préoccupations en matière de vie privée.
Zoom a également mis à jour ses conditions d’utilisation en août dernier pour s'octroyer le droit d'utiliser les données personnelles des utilisateurs pour entraîner et améliorer ses algorithmes et modèles d'IA. Cette décision a suscité des critiques et des inquiétudes de la part des défenseurs de la vie privée et des experts juridiques, qui estiment qu’elle constitue une atteinte aux droits et au consentement des utilisateurs. Selon les critiques, le besoin de données pour former les modèles d'IA pousse les entreprises à explorer de nouvelles sources, voire à la dérive.
Source : Slack
Et vous ?
Quel est votre avis sur le sujet ?
Que pensez-vous des clarifications de Slack au sujet de l'utilisation des données des clients pour former ses modèles d'IA ?
Quid du fait que Slack utilise les données des organisations pour former ses modèles d'IA alors qu'elles ont payé pour un service sécurisé ?
L'IA va-t-elle provoquer l'effondrement des acquis en matière de confidentialité et de protection de la vie privée ?
Voir aussi
Slack utilise discrètement les messages et le contenu des fichiers des utilisateurs pour former ses modèles d'IA et sans leur consentement explicite, la fonction est activée par défaut pour tous les clients
Zoom change ses conditions d'utilisation et s'octroie le droit d'utiliser les données des utilisateurs pour entraîner son IA sans leur consentement ni possibilité de s'y opposer
Les entreprises d'IA sont-elles à court de données pour entraîner leurs modèles après avoir englouti l'ensemble de l'Internet ? Un rapport alerte sur une potentielle pénurie de données