Slack est une plateforme de communication collaborative appartenant à l'éditeur de logiciels Salesforce. Plus précisément, il s'agit d'une application de messagerie basée sur le cloud qui permet au personnel d'une organisation de se connecter et de collaborer. Slack permet aux utilisateurs d'envoyer des messages à n'importe qui, à l'intérieur ou à l'extérieur de l'organisation, et profiter d'espaces dédiés, appelés canaux, pour organiser leurs projets, travailler de manière asynchrone, accéder à des informations et partager des mises à jour. Microsoft a notamment lancé son outil Teams pour contrer à la popularité croissante de Slack.
Aujourd'hui, avec la montée en puissance de l'IA, Slack n'a pas l'intention de rester à la traîne et intègre de nouvelles fonctionnalités basées sur l'IA à son application. Slack utilise l'apprentissage automatique pour faire fonctionner des fonctionnalités intégrées telles que les recommandations de canaux, les résultats de recherche, l'autocomplétion et les suggestions d'emoji. Cependant, ce que Slack n'a pas révélé publiquement, c'est que l'entreprise puise dans les messages, les données et les fichiers des utilisateurs pour améliorer ces fonctionnalités. Mais encore, tous les clients de Slack y ont consenti par défaut, tous sans exception.
[tweet]<blockquote class="twitter-tweet"><p lang="en" dir="ltr">I'm sorry Slack, you're doing fucking WHAT with user DMs, messages, files, etc? I'm positive I'm not reading this correctly. <a href="https://t.co/6ORZNS2RxC">pic.twitter.com/6ORZNS2RxC</a></p>— Corey Quinn (@QuinnyPig) <a href="https://twitter.com/QuinnyPig/status/1791220276350390575?ref_src=twsrc%5Etfw">May 16, 2024</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script> [/tweet]
En d'autres, Slack a mis en œuvre une fonction opt-out de collecte et d'utilisation d'informations personnelles dans son service de messagerie. Les utilisateurs l'ont découvert récemment, ce qui a déclenché une vague de critiques acerbes à l'égard de Slack. « Je suis désolé Slack, vous faites QUOI avec les DM des utilisateurs, les messages, les fichiers, etc. Je suis certain de ne pas lire correctement », a écrit Corey Quinn, cadre chez DuckBill Group, une société de facturation de cloud computing, dans un message sur X (ex-Twitter). Alors que la pratique dure depuis un certain temps déjà, de nombreux utilisateurs se disent frustrés.
Le fait d'inscrire par défaut les utilisateurs à une activité telle que la formation de modèles d'IA pourrait en effet s'avérer frustrant pour ceux qui auraient préféré être informés à l'avance. Lorsque Slack a commencé à utiliser les données de ses clients, de nombreux utilisateurs n'étaient pas au courant de ce changement et auraient peut-être voulu en être directement informés et avoir la possibilité de refuser avant que la collecte et l'utilisation des données ne commencent. D'après les critiques, Slack a agi de la sorte, car l'entreprise était probablement consciente que la plupart des utilisateurs n'auraient pas autorisé cette collecte.
La révélation de cette pratique a suscité un tollé sur la toile et les critiques affirment que la prise de conscience a été mal vécue par la plupart des clients, malgré les garanties revendiquées par Slack. L'entreprise a répondu à la publication de Quinn sur X en réitérant ses politiques de collecte de données et de confidentialité. Elle a déclaré qu'elle utilise le contenu des utilisateurs de Slack pour former certains de ses outils d'application pilotés par l'IA. Elle a également confirmé qu'elle inscrit tous les utilisateurs et toutes les entreprises par défaut et qu'elle n'utilisait pas les données des clients pour former son outil d'IA générative payant.
« Pour tout modèle qui sera utilisé largement par l'ensemble de nos clients, nous ne construisons ni n'entraînons ces modèles de manière à ce qu'ils puissent apprendre, mémoriser ou être en mesure de reproduire une partie des données des clients [...]. Slack regroupe et dissocie les données des clients de telle sorte que l'utilisation par Slack des données des clients pour mettre à jour les services n'identifiera jamais l'un de nos clients ou l'une de nos personnes comme étant la source de ces améliorations auprès d'un tiers, autre que les sociétés affiliées ou les sous-traitants de Slack », peut-on lire sur le site de l'entreprise.
Slack a également ajouté que les entreprises ou les administrateurs d'espaces de travail (et non les utilisateurs individuels) peuvent demander par courriel que leurs messages et leur contenu soient exclus de l'ensemble des données d'entraînement. Mais cette dernière précision semble avoir attisé davantage l'ire des clients. En effet, ils ne comprennent pas pourquoi Slack n'a pas prévu un simple bouton dans les paramètres de l'application pour leur permettre de se soustraire facilement à cette collecte de données. Un utilisateur de X tourne cela en dérision : « un courriel ? Et bien, pourquoi ne pas le faire par pigeon voyageur ? »
Envoyé par Slack
Ce comportement déroute les clients, qui lui reprochent de leur avoir menti. Une page Web de Slack sur l'IA indique : « travaillez sans vous inquiéter. Vos données sont vos données. Nous ne les utilisons pas pour entraîner l'IA de Slack ». Bien que Slack affirme que ses outils d'IA générative payants ne sont pas entraînés sur les données des utilisateurs de Slack, elle entraîne certains de ses autres modèles d'apprentissage automatique avec des données d'utilisateurs. Ainsi, l'implication que les données des utilisateurs appartiennent entièrement aux utilisateurs (et ne sont pas utilisées par Slack) est largement fausse.
Pour certains critiques, Slack a créé un casse-tête juridictionnel pour toute équipe qui l'utilise. Toutefois, Slack n'est pas la seule plateforme technologique à ne pas exclure par défaut les utilisateurs de leurs pratiques de collecte de données pour la formation des outils d'IA. L'année dernière, la plateforme d'hébergement et de conception de sites Web Squarespace a discrètement mis en place une fonctionnalité permettant à ses utilisateurs de refuser certains outils d'IA d'exploration de données, mais l'exploration de données est autorisée par défaut. Cette décision a suscité des préoccupations en matière de vie privée.
Le service de visioconférence Zoom a également mis à jour ses conditions d’utilisation en août dernier pour s'octroyer le droit d'utiliser les données personnelles des utilisateurs pour entraîner et améliorer ses algorithmes et modèles d'IA. Cette décision a suscité des critiques et des inquiétudes de la part des défenseurs de la vie privée et des experts juridiques, qui estiment qu’elle constitue une atteinte aux droits et au consentement des utilisateurs. Selon les critiques, le besoin de données pour former les modèles d'IA pousse les entreprises à explorer de nouvelles sources, voire à la dérive.
Source : Slack
Et vous ?
Quel est votre avis sur le sujet ?
Pourquoi les entreprises commencent-elles à utiliser discrètement les données des clients pour former leurs modèles d'IA ?
Slack a-t-il enfreint les lois sur la protection des données en se comportant de la sorte ? Quels pourraient être les impacts sur l'entreprise ?
Que pensez-vous du processus mis en place par Slack pour permettre aux utilisateurs de se soustraire à cette collecte de données ?
Pourquoi Slack n'a-t-il pas voulu demander le consentement explicite des utilisateurs avant d'utiliser leurs données pour former ses modèles d'IA ?
Est-il possible que les entreprises utilisent les données des clients pour former leurs modèles d'IA tout en protégeant leur vie privée ?
Comment les clients peuvent-ils se protéger à l'heure où les fournisseurs de services s'octroient le droit d'utiliser leurs données pour former leurs modèles d'IA ?
Voir aussi
Zoom change ses conditions d'utilisation et s'octroie le droit d'utiliser les données des utilisateurs pour entraîner son IA sans leur consentement ni possibilité de s'y opposer
Les entreprises d'IA sont-elles à court de données pour entraîner leurs modèles après avoir englouti l'ensemble de l'Internet ? Un rapport alerte sur une potentielle pénurie de données
Les entreprises d'IA seraient tenues de divulguer les données de formation protégées par le droit d'auteur dont elles se sont servies en vertu d'un nouveau projet de loi