IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Slack révise ses politiques en réponse à l'indignation des utilisateurs et assure que les données des clients ne sont pas utilisées pour former des modèles d'IA tiers,
Mais peine à convaincre les clients

Le , par Mathis Lucas

8PARTAGES

3  0 
Slack est dans la tourmente après que ses clients ont découvert que le service de messagerie aspire par défaut leurs données, y compris les messages et le contenu des fichiers, pour former les modèles d'IA globaux de l'entreprise. En réponse au tollé suscité par la révélation, Slack a révisé ses politiques de confidentialité et assure que les données des clients ne sont pas utilisées pour former des modèles d'IA tiers ou partagées avec des fournisseurs de grands modèles de langages (LLM). Cependant, Slack échoue à convaincre les utilisateurs et fait face à des critiques acerbes, dont la plupart appellent à annuler les abonnements et à boycotter le service de messagerie.

Les clients de Slack ont découvert récemment que la plateforme de communication collaborative utilisait leurs informations personnelles pour entraîner ses modèles d'IA sans avoir préalablement obtenu leur consentement explicite. Les politiques de confidentialité de Slack autorisaient la plateforme à analyser les données des clients pour la formation de l'IA, à moins qu'ils n'aient reçu l'instruction de ne pas le faire. Cela signifie que pratiquement tout ce qui est partagé dans les canaux Slack, y compris les messages et le contenu des fichiers, peut être utilisé pour la formation des modèles d'IA propriétaires de l'entreprise.

[tweet]<blockquote class="twitter-tweet"><p lang="en" dir="ltr">Hello from Slack! To clarify, Slack has platform-level machine-learning models for things like channel and emoji recommendations and search results. And yes, customers can exclude their data from helping train those (non-generative) ML models. Customer data belongs to the…</p>&mdash; Slack (@SlackHQ) <a href="https://twitter.com/SlackHQ/status/1791277972722188311?ref_src=twsrc%5Etfw">May 17, 2024</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script>[/tweet]

Slack a inscrit par défaut tous ses utilisateurs et pour se soustraire à ce programme de collecte de données, il faut envoyer un courriel à la société. Les implications de cette politique ont suscité des craintes parmi les utilisateurs, qui ont fait part de leur indignation. En réponse, Slack a assuré que les données ne fuiraient pas d'un espace de travail à l'autre, bien qu'il ait admis que ses modèles globaux utilisent des données de clients. Le service a maintenant révisé ses principes de confidentialité pour apaiser l'indignation et clarifier sa position sur l'utilisation des données. Les principes mis à jour se lisent en partie comme ci-après :

Citation Envoyé par Slack


Aucune donnée client n'est utilisée pour former des modèles LLM tiers. Slack ne forme pas de LLM ou d'autres modèles génératifs sur les données des clients, et ne partage pas les données des clients avec des fournisseurs de LLM.

Mais malgré cette clarification, de nombreux utilisateurs estiment que la mesure est insuffisante, car elle ne précise pas pourquoi les utilisateurs sont automatiquement amenés à accepter la politique d'utilisation des données. Pour les utilisateurs de Slack, en particulier les organisations, le spectre de l'utilisation de leurs données internes pour former des modèles d'IA soulève de sérieuses préoccupations en matière de sécurité et de conformité. Mais encore, les utilisateurs ne comprennent pas pourquoi ils ont été automatiquement intégrés dans cet arrangement sans le savoir ni y consentir. Et Slack n'apporte aucune explication.

Les utilisateurs regrettent que Slack n'ait pas été clair sur ses intentions dès le départ. Lorsque Slack a commencé à utiliser les données de ses clients, de nombreux utilisateurs n'étaient pas au courant de ce changement et auraient peut-être voulu en être directement informés et avoir la possibilité de refuser avant que la collecte et l'utilisation des données ne commencent. D'après les critiques, Slack a agi de la sorte, car l'entreprise était consciente que la plupart des utilisateurs n'auraient pas autorisé cette collecte. Slack rejette ces allégations, mais ne donne pas les raisons qui l'ont poussé à prendre une telle initiative.

[tweet]<blockquote class="twitter-tweet"><p lang="en" dir="ltr">Still amused that Slack decided to *autmatically* opt-in ingesting customer messages for them to build better ML models they deploy to all customers.<br><br>&quot;Trust us that we do this securely and please consider NOT opting out&quot; is their stance.<br><br>My stance is: why is this not opt-in? <a href="https://t.co/BwzAgIKpYG">pic.twitter.com/BwzAgIKpYG</a></p>&mdash; Gergely Orosz (@GergelyOrosz) <a href="https://twitter.com/GergelyOrosz/status/1791828616151454177?ref_src=twsrc%5Etfw">May 18, 2024</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script>[/tweet]

Corey Quinn, cadre chez Duckbill Group, a déclenché la semaine dernière la polémique avec un post rageur demandant : « je suis désolé Slack, vous faites QUOI avec les DM des utilisateurs, les messages, les fichiers, etc. ? » Quinn faisait référence à un extrait des principes de confidentialité de Slack qui dit : « pour développer des modèles d'IA/ML, nos systèmes analysent les données des clients (par exemple, les messages, le contenu et les fichiers) soumises à Slack ainsi que d'autres informations (y compris les informations d'utilisation) telles que définies dans notre politique de confidentialité et dans votre contrat client ».

Slack a répondu au billet de Quinn sur X, confirmant qu'il utilise effectivement les données des clients pour former certains de ces outils d'IA dans l'application. Mais l'entreprise précise que ces données ne sont pas destinées à son offre d'IA premium, qu'elle présente comme étant totalement isolée des informations des utilisateurs. Elizabeth Wharton, avocate et fondatrice du cabinet Silver Key Strategies, a qualifié le comportement de Slack de "gâchis en matière de protection de la vie privée". Elle a également critiqué l'entreprise pour ne pas avoir donné aux utilisateurs individuels un moyen beaucoup plus facile de se désinscrire.

En effet, le processus d'exclusion lui-même est également compliqué. Les personnes ne peuvent pas se désinscrire elles-mêmes ; il faut qu'un administrateur de l'ensemble de l'organisation en fasse la demande en envoyant un courriel dont l'objet est très précis, comme vous pouvez le voir dans le message suivant :

Citation Envoyé par Slack


Contactez-nous pour vous désinscrire. Si vous souhaitez exclure vos données client des modèles globaux de Slack, vous pouvez vous désengager. Pour ce faire, demandez à votre organisation, aux propriétaires de l'espace de travail ou au propriétaire principal de contacter notre équipe Customer Experience à l'adresse "feedback@slack.com" en indiquant l'URL de votre espace de travail/organisation et en écrivant en objet "Demande d'exclusion du modèle global de Slack". Nous traiterons votre demande et vous répondrons une fois le retrait effectué.

Quelques gros bonnets sont intervenus, accumulant les critiques. Meredith Whittaker, présidente de la Fondation, qui s'occupe du développement de l'application de messagerie privée Signal, a jeté l'opprobre en déclarant : « nous ne collectons pas vos données en premier lieu, nous n'avons donc rien à "exploiter" pour l'IA. Aïe ». Cette réaction met en lumière les tensions croissantes autour de l'IA et de la protection de la vie privée, alors que les entreprises s'empressent de se surpasser les unes les autres pour développer des logiciels plus intelligents. Plusieurs entreprises utilisent déjà les données de leurs clients pour former l'IA.


Les incohérences dans les politiques de Slack n'aident pas non plus. Une section indique que l'application ne peut pas accéder au contenu sous-jacent lorsqu'elle développe des modèles d'IA. Une autre page commercialisant les outils d'IA de Slack indique : « travaillez en toute tranquillité. Vos données sont vos données. Nous ne les utilisons pas pour former l'IA de Slack. Tout fonctionne sur l'infrastructure sécurisée de Slack, répondant aux mêmes normes de conformité que Slack lui-même ». Toutefois, l'utilisation des données des utilisateurs dans la formation de modèles d'IA de Slack vient contredire ces déclarations.

Sur Threads, un ingénieur de Slack a tenté de clarifier les choses, déclarant que les règles de confidentialité ont été écrites à l'origine pour le travail de recherche que la société a fait pendant des années avant Slack AI". Il a admis que les règles ont besoin d'une mise à jour. Mais le plus gros problème est évidemment l'approche "opt-in" par défaut. Bien qu'elle soit courante dans la technologie, elle va à l'encontre des principes de confidentialité des données qui consistent à donner aux gens un choix explicite sur la manière dont leurs informations sont utilisées. Certains critiques appellent au boycotte de Slack.

Matthew Hodgson, PDG d'Element, a déclaré à The Register qu'il trouve "tout à fait hallucinant que Slack propose de former l'IA sur des données privées de clients. « Il est déjà assez grave que des fournisseurs de cloud comme Slack et Teams aient accès à vos données non chiffrées en premier lieu, mais les introduire ensuite dans un modèle d'IA opaque et imprévisible est terrifiant ». Le changement opéré par Slack aurait eu lieu vers fin 2023, et le tollé qu'il a suscité souligne la nécessité pour les utilisateurs de vérifier à quoi servent leurs données, alors que l'engouement pour l'IA continue de déferler sur l'industrie technologique.

Par ailleurs, Slack n'indique pas combien de temps le processus de retrait prendra pour les clients qui ne veulent pas que leurs données soient utilisées dans l'entraînement des modèles d'IA du service de messagerie. Si la réponse rapide de Slack à l'indignation des utilisateurs et ses politiques révisées témoignent d'une volonté de répondre aux préoccupations, nombreux sont ceux qui plaident en faveur d'un système d'opt-in qui donne aux clients plus de contrôle sur leur volonté d'adhérer ou non à la politique d'utilisation des données de Slack.


Slack n'est pas le seul service à utiliser les données des clients pour l'entraînement des modèles. Reddit s'est rapproché d'OpenAI et permet désormais à ce dernier de former ses modèles d'IA sur ses messages de forum. L'année dernière, la plateforme d'hébergement et de conception de sites Web Squarespace a discrètement mis en place une fonctionnalité permettant à ses utilisateurs de refuser certains outils d'IA d'exploration de données, mais l'exploration de données est autorisée par défaut. Cette décision a suscité des préoccupations en matière de vie privée.

Zoom a également mis à jour ses conditions d’utilisation en août dernier pour s'octroyer le droit d'utiliser les données personnelles des utilisateurs pour entraîner et améliorer ses algorithmes et modèles d'IA. Cette décision a suscité des critiques et des inquiétudes de la part des défenseurs de la vie privée et des experts juridiques, qui estiment qu’elle constitue une atteinte aux droits et au consentement des utilisateurs. Selon les critiques, le besoin de données pour former les modèles d'IA pousse les entreprises à explorer de nouvelles sources, voire à la dérive.

Source : Slack

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous des clarifications de Slack au sujet de l'utilisation des données des clients pour former ses modèles d'IA ?
Quid du fait que Slack utilise les données des organisations pour former ses modèles d'IA alors qu'elles ont payé pour un service sécurisé ?
L'IA va-t-elle provoquer l'effondrement des acquis en matière de confidentialité et de protection de la vie privée ?

Voir aussi

Slack utilise discrètement les messages et le contenu des fichiers des utilisateurs pour former ses modèles d'IA et sans leur consentement explicite, la fonction est activée par défaut pour tous les clients

Zoom change ses conditions d'utilisation et s'octroie le droit d'utiliser les données des utilisateurs pour entraîner son IA sans leur consentement ni possibilité de s'y opposer

Les entreprises d'IA sont-elles à court de données pour entraîner leurs modèles après avoir englouti l'ensemble de l'Internet ? Un rapport alerte sur une potentielle pénurie de données

Une erreur dans cette actualité ? Signalez-nous-la !