S'il est possible de se désinscrire, la plateforme précise : « le fait de vous désinscrire signifie que Linkedin et ses sociétés affiliées n'utiliseront pas vos données personnelles pour former des modèles à l'avenir. Mais cela n'affecte pas la formation qui a déjà eu lieu ». Concrètement, toutes les données qui ont déjà été utilisées par Linkedin pour son IA continueront à être utilisés par l'outil.
Contexte
LinkedIn semble suivre les traces d'autres plateformes de médias sociaux, en utilisant vos données personnelles pour former son IA.
Mercredi, le réseau professionnel de Microsoft a publié une mise à jour « confiance et sécurité » dans laquelle Blake Lawit, vice-président senior et avocat général, a révélé l'utilisation par LinkedIn des publications et des données des utilisateurs pour la formation et le déploiement de ses outils d'IA générative.
Dans son annonce, Lawit a indiqué que la politique de confidentialité de LinkedIn avait été mise à jour. La politique mise à jour, qui renvoie à une FAQ révisée, confirme également que les messages ont été automatiquement collectés pour l'entraînement à l'IA. Il semble que LinkedIn ait commencé à collecter du contenu pour ses modèles d'IA et ses utilisateurs bien avant que l'article de Lawit et la politique de confidentialité mise à jour ne rendent ces changements publics.
Selon la FAQ, les fonctionnalités d'IA générative de LinkedIn peuvent utiliser des informations personnelles pour offrir des suggestions, comme vous aider à rédiger des messages lorsque vous y êtes invité. En outre, vos données seront utilisées pour former ces modèles d'IA, et si vous préférez ne pas participer, vous devrez vous désengager activement.
Les utilisateurs de l'Union européenne, de l'Islande, de la Norvège, du Liechtenstein et de la Suisse ne sont pas inclus et ne seront pas ajoutés en raison des récents changements apportés aux lois sur la protection des données. La loi sur les marchés numériques (DMA) oblige certains des plus grands réseaux sociaux à se conformer à de nouvelles règles, ce qui permet aux gens d'utiliser les plateformes sans que leurs informations ne soient partagées.
La situation
LinkedIn a admis mercredi qu'il avait entraîné sa propre IA sur les données de nombreux utilisateurs sans demander leur consentement. Dans un blog détaillant les mises à jour à venir le 20 novembre, l'avocat général de LinkedIn, Blake Lawit, a confirmé que l'accord d'utilisation et la politique de confidentialité de LinkedIn seront modifiés pour mieux expliquer comment les données personnelles des utilisateurs alimentent l'IA sur la plateforme.
Dans le cadre de la nouvelle politique de confidentialité, LinkedIn informe désormais les utilisateurs que « nous pouvons utiliser vos données personnelles [...] [pour] développer et former des modèles d'intelligence artificielle (IA), développer, fournir et personnaliser nos services, et acquérir des connaissances à l'aide de l'IA, de systèmes automatisés et d'inférences, afin que nos services puissent être plus pertinents et utiles pour vous et d'autres personnes. »
Une FAQ explique que les données personnelles peuvent être collectées à chaque fois qu'un utilisateur interagit avec l'IA générative ou d'autres fonctionnalités d'IA, ainsi que lorsqu'un utilisateur compose un message, modifie ses préférences, fournit un retour d'information à LinkedIn ou utilise la plateforme pendant une durée quelconque. Ces données sont ensuite stockées jusqu'à ce que l'utilisateur supprime le contenu généré par l'IA. LinkedIn recommande aux utilisateurs d'utiliser son outil d'accès aux données s'ils souhaitent supprimer ou demander la suppression des données collectées sur les activités passées de LinkedIn.
L'objectif
Les modèles d'IA de LinkedIn qui alimentent les fonctions d'IA générative « peuvent être formés par LinkedIn ou un autre fournisseur », comme Microsoft, qui fournit certains modèles d'IA par l'intermédiaire de son service Azure OpenAI, précise la FAQ. Selon la FAQ de LinkedIn, un risque potentiellement important pour la vie privée des utilisateurs est que les utilisateurs qui « fournissent des données personnelles en entrée d'une fonction générative alimentée par l'IA » pourraient finir par voir leurs « données personnelles fournies en sortie ».
LinkedIn affirme qu'il « cherche à minimiser les données personnelles dans les ensembles de données utilisés pour former les modèles », en s'appuyant sur des « technologies d'amélioration de la confidentialité pour expurger ou supprimer les données personnelles de l'ensemble de données de formation ».
Le blog de Lawit ne précise pas si les données déjà collectées peuvent être supprimées des ensembles de données d'entraînement à l'IA, mais la FAQ affirme que les utilisateurs qui ont automatiquement accepté de partager leurs données personnelles pour l'entraînement à l'IA peuvent uniquement refuser la collecte de données invasive « à l'avenir ».
Le fait de se retirer « n'affecte pas la formation qui a déjà eu lieu », précise la FAQ.
Un porte-parole de LinkedIn a déclaré qu'il était « avantageux pour tous les membres » d'être inscrits à la formation à l'IA « par défaut » : « Les gens peuvent choisir de se retirer, mais ils viennent sur LinkedIn pour être trouvés pour des emplois et des réseaux, et l'IA générative fait partie de la façon dont nous aidons les professionnels dans ce changement », a déclaré le porte-parole de LinkedIn.
En autorisant les opt-outs de la future formation à l'IA, le porte-parole de LinkedIn a en outre affirmé que la plateforme donnait « aux personnes utilisant LinkedIn encore plus de choix et de contrôle lorsqu'il s'agit de la façon dont nous utilisons les données pour former notre technologie d'IA générative ».
Comment se désengager de l'entraînement à l'IA sur LinkedIn
Les utilisateurs peuvent se désengager de l'entraînement à l'IA en accédant à la section « Confidentialité des données » dans les paramètres de leur compte, puis en désactivant l'option permettant la collecte de « données pour l'amélioration de l'IA générative » que LinkedIn active par ailleurs automatiquement pour la plupart des utilisateurs.
La seule exception concerne les utilisateurs de l'Espace économique européen ou de la Suisse, qui sont protégés par des lois plus strictes en matière de protection de la vie privée qui exigent soit le consentement des plateformes pour collecter des données personnelles, soit que les plateformes justifient la collecte de données en tant qu'intérêt légitime. Ces utilisateurs ne verront pas d'option de retrait, car ils n'ont jamais été autorisés à participer, a confirmé LinkedIn à plusieurs reprises.LinkedIn is now using everyone's content to train their AI tool -- they just auto opted everyone in.
— Rachel Tobac (@RachelTobac) September 18, 2024
I recommend opting out now (AND that orgs put an end to auto opt-in, it's not cool)
Opt out steps: Settings and Privacy > Data Privacy > Data for Generative AI Improvement (OFF) pic.twitter.com/UsS61gHw4C
En outre, les utilisateurs peuvent « s'opposer à l'utilisation de leurs données personnelles pour la formation » de modèles d'IA génératifs non utilisés pour générer du contenu LinkedIn (tels que les modèles utilisés à des fins de personnalisation ou de modération de contenu) en soumettant le formulaire d'objection au traitement des données de LinkedIn.
L'année dernière, LinkedIn a partagé les principes de l'IA, promettant de prendre « des mesures significatives pour réduire les risques potentiels de l'IA ». L'un des risques spécifiés dans l'accord d'utilisation mis à jour est que l'utilisation des fonctions génératives de LinkedIn pour aider à remplir un profil ou générer des suggestions lors de la rédaction d'un message pourrait générer un contenu qui « pourrait être inexact, incomplet, retardé, trompeur ou ne pas convenir à vos fins ».
En octobre, LinkedIn a déclaré que l'intégration de l'IA était un outil pour les employés et les employeurs : « Pour les travailleurs, l'IA peut nous aider à faire le travail que nous aimons le plus - et pour lequel nous sommes les meilleurs - en y consacrant plus de temps. Pour les entreprises, l'IA peut aider les équipes à gérer plus facilement les tâches routinières tout en créant l'espace et le soutien nécessaires pour que les équipes puissent penser de manière plus créative. »
Faites attention aux données que vous partagez avec notre IA
Les utilisateurs sont informés qu'il leur incombe d'éviter de partager des informations trompeuses ou de diffuser du contenu généré par l'IA qui pourrait enfreindre les directives de la communauté de LinkedIn. Les utilisateurs sont également invités à faire preuve de prudence lorsqu'ils s'appuient sur des informations partagées sur la plateforme.
« Comme tous les contenus et autres informations sur nos services, qu'ils soient ou non étiquetés comme étant créés par l'IA, assurez-vous de les examiner attentivement avant de vous y fier », indique l'accord d'utilisation de LinkedIn.
En 2023, LinkedIn a affirmé qu'il chercherait toujours à « expliquer de manière claire et simple comment notre utilisation de l'IA a un impact sur les gens », car la « compréhension de l'IA par les utilisateurs commence par la transparence ».
Des lois telles que la loi sur l'IA de l'Union européenne et le GDPR - en particulier avec ses fortes protections de la vie privée - si elles sont adoptées ailleurs, conduiraient à moins de chocs pour les utilisateurs qui ne se doutent de rien. Cela mettrait toutes les entreprises et leurs utilisateurs sur un pied d'égalité lorsqu'il s'agit d'entraîner des modèles d'IA, ce qui se traduirait par moins de mauvaises surprises et de clients mécontents.
Formulaire d’opposition au traitement des données LinkedIn
Sources : Aperçu des Conditions d'utilisation, principes de l'IA responsable de LinkedIn, FAQ sur LinkedIn et l'IA générative, politique de confidentialité
Et vous ?
Pensez-vous que les entreprises devraient obtenir un consentement explicite avant d’utiliser vos données personnelles pour entraîner des modèles d’IA ? Comment vous sentez-vous à l’idée que vos données passées puissent encore être utilisées même après vous être désinscrit ?
LinkedIn a-t-il été suffisamment transparent sur l’utilisation de vos données pour l’entraînement de l’IA ? Quelles mesures supplémentaires aimeriez-vous voir mises en place pour protéger vos données personnelles sur les plateformes en ligne ?
Quels sont, selon vous, les principaux risques liés à l’utilisation de vos données personnelles pour l’entraînement de l’IA ? Avez-vous déjà rencontré des situations où des informations personnelles ont été utilisées de manière inattendue par des plateformes en ligne ?
Quelles alternatives proposeriez-vous pour permettre aux utilisateurs de mieux contrôler l’utilisation de leurs données personnelles ? Pensez-vous que des réglementations plus strictes devraient être mises en place pour encadrer l’utilisation des données personnelles par les entreprises technologiques ?
Avez-vous déjà pris des mesures pour protéger vos données personnelles en ligne ? Si oui, lesquelles ? Partagez-vous vos données personnelles différemment selon les plateformes que vous utilisez ? Pourquoi ou pourquoi pas ?