
LinkedIn n’en est pas à son premier essai. En 2024, le réseau social professionnel avait déjà tenté d’intégrer les données européennes dans ses pipelines d’entraînement, avant de reculer face aux critiques et aux risques réglementaires. Cette fois-ci, la plateforme — propriété de Microsoft — revient avec une stratégie plus cadrée : informer explicitement les utilisateurs, se reposer sur le cadre du RGPD via la base juridique du « légitime intérêt », et proposer un mécanisme d’opposition dans les paramètres de confidentialité.
Concrètement, les données concernées incluront les informations de profil (formation, expérience, compétences), les publications (articles, commentaires, posts), les CV déposés ou sauvegardés, ainsi que les réponses aux questions lors de candidatures. LinkedIn insiste sur un point : les messages privés, les données financières et les informations d’identification sensible ne sont pas intégrés dans ce dispositif.
LinkedIn vante la possibilité pour chacun de refuser que ses données soient utilisées pour l’entraînement. Mais soyons lucides : combien d’utilisateurs prendront réellement le temps de fouiller dans les paramètres pour décocher une case obscure ? Le choix par défaut est déjà un parti pris : inclusion automatique, exclusion manuelle. Autrement dit, une stratégie qui joue sur l’inertie et la méconnaissance des utilisateurs.
Pire encore, LinkedIn prévient que les données déjà utilisées resteront dans les modèles existants. Le soi-disant « droit d’opposition » n’a donc aucune portée rétroactive. En clair, une fois que vos informations sont passées dans la moulinette algorithmique, elles ne vous appartiennent plus.
En effet, la société précise que l’opt-out s’appliquera uniquement aux futures utilisations. Les modèles déjà entraînés avec des données historiques ne seront pas « désappris ». En d’autres termes, il n’existe pas de bouton magique pour effacer l’empreinte numérique déjà absorbée par l’IA.

Le « légitime intérêt » : un fondement fragile ?
Le légitime intérêt est l'une des six bases légales du RGPD qui permet de traiter des données personnelles sans le consentement de la personne concernée, sous réserve que l'intérêt du responsable du traitement soit licite et proportionné par rapport aux droits et libertés fondamentaux des individus. Pour être valide, ce traitement doit passer un triple test : un test d'objectif (l'intérêt est-il légitime ?), un test de nécessité (le traitement est-il vraiment nécessaire ?) et un test d'équilibre (les droits des personnes prévalent-ils ?), tout en informant les personnes concernées sur la collecte de leurs données
Le recours au légitime intérêt comme base légale est à la fois audacieux et risqué. Le RGPD prévoit que ce principe peut justifier certains traitements sans consentement explicite, à condition qu’ils soient proportionnés, nécessaires et équilibrés face aux droits des personnes.
Or, l’entraînement de modèles d’IA générative à partir de millions de profils soulève plusieurs critiques. D’abord, la notion de proportionnalité : peut-on vraiment considérer que la valeur ajoutée pour LinkedIn justifie le risque accru de réidentification ou de dérive des usages ? Ensuite, la question de la transparence : la majorité des utilisateurs saura-t-elle comment et pourquoi leurs données sont exploitées ? Enfin, le consentement implicite : le fait d’imposer par défaut une inclusion, avec une option d’exclusion manuelle, pourra être perçu comme une manière de contourner l’esprit du RGPD.
Il y a fort à parier que les autorités de protection des données — la CNIL en France, le Garante en Italie, ou encore l’ICO au Royaume-Uni — scruteront de près cette démarche. Si elles estiment que l’opt-out n’est pas suffisant, LinkedIn pourrait être contrainte de revoir sa copie, voire d’obtenir un véritable consentement explicite (opt-in).
Les utilisateurs européens face à un dilemme numérique
Pour les membres de LinkedIn, cette évolution soulève une question simple : accepter de contribuer à l’entraînement des modèles d’IA, ou s’en retirer ?
D’un côté, laisser ses données servir à ces modèles peut améliorer les fonctionnalités de la plateforme. LinkedIn promet des suggestions de contenu plus pertinentes, des rédactions automatiques plus naturelles pour les posts ou les CV, et une meilleure personnalisation des recommandations. En clair, une expérience enrichie grâce à une IA nourrie directement par les réalités professionnelles de ses membres.
De l’autre, le revers est évident : chaque élément public partagé devient un morceau de matière brute pour un système opaque. Les informations publiées dans un but précis — se présenter à des recruteurs, valoriser son expertise — pourraient être réutilisées à d’autres fins, sans véritable contrôle de l’utilisateur. Pire encore, cette standardisation algorithmique risque de lisser les profils, en homogénéisant les discours professionnels au lieu de les singulariser.
Risques techniques et biais systémiques
Au-delà de la question juridique, l’impact technique mérite attention. L’entraînement de modèles génératifs sur des profils LinkedIn peut amplifier les biais existants. Si certaines compétences ou certains parcours sont surreprésentés dans les données, l’IA risque de favoriser ces schémas au détriment de profils plus atypiques.
Imaginons une IA qui suggère des formulations de CV : si elle s’appuie majoritairement sur des modèles anglo-saxons ou issus d’un secteur particulier (tech, finance), elle risque de pénaliser des candidats venant d’autres horizons.
Un autre risque est celui de la fuite implicite de données. Même si LinkedIn assure que les informations sensibles sont exclues, les modèles entraînés sur de larges corpus peuvent parfois générer des fragments de texte identifiables, comme des citations exactes issues de posts publics. Cela ouvre la porte à des utilisations détournées, voire malveillantes.
LinkedIn élargira les types de données partagées avec Microsoft dès le 3 novembre
Il existe un changement parallèle, mais distinct, concernant le partage des données avec Microsoft, la société mère de LinkedIn. À compter du 3 novembre, LinkedIn élargira, dans certaines régions, les types de données LinkedIn partagées avec Microsoft afin que cette dernière puisse personnaliser ses publicités. LinkedIn présente cela comme une mise à jour « Affiliés » et indique qu'elle proposera une option de désactivation supplémentaire le cas échéant. Les deux changements sont présentés ensemble dans la même mise à jour des conditions générales, mais suivent des règles régionales différentes.
LinkedIn précise que dans certains pays, les données pourront également être partagées avec ses filiales, notamment Microsoft, pour des usages liés à la personnalisation des publicités. Cette articulation entre IA et publicité renforce les inquiétudes : où s’arrête l’amélioration des produits, et où commence la monétisation des données ?
Le spectre...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.