À partir de ce lundi 3 novembre 2025, LinkedIn — le réseau social professionnel du groupe Microsoft — va commencer à utiliser certaines données publiques de ses utilisateurs pour entraîner ses modèles d’intelligence artificielle générative. Cette évolution déjà mise en place aux États-Unis, s’étend désormais à l’Union européenne et à plusieurs autres régions du monde, dont le Royaume-Uni, la Suisse, le Canada et Hong Kong.
Des données publiques pour nourrir l’IA
Dans un billet de blog publié cet automne, LinkedIn a expliqué que ces données comprennent des informations issues des profils publics, des posts et articles publiés, des commentaires, ainsi que des CV déposés dans le cadre de candidatures. Ces éléments serviront à « améliorer les modèles d’IA générative », utilisés notamment pour suggérer du contenu, affiner la recherche d’emploi ou optimiser les recommandations de profil.
L’entreprise assure que les messages privés, les informations salariales et les données sensibles ne sont pas concernées. Les utilisateurs mineurs sont également exclus de ce traitement, même si leurs paramètres de confidentialité affichent l’option comme active.
Racheté par Microsoft en 2016, LinkedIn s’appuie sur les services Azure OpenAI de sa maison-mère pour entraîner ses modèles, ce qui rapproche davantage le réseau professionnel de l’écosystème ChatGPT et Copilot.
Comment désactiver la collecte de vos données
Les détenteurs d’un compte LinkedIn peuvent toutefois refuser cette utilisation à tout moment.
Voici la marche à suivre : 1. Se connecter à son compte LinkedIn. 2. Cliquer sur l’icône de son profil en haut de la page (son avatar). 3. Sélectionner Préférences > confidentialité des données. 4. Dans la rubrique Confidentialité des données, désactiver l’option Données pour l’amélioration de l’IA générative.
Une fois cette option désactivée, le contenu public de l’utilisateur ne sera plus utilisé pour l’entraînement des modèles d’IA.
Une tendance qui interroge sur la vie privée
LinkedIn rejoint ainsi Meta (Facebook et Instagram), qui exploite depuis mai 2025 le contenu public de ses utilisateurs à des fins similaires. Ces pratiques soulèvent de vives interrogations sur la frontière entre usage légitime et exploitation des données personnelles, surtout dans un contexte où les régulateurs européens surveillent de près les usages de l’IA générative.
Alors que l’intelligence artificielle s’invite dans tous les services numériques, le contrôle de ses données personnelles devient plus que jamais un enjeu individuel et un réflexe à adopter. Il est toutefois à déplorer que les options soient activées par défaut et qu'il faille aller à la pêche pour les retrouver dans les paramètres, le plus souvent...