Actualité

IA

Microsoft interdit cette IA à ses employés. Doit-on s’en méfier aussi ?

Par Vincent Lautier - Publié le

Microsoft interdit à ses employés d’utiliser l’application chinoise DeepSeek, en invoquant des risques de sécurité liés au stockage des données en Chine et à la diffusion potentielle de propagande. Une décision importante, révélée lors d’une audition au Sénat américain sur la course mondiale à l’IA.

Microsoft interdit cette IA à ses employés. Doit-on s’en méfier aussi ?


Microsoft bannit DeepSeek en interne



Microsoft a officiellement interdit à ses employés l’usage de l’application DeepSeek, un chatbot IA développé par une start-up chinoise. C’est Brad Smith, président de la firme, qui l’a déclaré sans détour lors d’une audition du Sénat américain sur la compétitivité en intelligence artificielle. Selon lui, l'application présente des risques sérieux liés à la sécurité des données et à la possible diffusion de contenu biaisé par la propagande chinoise. DeepSeek, pourtant disponible sur les stores américains depuis janvier, est désormais exclu du Microsoft Store.

Des inquiétudes liées à la collecte des données



Le cœur du problème tient à la localisation des serveurs : les données partagées via DeepSeek sont stockées en Chine. Or, la loi chinoise oblige les entreprises locales à coopérer avec les agences de renseignement nationales. Résultat : pour Microsoft, faire transiter des informations potentiellement sensibles via cette application est jugé trop risqué. L’entreprise n’est pas la seule à s’alarmer : la Corée du Sud avait déjà retiré l’app des stores locaux, et d’autres institutions comme la NASA ou l’US Navy ont également mis en place des restrictions en interne.

Microsoft interdit cette IA à ses employés. Doit-on s’en méfier aussi ?


Un modèle open source… mais pas sans danger



DeepSeek n’est pas une boîte noire : son modèle R1 est open source, ce qui permet à quiconque de l’héberger sur ses propres serveurs sans en référer à l’éditeur d’origine. Microsoft a d’ailleurs proposé ce modèle sur Azure dès janvier, tout en précisant qu’il avait été modifié pour éliminer des “effets secondaires nocifs”. Aucune précision n’a été donnée sur la nature exacte de ces modifications, mais cela met en avant une distinction importante : l’accès au modèle lui-même est toléré, l’usage de l’application, non.

La sortie publique de Microsoft contre DeepSeek dépasse la simple gestion des risques. Elle s’inscrit dans un contexte géopolitique tendu autour de l’IA, où les technologies chinoises sont scrutées de près. Si Microsoft n’interdit pas tous les concurrents de Copilot, le cas DeepSeek montre à quel point les considérations politiques peuvent désormais dicter les choix technologiques, y compris dans l’usage quotidien des outils par les employés. Une ligne rouge semble avoir été franchie, et pose de fait la question de la pertinence de l’utilisation d’une telle IA par les populations, même en dehors d’un cadre professionnel.

Notons aussi qu'Apple semble moins angoissé par Deepseek que Microsoft, comme l'atteste cette visite de Tim Cook dans l'université qui hébergé l'IA chinoise.