La bataille mondiale autour de l’intelligence artificielle franchit un nouveau cap. Anthropic, l’un des principaux acteurs américains de l’IA générative, accuse trois laboratoires chinois de premier plan — DeepSeek, MiniMax et Moonshot AI — d’avoir extrait illégalement les capacités de son modèle Claude afin d’entraîner leurs propres systèmes. Une pratique que l’entreprise juge non seulement frauduleuse, mais potentiellement dangereuse pour la sécurité nationale américaine.
Une distillation « industrielle » de Claude
Dans un billet de blog, Anthropic affirme que ces trois entreprises auraient mis en place une opération de grande ampleur, reposant sur la création de plus de 24 000 comptes frauduleux et l’exploitation de plus de 16 millions d’échanges avec Claude. Le but était de pratiquer la distillation, une technique consistant à utiliser les réponses d’un modèle avancé pour améliorer un autre modèle.
Si la distillation est une méthode courante dans l’industrie — souvent utilisée par les laboratoires eux-mêmes pour proposer des versions plus légères de leurs IA — elle est explicitement interdite par la plupart des fournisseurs de modèles propriétaires, dont Anthropic. D’autant plus que Claude n’est officiellement pas accessible en Chine, ce qui renforce la gravité des accusations.
Un écho aux accusations d’OpenAI
Ces révélations interviennent dans un contexte déjà tendu. Plus tôt ce mois-ci, OpenAI a formulé des accusations similaires à l’encontre de DeepSeek et d’autres acteurs chinois, dans une note transmise à la commission spéciale de la Chambre des représentants américaine sur la Chine. OpenAI y évoquait des efforts répétés visant à parasiter les avancées des laboratoires américains pour accélérer le développement de modèles concurrents.
DeepSeek s’est imposé l’an dernier comme un acteur clé de l’IA chinoise en dévoilant un modèle proche des performances de ChatGPT, tout en nécessitant bien moins de ressources de calcul. Une avancée qui avait surpris l’industrie et relancé le débat sur l’efficacité des restrictions américaines à l’exportation de semi-conducteurs avancés.
Des risques sécuritaires pointés du doigt
Pour Anthropic, le problème dépasse largement la simple concurrence technologique. L’entreprise alerte sur le fait que des modèles entraînés via une distillation illicite pourraient être dépourvus de garde-fous de sécurité, notamment ceux destinés à limiter les usages malveillants.
Selon la société, ces IA pourraient faciliter des cyberattaques offensives, la prolifération de désinformation à grande échelle, des usages liés aux armes biologiques, ou encore des systèmes de surveillance de masse déployés par des régimes autoritaires. La fenêtre d’action est étroite, prévient Anthropic, qui appelle à une réponse rapide des autorités.
Un argument en faveur des contrôles à l’export
L’affaire relance également le débat sur les restrictions américaines à l’exportation de technologies avancées. Là où certains voyaient dans la montée en puissance de DeepSeek un échec de ces politiques, Anthropic y voit au contraire une justification supplémentaire : selon l’entreprise, ces progrès reposeraient en partie sur des capacités extraites de modèles américains, extraction qui nécessite elle-même l’accès à des puces de pointe.
Aujourd’hui, DeepSeek, MiniMax et Moonshot AI — dont le modèle Kimi est très populaire en Chine — figurent parmi les 15 IA les mieux classées du leaderboard Artificial Analysis, au point d’être surnommées les tigres de l’IA chinois.
Qu'en penser ?
Ni DeepSeek, ni MiniMax, ni Moonshot AI n’ont pour l’instant répondu publiquement aux accusations. Mais cette nouvelle salve confirme une tendance de fond : la compétition autour de l’IA générative n’est plus seulement technologique ou économique. Elle devient juridique, stratégique et géopolitique, sur fond de rivalité sino-américaine et de course au contrôle des modèles les plus avancés.