L'administration Trump a classé Anthropic comme risque pour la chaîne d'approvisionnement, une mesure habituellement réservée aux adversaires étrangers comme la Chine ou la Russie. Son tort : avoir refusé de retirer les garde-fous éthiques de son IA Claude pour les armes autonomes. Une juge fédérale vient de bloquer cette décision, qu'elle qualifie d'orwellienne.
Un bras de fer sans précédent
Tout est parti d'un désaccord sur un contrat de défense. Anthropic, l'entreprise derrière l'IA Claude, a refusé que son modèle puisse être utilisé pour concevoir des armes entièrement autonomes ou pour surveiller massivement des citoyens américains. Le Pentagone a jugé ces restrictions inacceptables. Pete Hegseth, le secrétaire à la Défense, a alors déclenché une procédure habituellement réservée aux entreprises chinoises ou russes : classer Anthropic comme un risque pour la chaîne d'approvisionnement militaire. Donald Trump a suivi avec une directive ordonnant à toutes les agences fédérales de cesser d'utiliser Claude. On ne reproche pas à Anthropic d'avoir mal agi, on lui reproche d'avoir dit non.
La juge Lin siffle la fin de la récré
La juge fédérale Rita Lin, en Californie, a rendu une décision de 43 pages qui ne fait pas dans la dentelle. Elle qualifie la démarche du gouvernement d'orwellienne et estime qu'elle pourrait paralyser Anthropic. Sa formule est assez limpide : rien dans la loi ne permet de traiter une entreprise américaine en adversaire potentiel parce qu'elle exprime un désaccord avec le gouvernement. Elle parle même de représailles illégales au titre du Premier Amendement. Le ministère de la Justice a tenté de justifier la mesure en évoquant un risque de sabotage futur, avec l'idée qu'Anthropic pourrait manipuler son logiciel ou activer une sorte de bouton d'arrêt d'urgence. La réponse de la juge a le mérite d'être directe : si le souci est la chaîne de commandement, il suffit d'arrêter d'utiliser Claude, pas de punir l'entreprise. Le gouvernement dispose de sept jours pour faire appel.
OpenAI récupère la mise
Pendant qu'Anthropic se retrouvait au tribunal, OpenAI a signé un contrat avec le Pentagone. Le timing est difficile à ignorer. La question qui se pose est assez simple : est-ce qu'OpenAI a accepté ce qu'Anthropic a refusé ? Pour l'instant, personne ne s'est avancé sur le sujet. En tout cas, cette affaire va peser sur toutes les entreprises d'IA qui bossent avec des gouvernements. Une procédure parallèle est d'ailleurs toujours en cours devant la cour d'appel de Washington.
On en dit quoi ?
Difficile de ne pas voir dans cette séquence un message adressé à toute l'industrie : si vous refusez de jouer le jeu, on vous met sur la touche. Anthropic a tenu sa ligne sur les garde-fous et ça demande un certain courage quand votre principal client potentiel est le gouvernement américain. On attend de voir ce que donnera l'appel, mais la décision de la juge Lin pose quand même un gros précédent.