Actualité

IA

Trump bannit Anthropic, mais l'armée utilise quand même Claude pour frapper l'Iran

Par Vincent Lautier - Publié le

Le bras de fer entre Anthropic et le Pentagone vient de basculer. L'entreprise a refusé de lever ses garde-fous sur l'utilisation militaire de Claude, et Donald Trump l'a bannie de toutes les agences fédérales américaines. Quelques heures plus tard, l'armée utilisait quand même Claude pour coordonner ses frappes en Iran. Et c'est OpenAI qui a récupéré le contrat du Pentagone dans la foulée.

Trump bannit Anthropic, mais l'armée utilise quand même Claude pour frapper l'Iran


Un contrat de 200 millions de dollars



En juillet 2025, Anthropic signe un contrat de 200 millions de dollars avec le Pentagone et devient le premier labo d'IA à déployer ses modèles sur le réseau classifié de la Défense américaine. Au Moyen-Orient, le commandement central utilise Claude pour analyser le renseignement, identifier des cibles et simuler des scénarios de bataille. Le problème, c'est que le Pentagone veut pouvoir utiliser Claude sans aucune restriction, pour "tout usage légal". Et Anthropic refuse sur deux points : pas de surveillance de masse des citoyens américains, et pas d'armes autonomes qui tirent sans intervention humaine.

Dario Amodei, le patron d'Anthropic, a déclaré que son entreprise ne peut pas en bonne conscience accéder à cette demande. Pete Hegseth, le secrétaire à la Défense, a posé un ultimatum. Anthropic n'a pas bougé.

Trump bannit Anthropic, mais l'armée utilise quand même Claude pour frapper l'Iran


Des frappes malgré le ban



Hegseth a classé Anthropic comme "risque pour la chaîne d'approvisionnement", une étiquette jusqu'à présent réservée aux entreprises liées à des adversaires étrangers. Trump a ordonné la fin de tous les contrats, et un officiel du Pentagone est allé jusqu'à traiter Amodei de "menteur" avec un "complexe de dieu" sur les réseaux sociaux.

Sauf que le même jour, l'armée américaine lance des frappes en Iran. Et Claude est toujours de la partie. L'IA est tellement intégrée dans les systèmes militaires qu'un retrait en pleine opération est tout simplement impossible. D'ailleurs, elle aurait déjà été utilisée lors de l'opération au Venezuela qui a mené à la capture de Nicolas Maduro.

Trump bannit Anthropic, mais l'armée utilise quand même Claude pour frapper l'Iran


OpenAI récupère le contrat



Quelques heures après le bannissement d'Anthropic, Sam Altman a annoncé qu'OpenAI avait signé un accord avec le Pentagone pour déployer ses modèles sur les réseaux classifiés. Et OpenAI a quand même négocié des garde-fous qui ressemblent beaucoup à ceux que défendait Anthropic. La formulation change : OpenAI accepte l'utilisation pour "tout usage légal", mais avec un déploiement cloud uniquement et du personnel habilité dans la boucle. Des employés d'OpenAI et de Google ont quand même signé des lettres ouvertes en soutien à Dario Amodei.

On en dit quoi ?



On peut trouver le timing un peu improbable quand même. Anthropic a visiblement construit quelque chose que l'armée ne peut pas remplacer, même quand le président l'ordonne. Et puis OpenAI arrive dans la foulée avec à peu près les mêmes limites, formulées autrement. Mais bon, on le sait, dans la tech comme en politique, c'est souvent une question de forme plus que de fond.