Actualité

IA

Le Pentagone pose un ultimatum à Anthropic sur l’usage militaire de son IA

Par Laurence - Publié le

Un bras de fer inédit est en train de se nouer entre le département américain de la Défense et Anthropic. Selon plusieurs sources concordantes citées par la presse américaine, le gouvernement des États-Unis a adressé un ultimatum à l’entreprise californienne concernant les conditions d’utilisation de son modèle d’IA par l’armée.

Anthropic USA


Une menace aux conséquences industrielles majeures



Le secrétaire à la Défense, Pete Hegseth, aurait donné à Anthropic jusqu’à vendredi soir, 22 heures GMT, pour lever certaines limitations imposées à son IA dans les environnements militaires classifiés. L’ultimatum aurait été formulé à l’issue d’une rencontre, mardi, entre Pete Hegseth et Dario Amodei.

D’après les autorités américaines, ces garde-fous n’auraient aucun lien avec des scénarios de surveillance de masse ou d’armes autonomes, une position vivement contestée par la start-up. Le ton s’est depuis durci, au point de faire planer la menace d’une mise à l’écart comparable à celle subie par des groupes étrangers jugés sensibles, tels que Huawei ou Kaspersky, déjà présents sur cette liste.

Le Pentagone pose un ultimatum à Anthropic sur l’usage militaire de son IA


En cas de refus, le Pentagone envisagerait de faire inscrire Anthropic sur une liste officielle regroupant les entreprises considérées comme présentant un risque pour les approvisionnements de l’armée américaine. Ce dispositif, issu d’une législation datant pourtant de la guerre froide, permettrait d’obliger tous les partenaires industriels du ministère de la Défense à rompre leurs liens avec la société concernée.

Une telle décision aurait un impact direct sur les activités d’Anthropic, qui s’est engagée sur des contrats estimés à près de 200 millions de dollars avec l’armée américaine. Elle constituerait également un avertissement des plus explicites adressé à l’ensemble du secteur de l’IA.

Claude, une IA déjà centrale pour le Pentagone



Paradoxalement, Anthropic occupe déjà une place stratégique au sein des systèmes militaires américains. Son modèle Claude, et plus spécifiquement sa déclinaison Claude Gov, est à ce jour le seul grand modèle d’IA autorisé dans certains réseaux classifiés du Pentagone.

L’outil aurait séduit les responsables militaires par sa facilité d’usage et sa capacité à traiter rapidement de grandes quantités d’informations sensibles. Selon plusieurs sources, Claude aurait même été utilisé par des unités spéciales lors d’une opération ayant conduit à la capture de l’ancien président vénézuélien Nicolás Maduro — un épisode qui alimente aujourd’hui les débats internes chez Anthropic.

Le Pentagone pose un ultimatum à Anthropic sur l’usage militaire de son IA


Des lignes rouges éthiques assumées par Anthropic



La crispation actuelle trouve son origine dans les restrictions d’usage que la start-up souhaite maintenir. Anthropic aurait accepté, comme d’autres acteurs du secteur, d’assouplir certaines règles pour permettre une utilisation élargie de ses modèles par l’armée, tant que celle-ci reste conforme au droit.

En revanche, l’entreprise dirigée par Dario Amodei entend conserver deux interdictions strictes de l’usage de Claude pour la surveillance de masse de populations civiles, et l’automatisation d’attaques létales, autrement dit le recours à des armes autonomes. Ces limites, cohérentes avec la ligne éthique revendiquée par Anthropic depuis sa création, sont jugées inacceptables par le Pentagone, qui estime qu’elles entravent la liberté opérationnelle de l’armée.

Le Pentagone pose un ultimatum à Anthropic sur l’usage militaire de son IA


Qu’en penser ?



Au-delà du cas Anthropic, cette confrontation soulève une question de fond : jusqu’où les entreprises d’IA peuvent-elles imposer leurs principes éthiques face aux exigences militaires ? Le Pentagone a récemment intensifié ses discussions avec plusieurs acteurs majeurs de l’IA afin d’intégrer leurs technologies dans des réseaux classifiés, souvent en demandant un assouplissement significatif des règles d’usage.

La décision d’Anthropic de maintenir certaines lignes rouges pourrait ainsi créer un précédent, dans un contexte où l’IA est de plus en plus perçue comme un outil stratégique de défense nationale. Reste à savoir si la start-up cédera sous la pression, ou si le gouvernement américain ira jusqu’au bout de sa menace, au risque de fragiliser l’un de ses partenaires technologiques les plus avancés.