C'est un conflit qui oppose l'éthique de la tech à la raison d'État. L'entreprise d'intelligence artificielle Anthropic serait en pleine passe d'armes avec la Maison Blanche. La raison : son refus de laisser les forces de l'ordre, comme le FBI, utiliser son IA Claude pour des missions de surveillance.
"Interdiction de la surveillance intérieure"
L'affaire, révélée hier par le site d'information Semafor, prend sa source dans les conditions d'utilisation très strictes d'Anthropic. Celles-ci interdisent formellement l'usage de ses modèles d'IA pour des activités de "surveillance intérieure".
En conséquence, l'entreprise a récemment refusé des demandes de sous-traitants travaillant pour des agences fédérales américaines, comme le FBI ou les services secrets. Ces derniers souhaitaient utiliser l'IA Claude pour des tâches liées à la surveillance de citoyens américains, mais se sont heurtés au refus catégorique d'Anthropic.
Une position "morale" qui agace le pouvoir
Selon des sources au sein de l'administration Trump citées par Semafor, ce refus a provoqué une "hostilité" croissante envers l'entreprise. La Maison Blanche considérerait qu'Anthropic porte un "jugement moral" sur le travail des forces de l'ordre et appliquerait ses propres règles de manière sélective, en fonction de ses opinions politiques.
Le conflit est d'autant plus tendu que dans certains environnements cloud ultra-sécurisés du gouvernement américain, l'IA Claude d'Anthropic est la seule disponible, ce qui rend son refus de coopérer problématique pour les agences concernées.
Le dilemme d'Anthropic
Cette situation place Anthropic dans une position délicate. L'entreprise, fondée par d'anciens cadres d'OpenAI, a toujours mis en avant son engagement pour une IA "sûre et éthique". C'est même sa principale marque de fabrique.
Si elle collabore déjà avec le gouvernement américain sur d'autres sujets, comme la défense, elle a visiblement tracé une ligne rouge sur la question de la surveillance de masse. C'est un équilibre difficile à tenir entre ses principes fondateurs et la pression d'un client aussi puissant que le gouvernement américain.
On en dit quoi ?
Tout ceci illustre la nouvelle puissance des entreprises de l'IA. Anthropic n'est plus un simple fournisseur de technologie ; elle se positionne comme un acteur éthique capable de dire "non" à l'État, même sur des questions de sécurité nationale. C'est une position courageuse, mais aussi très risquée face à une administration Trump qui attend de la "loyauté" de ses champions technologiques.
Ce conflit montre que la question n'est plus seulement de savoir ce que l'IA peut faire, mais ce qu'elle devrait avoir le droit de faire. Et sur ce point, le débat ne fait que commencer. Vous savez un avis sur cette question ?