Actualité

IA

Anthropic signe avec Google Cloud pour des dizaines de milliards de dollars

Par Laurence - Publié le

La start-up américaine Anthropic, à l’origine de Claude concurrent direct de ChatGPT, vient d’annoncer un accord massif avec Google Cloud portant sur plusieurs dizaines de milliards de dollars. Il s’agit d’étendre son utilisation des puces TPU de Google et renforcer ses capacités de calcul dans le cloud.

Claude Anthropic


Un million de puces IA et l’équivalent d’un réacteur nucléaire en puissance



Dans un communiqué publié hier, Anthropic a indiqué vouloir étendre son usage des technologies Google Cloud jusqu’à un million de TPU les puces spécialisées conçues par Google pour l’entraînement et l’exécution des modèles d’IA.

L’entreprise précise que cette expansion représente des dizaines de milliards de dollars et permettra de mettre en ligne plus d’un gigawatt de capacité en 2026 — soit l’équivalent de la puissance électrique moyenne d’un réacteur nucléaire.

Une telle montée en puissance illustre l’explosion des besoins énergétiques et matériels liés à l’IA générative, qui exige toujours plus de ressources pour entraîner des modèles de grande taille et servir un nombre croissant d’utilisateurs.

Anthropic signe avec Google Cloud pour des dizaines de milliards de dollars


Une croissance fulgurante pour Anthropic



Basée à San Francisco, Anthropic affirme avoir triplé sa valorisation en six mois, atteignant désormais 183 milliards de dollars, selon ses propres chiffres communiqués début septembre.

La société revendique 300 000 clients professionnels, avec une demande en croissance exponentielle. Les grands comptes, générant plus de 100 000 dollars de revenus annuels, auraient été multipliés par sept en un an, selon le communiqué.

Cette progression spectaculaire s’explique en partie par le succès du modèle Claude 3, perçu comme une alternative plus prévisible et plus sûre à ChatGPT, notamment dans le milieu professionnel.

Anthropic signe avec Google Cloud pour des dizaines de milliards de dollars


Google, Amazon et Nvidia dans la même course à la puissance



L’accord avec Google Cloud confirme la stratégie multi-fournisseurs d’Anthropic. En plus des TPU de Google, la société exploite également les puces Trainium d’Amazon, dans le cadre d’un partenariat à long terme autour du projet Rainier — un vaste pôle de calcul rassemblant des centaines de milliers de processeurs IA répartis dans plusieurs centres de données américains.

Le choix d’Anthropic d’étendre de façon significative son usage des TPU reflète leur solide rapport prix-performance et leur efficacité, s’est félicité Thomas Kurian, CEO de Google Cloud. Le groupe de Mountain View, également en pointe avec son propre modèle Gemini, poursuit ainsi son duel technologique avec Nvidia, le géant des GPU, dont les puces restent aujourd’hui la référence pour l’entraînement des modèles d’IA.

Une course à l’échelle du térawatt



Cet accord illustre la dynamique vertigineuse de la course à la puissance de calcul qui anime les géants de l’IA. Les investissements cumulés dans les infrastructures d’entraînement dépassent désormais les revenus générés par les modèles eux-mêmes, un déséquilibre que beaucoup considèrent comme temporaire, mais révélateur de l’ampleur du pari industriel en cours. Anthropic, Google, Amazon et Nvidia se disputent désormais les fondations matérielles de l’intelligence artificielle, dans une compétition qui se joue autant sur le plan technologique qu’énergétique.