Microsoft vient de présenter la Maia 200, son nouvel accélérateur d'intelligence artificielle. Gravée en 3nm par TSMC, cette puce est déjà en service dans les data centers de l'Iowa et doit permettre à Microsoft de réduire sa dépendance à Nvidia.
Une puce ultra puissante
La Maia 200 marque une étape pour Microsoft, qui dispose enfin d'un silicium maison dédié aux tâches d'inférence IA. La puce embarque plus de 144 milliards de transistors et délivre 10 petaFLOPS en précision FP4, ou 5 petaFLOPS en FP8. Côté mémoire, on retrouve 216 Go de HBM3e répartis sur six stacks, offrant une bande passante de 7 To/s. La puce intègre aussi 272 Mo de SRAM directement sur la puce. Le tout consomme 750 watts, ce qui reste bien en dessous des puces Nvidia Blackwell qui dépassent les 1 200 watts. Microsoft affirme que cette consommation permet un déploiement aussi bien en refroidissement par air que par liquide.
De bonnes performances face à Nvidia, Amazon et Google
Scott Guthrie, vice-président de la division Cloud + AI de Microsoft, n'y va pas par quatre chemins. Selon lui, la Maia 200 est 30% moins chère que tout autre silicium IA sur le marché actuellement. Microsoft revendique des performances FP4 trois fois supérieures à celles du Trainium de troisième génération d'Amazon, et de meilleures performances FP8 que le TPU v7 de Google. Sur le papier, la puce se positionne au niveau du Nvidia B200 pour les tâches d'inférence. Si vous ne connaissez pas ce mot (je ne le connaissais pas avant de rédiger cette actualité), les tâches d'inférence pour une puce IA, ce sont les opérations où un modèle d'intelligence artificielle déjà entraîné applique ses connaissances pour analyser de nouvelles données et générer des prédictions ou des résultats en temps réel. Chaque serveur intègre quatre puces connectées entre elles, et le système peut monter jusqu'à 6 144 puces en cluster grâce à une bande passante bidirectionnelle de 2,8 To/s par puce. Pour les très gros modèles, c'est quand même 61 exaFLOPS de puissance combinée. C'est beaucoup donc.
Déjà en production et ouverte aux développeurs
Surtout, la Maia 200 n'est pas un prototype. Elle tourne en effet déjà dans le data center de l'Iowa, et sera bientôt déployée dans la région de Phoenix. Microsoft l'utilise pour faire tourner les modèles GPT-5.2 d'OpenAI, Microsoft 365 Copilot et d'autres projets moins médiatisés.
On en dit quoi ?
C'est quand même une annonce intéressante. Avec sa puce Maia 200, Microsoft rejoint Google et Amazon dans le club des hyperscalers qui fabriquent leurs propres puces. L'objectif est clair : réduire la facture, mais aussi la dépendance à Nvidia. Mais bon, construire une puce c'est une chose, la faire adopter en masse en est une autre. Nvidia a un gros avantage avec son écosystème logiciel. À voir si Microsoft arrive à tenir ses promesses de performances et de coûts une fois la puce déployée à grande échelle.