OpenAI continue d’avancer sur son projet de puce maison. L’entreprise derrière ChatGPT prévoit de finaliser la conception de son premier processeur d’intelligence artificielle d’ici quelques mois, avant de l’envoyer à la fabrication chez TSMC. L’objectif ? Moins de dépendance aux puces Nvidia, qui dominent très largement le marché.
Un premier prototype attendu chez TSMC
Selon Reuters, OpenAI compte sur TSMC pour produire sa puce en 3 nanomètres, une technologie de pointe déjà utilisée par Apple. Cette première version devrait être capable de faire tourner des modèles d’IA, mais son rôle restera relativement limité au départ, histoire de roder un peu tout ça. Si tout se passe bien, OpenAI envisage déjà des versions plus puissantes pour l’entraînement de ses modèles.
L’envoi du design en production, appelé tape-out, est une étape important. C’est aussi un processus coûteux : des dizaines de millions de dollars pour la première tentative, avec un délai de six mois avant d’obtenir un prototype fonctionnel. Et il n’y a aucune garantie que ça fonctionne du premier coup. En cas d’échec, il faudra revoir le design et recommencer, ce qui pourrait repousser les délais.
Une petite équipe, mais de grosses ambitions
Le projet est dirigé par Richard Ho, un ancien de Google spécialisé dans les puces IA. Son équipe a doublé ces derniers mois, passant de 20 à 40 personnes. OpenAI collabore aussi avec Broadcom pour le développement. Comparé aux géants du secteur comme Google ou Amazon, qui mobilisent des centaines d’ingénieurs sur leurs projets de semi-conducteurs, l’équipe d’OpenAI est en fait plutôt modeste.
Après, soyons clairs, cette première puce ne vise pas à concurrencer Nvidia immédiatement. Pour l’instant, OpenAI continue d’acheter des processeurs Nvidia et AMD pour faire tourner ses modèles, mais cette initiative lui donne plus de poids dans ses négociations avec les fournisseurs.
Une tendance chez les géants de la tech
OpenAI n’est pas le seul à chercher des alternatives aux puces Nvidia. Meta prévoit de dépenser 60 milliards de dollars cette année pour son infrastructure IA, alors que Microsoft annonce un budget de 80 milliards pour 2025. Le problème, c’est que Nvidia détient encore 80 % du marché, ce qui pousse ses clients majeurs à développer leurs propres solutions.
Mais la question de la rentabilité reste entière. Développer une puce en interne coûte vraiment très cher : un design ambitieux peut atteindre 500 millions de dollars, sans compter les logiciels et infrastructures nécessaires pour l’exploiter. Notons que certaines startups, comme DeepSeek, montrent aussi qu’on peut entraîner des modèles performants avec moins de puissance brute.
OpenAI arrivera-t-il à s’imposer face à Nvidia ? Pour l’instant, cette première puce est un test. Mais si elle fonctionne bien, l’entreprise pourrait franchir une étape cruciale dans son indépendance technologique.