Actualité

IA

Mistral 3 contre-attaque GPT5 ! Le plein de nouveautés sous licence Apache 2.0

Par Laurence - Publié le

C'est presque Noël ! Mistral AI vient tout juste de dévoiler Mistral 3, une nouvelle famille de modèles entièrement open-source qui marque une étape majeure dans sa stratégie : proposer des modèles toujours plus puissants, mais surtout faciles à déployer, optimisés pour les infrastructures NVIDIA, et adaptés à tous les usages — du datacenter aux appareils en périphérie.

Mistral 3


Une grande et belle famille sous licence Apache 2.0 !



Cette génération comprend trois modèles compacts Ministral (3B, 8B et 14B), mais aussi Mistral Large 3, un modèle mixture-of-experts (MoE) de nouvelle génération : 41 milliards de paramètres actifs et 675 milliards au total, entraîné sur plus de 3000 GPU NVIDIA H200. Et tous sont publiés sous licence Apache 2.0, ouvrant la voie à des usages commerciaux totalement libres.

Tous les modèles Mistral 3 (Large, Ministral 3B/8B/14B) sont disponibles dès aujourd’hui en téléchargement sous licence Apache 2.0, ainsi que via : Hugging Face, vLLM, TensorRT-LLM, SGLang et bientôt davantage de plateformes industrielles.



Mistral Large 3



Mistral Large 3 est un modèle open-source de niveau frontier, se rapprochant clairement des modèles haut de gamme du marché : architecture sparse MoE (41B actifs / 675B totaux), entraînement from scratch sur 3000 NVIDIA H200, multimodalité native (texte + image) et performances multilingues.

Mistral 3 contre-attaque GPT5 ! Le plein de nouveautés sous licence Apache 2.0


Selon les mesures publiées, Mistral Large 3 arrive directement #2 dans les modèles open-source non-reasoning sur LMArena, et #6 toutes catégories confondues — un score spectaculaire pour un modèle libre. Mistral publie à la fois le modèle base et le modèle instru, et annonce qu’une version reasoning arrivera prochainement.

Mistral 3 contre-attaque GPT5 ! Le plein de nouveautés sous licence Apache 2.0


Pour accompagner ce lancement, Mistral officialise un partenariat industriel d’envergure. On apprend que NVIDIA a optimisé Large 3 pour TensorRT-LLM, SGLang, et pour ses nouvelles architectures Blackwell NVL72. vLLM publie une prise en charge complète permettant d’exécuter Large 3 sur un seul nœud 8×A100 ou 8×H100. Red Hat contribue à l’intégration dans les environnements serveurs et edge. Enfin, le modèle est fourni dans un format NVFP4, compressé via llm-compressor pour réduire les coûts d’inférence. Autrement dit : Large 3 n’est pas seulement open-source, il est immédiatement prêt à être déployé dans l’industrie.

Mistral 3 contre-attaque GPT5 ! Le plein de nouveautés sous licence Apache 2.0


Ministral 3 : l’IA de pointe optimisée pour l’edge (3B, 8B, 14B)



La série Ministral 3 vise les usages embarqués : équipements industriels, PC, robotique, objets connectés, traitement local et même les laptops GPU. Disponible en version base, instruct et reasoning, chacun de ces modèles est multimodal, multilingue, conçu pour consommer moins de tokens à génération équivalente et offert sous licence Apache 2.0.

Mistral 3 contre-attaque GPT5 ! Le plein de nouveautés sous licence Apache 2.0


Qu'en penser ?



Au-delà des benchmarks, la stratégie est claire et la réponse ferme face aux modèles US ! Mistral entend réduire les coûts d’inférence, favoriser l’adoption industrielle, proposer des alternatives souveraines aux modèles propriétaires, et démocratiser l’accès aux modèles avancés grâce à l’open-source.

Avec Mistral 3, la startup française montre qu’elle est désormais capable de rivaliser avec les leaders mondiaux, tout en misant sur une vision très européenne : ouvrir les poids, faciliter le déploiement, et laisser les développeurs construire librement
.
Offre Black Friday sur le SolarFlow 800 Pro !

Offre Black Friday sur le SolarFlow 800 Pro !

Alimentez votre balcon de manière plus intelligente — La première unité intégrée de stockage d’énergie pour balcon au monde, pilotée par l’IA.