Actualité

IA

Mistral dévoile Magistral, sa première IA spécialisée dans le raisonnement

Par Vincent Lautier - Publié le

Le laboratoire français Mistral entre enfin dans la course au raisonnement automatisé avec Magistral, une famille de modèles d’IA capables de décomposer les problèmes étape par étape. Une réponse claire à OpenAI, Google et DeepSeek, avec un modèle open source et une version premium pour les entreprises.

Mistral dévoile Magistral, sa première IA spécialisée dans le raisonnement


Open source et entreprise



Mistral a donc officialisé le lancement de Magistral, sa nouvelle gamme de modèles de langage orientés raisonnement. Cette nouveauté comprend deux variantes : Magistral Small (24 milliards de paramètres), proposé en open source sous licence Apache 2.0 via Hugging Face, et Magistral Medium, une version propriétaire réservée aux services Le Chat, API maison et cloud partenaires.

Ce double lancement permet à Mistral de contenter à la fois la communauté open source, en réaffirmant son engagement initial, et les clients corporate, avec une solution premium, plus performante et facturée au prix fort. Magistral Small sert clairement de vitrine technologique libre, pendant que Medium est taillé pour des usages un peu plus critiques, avec des optimisations exclusives.

Mistral dévoile Magistral, sa première IA spécialisée dans le raisonnement


Performances : solide mais pas révolutionnaire



Sur le papier, Magistral Medium devrait tenir la route face aux ténors du marché, mais sans bouleverser la hiérarchie établie. Sur des benchmarks comme AIME ou GPQA Diamond, il reste derrière Claude Opus 4 d’Anthropic ou Gemini 2.5 Pro de Google.

Là où Magistral fait la différence, c’est sur la vitesse. Avec les modes Think et Flash Answers, la version Medium serait jusqu’à dix fois plus rapide que ses concurrents sur Le Chat. Une promesse intéressante pour les cas d’usage en temps réel ou les environnements à fort volume de requêtes.

Mistral dévoile Magistral, sa première IA spécialisée dans le raisonnement


Transparence, multilingue et cas d’usage concrets



Contrairement à d'autres modèles perçus comme des “boîtes noires”, Magistral mise beaucoup sur une logique explicite. Le modèle affiche les étapes de raisonnement dans la langue de l’utilisateur, une fonctionnalité utile dans des domaines comme la finance, le droit ou la santé. Il supporte par ailleurs plusieurs langues, dont le français, l’allemand, l’italien, l’arabe, ou encore le chinois simplifié.

Côté usages, Mistral cible les tâches nécessitant un raisonnement plus structuré : modélisation financière, analyse stratégique, architecture logicielle ou encore calculs réglementaires. Le modèle se montre également compétent pour le développement, la génération de code ou la planification technique.

Un marché saturé ?



Avec Magistral, Mistral ne cherche pas révolutionner, mais à exister. Le modèle premium est plus cher que les offres internes précédentes (5 $ pour 1 million de tokens sortants), mais est bien positionné face aux géants du secteur. L’open source, lui, permet de donner de la visibilité au produit.

Qu’est ce qu’on en pense ?



Pas de révolution, ici mais Mistral fait son petit bout de chemin à côtés des paquebots de l’IA que sont OpenAI ou Deepseek. Au delà des aspects très spécifiques proposés par ces évolutions, on vous conseille de tester la solution grand public LeChat proposée par Mistral, qui impressionne en particulier par sa rapidité. Vous avez déjà testé vous ?