Mistral AI a dévoilé Mistral Small 3.1, une version améliorée de son modèle Small 3. Ce modèle de 24 milliards de paramètres est capable de traiter du texte et des images avec une fenêtre de contexte de 128 000 tokens. Selon l’entreprise, il surpasse des modèles similaires comme Google Gemma 3 et GPT-4o Mini, tout en étant optimisé pour fonctionner sur du matériel accessible, comme une carte graphique RTX 4090 ou un Mac doté de 32 Go de RAM.
Un modèle conçu pour l’efficacité
Mistral Small 3.1 est un modèle d’intelligence artificielle multimodal et multilingue. Il est conçu pour répondre aux instructions, assister dans des conversations, analyser des images et gérer des tâches complexes. Sa vitesse de traitement annoncée de 150 tokens par seconde en fait un modèle adapté aux applications qui ont besoin de réponses rapides. Sa fenêtre de contexte étendue permet aussi une meilleure gestion des documents longs et du raisonnement avancé.
L’une de ses particularités est son optimisation pour le déploiement sur du matériel grand public. Après quantification, il peut fonctionner localement sur une seule carte graphique RTX 4090 ou un Mac avec 32 Go de RAM (ce qui n’est quand même pas la norme certes). L’idée reste d’éviter de recourir à des infrastructures cloud coûteuses.
Un modèle open-source sous licence Apache 2.0
Mistral AI continue de miser sur l’open-source avec Mistral Small 3.1, disponible sous licence Apache 2.0. Cette approche permet aux entreprises et aux développeurs d’utiliser, modifier et adapter le modèle sans trop de restrictions. Elle contraste avec les choix de certains concurrents, qui privilégient des modèles fermés et accessibles uniquement via des services cloud propriétaires.
Le modèle est accessible via plusieurs plateformes : il peut être téléchargé sur Hugging Face en version de base et instruct, ou utilisé via l’API de Mistral AI. Il est également disponible sur Google Cloud Vertex AI, avec des intégrations prévues prochainement sur NVIDIA NIM et Microsoft Azure AI Foundry.
Un positionnement stratégique dans l’IA européenne
Mistral AI, fondée en 2023 par d’anciens chercheurs de Google DeepMind et Meta, s’impose de plus en plus comme un acteur européen majeur de l’intelligence artificielle. Avec une valorisation de 6 milliards de dollars et plus d’un milliard de dollars levés, l’entreprise cherche à se positionner comme une alternative aux géants américains et chinois du secteur.
Son engagement envers l’open-source et l’optimisation des modèles pour du matériel accessible fait partie d’une stratégie qui cherche à proposer des solutions d’IA moins dépendantes d’infrastructures coûteuses. Cette approche pourrait lui permettre de capter un public plus large, allant des développeurs indépendants aux grandes entreprises qui recherchent des alternatives aux offres des leaders du marché.
Reste à voir si cette stratégie open-source sera viable sur le long terme face à des concurrents qui disposent de moyens financiers considérablement supérieurs. Dans tous les cas, Mistral Small 3.1 confirme la volonté de Mistral AI de proposer des modèles performants et accessibles.