Modèles open-source Mistral
Mistral AI (Paris) — De Mistral 7B (sept. 2023) à Mistral Large 3 (déc. 2025)
En bref : Mistral AI publie la famille de modèles open-weight la plus complète d'Europe, du minuscule Ministral 3B (exécutable sur un smartphone) au massif Mistral Large 3 (675 milliards de paramètres). Tous sous licence Apache 2.0 — usage commercial libre, modification, redistribution. Pour les cliniciens, c'est l'écosystème open-weight le plus pertinent : européen, francophone natif, avec des modèles à toutes les échelles. Combiné à un hébergement local, il offre la souveraineté des données la plus complète disponible aujourd'hui.
Catalogue des modèles (décembre 2025)
Mistral propose des modèles à toutes les échelles, du plus léger (3B paramètres, exécutable sur un téléphone) au plus puissant (675B, nécessitant un data center). Voici les modèles les plus pertinents pour un usage en établissement de santé.
Petits modèles (edge / poste de travail)
| Modèle | Taille | Date | VRAM (Q4) |
|---|---|---|---|
| Ministral 3B | 3B | Déc. 2025 | ~2-3 Go |
| Mistral 7B | 7,3B | Sept. 2023 | ~5-6 Go |
| Ministral 8B | 8B | Déc. 2025 | ~5-6 Go |
| Ministral 14B | 14B | Déc. 2025 | ~10 Go |
Modèles moyens (serveur dédié)
| Modèle | Taille | Date | VRAM (Q4) |
|---|---|---|---|
| Mistral Nemo | 12B | Juil. 2024 | ~8 Go |
| Mistral Small 3.1 | 24B | Mars 2025 | ~16 Go |
| Mixtral 8x7B | 47B (13B actifs) | Janv. 2024 | ~26 Go |
| Mixtral 8x22B | 141B (39B actifs) | Avr. 2024 | ~80 Go |
Modèle frontier
| Modèle | Taille | Date | Infrastructure |
|---|---|---|---|
| Mistral Large 3 | 675B (41B actifs) | Déc. 2025 | Data center requis |
Modèles spécialisés (Apache 2.0)
- • Pixtral 12B : multimodal (texte + image)
- • Codestral Mamba 7B : génération de code, architecture Mamba2
- • Devstral Small 2 (24B) : agent de code avancé
- • Magistral Small (24B) : raisonnement (chaîne de pensée)
Installation locale : guide pratique
L'intérêt majeur des modèles open-weight est de pouvoir les exécuter sur votre propre matériel. Aucune donnée ne quitte votre infrastructure. Voici les recommandations selon votre équipement.
Par équipement
- • Mac M1/M2 (8-16 Go) : Ministral 3B, Mistral 7B quantifié
- • RTX 4060/Mac M2 Pro (16 Go) : Mistral 7B, Ministral 8B
- • RTX 4090/Mac M2 Max (24-32 Go) : Ministral 14B, Mistral Small 3.1 quantifié
- • Multi-GPU/Mac Studio (48+ Go) : Mistral Small 3.1 pleine précision, Mixtral 8x7B
- • Serveur dédié (64+ Go) : Mixtral 8x22B quantifié
Outils recommandés
- • Ollama : Le plus simple. Une commande suffit :
ollama run mistral. Gère automatiquement le téléchargement et la quantification. - • LM Studio : Interface graphique, idéal pour débuter. Téléchargement direct depuis Hugging Face.
- • llama.cpp : Plus de contrôle, supporte Apple Silicon, NVIDIA, AMD. Moteur sous-jacent d'Ollama.
- • vLLM : Optimisé pour servir plusieurs utilisateurs (cadre institutionnel).
Point technique : Les modèles MoE (Mixtral, Large 3) chargent tous les experts en mémoire, pas seulement les experts actifs. Mixtral 8x7B (47B paramètres) nécessite donc la même VRAM qu'un modèle dense de 47B — pas 13B. C'est un piège fréquent. Pour comprendre l'architecture MoE, voir notre entrée de glossaire LLM.
Scénarios pour la santé mentale
Établissement de santé
- • Aide à la rédaction clinique souveraine : Mistral Small 3.1 sur un serveur interne pour rédiger des comptes-rendus sans fuite de données.
- • Recherche et formation : Mistral Large 3 via API pour de la recherche bibliographique, combiné à un modèle local pour le traitement de données sensibles.
- • Conformité HDS : Déploiement sur un hébergeur certifié HDS (Hébergement de Données de Santé) pour une conformité complète.
Praticien libéral
- • Ministral 8B sur un Mac : Modèle léger pour explorer des hypothèses cliniques en local, sans envoyer de données à l'extérieur.
- • Psychoéducation : Générer du matériel pédagogique (fiches, métaphores) avec un modèle local.
Recherche
- • BioMistral : Modèle communautaire basé sur Mistral 7B, pré-entraîné sur PubMed Central (CNRS Jean Zay). Strictement pour la recherche — pas pour un usage clinique de production.
- • Fine-tuning : La licence Apache 2.0 autorise l'entraînement spécialisé sur des corpus cliniques français — une impossibilité avec les modèles propriétaires.
La nuance open-weight / open-source
Comme pour GPT-OSS, les modèles Mistral sont plus précisément open-weight qu'open-source au sens strict : les poids entraînés et le code d'inférence sont publics, mais les données d'entraînement et les procédures d'alignement ne le sont pas.
Pour le clinicien, cela signifie : vous contrôlez où le modèle tourne et qui accède aux données, mais vous ne pouvez pas vérifier sur quoi il a été entraîné. L'avantage européen de Mistral (culture francophone, équipe française) rend néanmoins plausible une meilleure représentation du français et des contextes européens dans les données d'entraînement — mais c'est une inférence, pas une certitude.
Limites et précautions
Compétences techniques
L'installation locale requiert un minimum de compétences techniques. Ollama simplifie considérablement le processus, mais la gestion d'un déploiement institutionnel reste un projet informatique.
Hallucinations
Un modèle local hallucine autant qu'un modèle cloud. La souveraineté porte sur les données, pas sur la fiabilité.
Pas de garde-fous intégrés
Les modèles open-weight héritent de l'alignement de base, mais les mécanismes de sécurité avancés (détection de crise, redirection urgence) doivent être implémentés par l'organisation.
Qualité variable
Les petits modèles (3B, 7B) sont nettement moins capables que les modèles frontier. Pour des tâches exigeant nuance et raisonnement (analyse clinique), privilégier Mistral Small 3.1 ou supérieur.
Notre analyse
L'écosystème open-weight de Mistral est le plus complet disponible en Europe. Il combine trois avantages que ni OpenAI (GPT-OSS) ni Meta (LLaMA) n'offrent simultanément : une entreprise européenne, un multilinguisme natif centré sur le français, et des modèles à toutes les échelles.
Pour un établissement de santé mentale français, le scénario le plus réaliste à court terme est : Mistral Small 3.1 sur un serveur interne (ou hébergeur HDS) pour l'aide à la rédaction et l'exploration clinique, complété par Le Chat Enterprise pour les usages nécessitant le modèle frontier.
La publication de Mistral Large 3 sous Apache 2.0 (décembre 2025) est un signal stratégique fort : pour la première fois, un modèle frontier européen de 675 milliards de paramètres est librement téléchargeable et utilisable par n'importe quelle institution. Même si son exécution requiert un data center, cela ouvre la voie à des déploiements souverains à l'échelle d'un GHT (Groupement Hospitalier de Territoire) ou d'une ARS (Agence Régionale de Santé).
Concepts et termes liés
Un risque indépendant du lieu d'hébergement
Même en local, informer reste nécessaire
La souveraineté peut-elle réduire la méfiance ?
Protéger les données comme acte de soin
Entrées du glossaire
Voir aussi
Références
Mistral AI (2025). Introducing Mistral 3. mistral.ai/news/mistral-3.
Labrak, Y. et al. (2024). BioMistral: A Collection of Open-Source Pretrained LLMs for Medical Domains. arXiv:2402.10373.
HAS (2025). Premières clefs d'usage de l'IA générative en santé — Framework A.V.E.C.
Fiche mise à jour : février 2026