Open-weight Européen Apache 2.0

Modèles open-source Mistral

Mistral AI (Paris) — De Mistral 7B (sept. 2023) à Mistral Large 3 (déc. 2025)

En bref : Mistral AI publie la famille de modèles open-weight la plus complète d'Europe, du minuscule Ministral 3B (exécutable sur un smartphone) au massif Mistral Large 3 (675 milliards de paramètres). Tous sous licence Apache 2.0 — usage commercial libre, modification, redistribution. Pour les cliniciens, c'est l'écosystème open-weight le plus pertinent : européen, francophone natif, avec des modèles à toutes les échelles. Combiné à un hébergement local, il offre la souveraineté des données la plus complète disponible aujourd'hui.

Catalogue des modèles (décembre 2025)

Mistral propose des modèles à toutes les échelles, du plus léger (3B paramètres, exécutable sur un téléphone) au plus puissant (675B, nécessitant un data center). Voici les modèles les plus pertinents pour un usage en établissement de santé.

Petits modèles (edge / poste de travail)

Modèle Taille Date VRAM (Q4)
Ministral 3B 3B Déc. 2025 ~2-3 Go
Mistral 7B 7,3B Sept. 2023 ~5-6 Go
Ministral 8B 8B Déc. 2025 ~5-6 Go
Ministral 14B 14B Déc. 2025 ~10 Go

Modèles moyens (serveur dédié)

Modèle Taille Date VRAM (Q4)
Mistral Nemo 12B Juil. 2024 ~8 Go
Mistral Small 3.1 24B Mars 2025 ~16 Go
Mixtral 8x7B 47B (13B actifs) Janv. 2024 ~26 Go
Mixtral 8x22B 141B (39B actifs) Avr. 2024 ~80 Go

Modèle frontier

Modèle Taille Date Infrastructure
Mistral Large 3 675B (41B actifs) Déc. 2025 Data center requis

Modèles spécialisés (Apache 2.0)

  • Pixtral 12B : multimodal (texte + image)
  • Codestral Mamba 7B : génération de code, architecture Mamba2
  • Devstral Small 2 (24B) : agent de code avancé
  • Magistral Small (24B) : raisonnement (chaîne de pensée)

Installation locale : guide pratique

L'intérêt majeur des modèles open-weight est de pouvoir les exécuter sur votre propre matériel. Aucune donnée ne quitte votre infrastructure. Voici les recommandations selon votre équipement.

Par équipement

  • Mac M1/M2 (8-16 Go) : Ministral 3B, Mistral 7B quantifié
  • RTX 4060/Mac M2 Pro (16 Go) : Mistral 7B, Ministral 8B
  • RTX 4090/Mac M2 Max (24-32 Go) : Ministral 14B, Mistral Small 3.1 quantifié
  • Multi-GPU/Mac Studio (48+ Go) : Mistral Small 3.1 pleine précision, Mixtral 8x7B
  • Serveur dédié (64+ Go) : Mixtral 8x22B quantifié

Outils recommandés

  • Ollama : Le plus simple. Une commande suffit : ollama run mistral. Gère automatiquement le téléchargement et la quantification.
  • LM Studio : Interface graphique, idéal pour débuter. Téléchargement direct depuis Hugging Face.
  • llama.cpp : Plus de contrôle, supporte Apple Silicon, NVIDIA, AMD. Moteur sous-jacent d'Ollama.
  • vLLM : Optimisé pour servir plusieurs utilisateurs (cadre institutionnel).

Point technique : Les modèles MoE (Mixtral, Large 3) chargent tous les experts en mémoire, pas seulement les experts actifs. Mixtral 8x7B (47B paramètres) nécessite donc la même VRAM qu'un modèle dense de 47B — pas 13B. C'est un piège fréquent. Pour comprendre l'architecture MoE, voir notre entrée de glossaire LLM.

Scénarios pour la santé mentale

Établissement de santé

  • Aide à la rédaction clinique souveraine : Mistral Small 3.1 sur un serveur interne pour rédiger des comptes-rendus sans fuite de données.
  • Recherche et formation : Mistral Large 3 via API pour de la recherche bibliographique, combiné à un modèle local pour le traitement de données sensibles.
  • Conformité HDS : Déploiement sur un hébergeur certifié HDS (Hébergement de Données de Santé) pour une conformité complète.

Praticien libéral

  • Ministral 8B sur un Mac : Modèle léger pour explorer des hypothèses cliniques en local, sans envoyer de données à l'extérieur.
  • Psychoéducation : Générer du matériel pédagogique (fiches, métaphores) avec un modèle local.

Recherche

  • BioMistral : Modèle communautaire basé sur Mistral 7B, pré-entraîné sur PubMed Central (CNRS Jean Zay). Strictement pour la recherche — pas pour un usage clinique de production.
  • Fine-tuning : La licence Apache 2.0 autorise l'entraînement spécialisé sur des corpus cliniques français — une impossibilité avec les modèles propriétaires.

La nuance open-weight / open-source

Comme pour GPT-OSS, les modèles Mistral sont plus précisément open-weight qu'open-source au sens strict : les poids entraînés et le code d'inférence sont publics, mais les données d'entraînement et les procédures d'alignement ne le sont pas.

Pour le clinicien, cela signifie : vous contrôlez le modèle tourne et qui accède aux données, mais vous ne pouvez pas vérifier sur quoi il a été entraîné. L'avantage européen de Mistral (culture francophone, équipe française) rend néanmoins plausible une meilleure représentation du français et des contextes européens dans les données d'entraînement — mais c'est une inférence, pas une certitude.

Limites et précautions

Compétences techniques

L'installation locale requiert un minimum de compétences techniques. Ollama simplifie considérablement le processus, mais la gestion d'un déploiement institutionnel reste un projet informatique.

Hallucinations

Un modèle local hallucine autant qu'un modèle cloud. La souveraineté porte sur les données, pas sur la fiabilité.

Pas de garde-fous intégrés

Les modèles open-weight héritent de l'alignement de base, mais les mécanismes de sécurité avancés (détection de crise, redirection urgence) doivent être implémentés par l'organisation.

Qualité variable

Les petits modèles (3B, 7B) sont nettement moins capables que les modèles frontier. Pour des tâches exigeant nuance et raisonnement (analyse clinique), privilégier Mistral Small 3.1 ou supérieur.

Notre analyse

L'écosystème open-weight de Mistral est le plus complet disponible en Europe. Il combine trois avantages que ni OpenAI (GPT-OSS) ni Meta (LLaMA) n'offrent simultanément : une entreprise européenne, un multilinguisme natif centré sur le français, et des modèles à toutes les échelles.

Pour un établissement de santé mentale français, le scénario le plus réaliste à court terme est : Mistral Small 3.1 sur un serveur interne (ou hébergeur HDS) pour l'aide à la rédaction et l'exploration clinique, complété par Le Chat Enterprise pour les usages nécessitant le modèle frontier.

La publication de Mistral Large 3 sous Apache 2.0 (décembre 2025) est un signal stratégique fort : pour la première fois, un modèle frontier européen de 675 milliards de paramètres est librement téléchargeable et utilisable par n'importe quelle institution. Même si son exécution requiert un data center, cela ouvre la voie à des déploiements souverains à l'échelle d'un GHT (Groupement Hospitalier de Territoire) ou d'une ARS (Agence Régionale de Santé).

Références

Mistral AI (2025). Introducing Mistral 3. mistral.ai/news/mistral-3.

Labrak, Y. et al. (2024). BioMistral: A Collection of Open-Source Pretrained LLMs for Medical Domains. arXiv:2402.10373.

HAS (2025). Premières clefs d'usage de l'IA générative en santé — Framework A.V.E.C.

Fiche mise à jour : février 2026

Retour aux outils IA