Open-weight Hébergement local possible Licence Apache 2.0

GPT-OSS

OpenAI — Publié en août 2025

En bref : GPT-OSS est la première famille de modèles de langage à raisonnement publiée par OpenAI sous licence ouverte (Apache 2.0). Contrairement à ChatGPT, ces modèles peuvent être téléchargés et exécutés sur vos propres machines — ce qui ouvre la possibilité d'un usage en environnement maîtrisé, sans qu'aucune donnée ne quitte votre infrastructure. Pour les cliniciens, c'est un changement de paradigme : la question n'est plus seulement « l'IA est-elle fiable ? » mais aussi « puis-je la faire tourner chez moi ? ».

Identité

Éditeur : OpenAI (San Francisco, États-Unis)

Publication : Août 2025

Variantes : gpt-oss-120b (117B param.) / gpt-oss-20b (21B param.)

Type : Grand modèle de langage (LLM) avec raisonnement

Licence : Apache 2.0 (usage commercial autorisé)

Architecture : Mixture-of-Experts (MoE)

Contexte : 128 000 tokens

Exécution locale : gpt-oss-20b → 16 Go de VRAM (GPU grand public)

Ce que fait GPT-OSS (en clair)

GPT-OSS fonctionne sur le même principe que ChatGPT : c'est un modèle de langage qui génère du texte en prédisant statistiquement le mot suivant. La différence fondamentale est son mode de distribution : les poids du modèle sont publiquement téléchargeables, ce qui signifie que n'importe quelle organisation peut l'installer et le faire tourner sur ses propres serveurs.

Deux variantes

120B

gpt-oss-120b

117 milliards de paramètres (5,1 milliards actifs par requête grâce à l'architecture MoE). Nécessite un GPU de type H100. Performances proches des modèles propriétaires haut de gamme.

20B

gpt-oss-20b

21 milliards de paramètres (3,6 milliards actifs). Fonctionne avec 16 Go de VRAM — soit un GPU grand public de type RTX 4080 ou équivalent. C'est la variante la plus accessible pour une installation locale.

La spécificité technique de GPT-OSS est son raisonnement ajustable : le modèle peut activer une « chaîne de pensée » interne sur trois niveaux (bas, moyen, élevé), ce qui lui permet d'adapter la profondeur de son analyse à la complexité de la question posée.

Open-weight ≠ open-source : une distinction à connaître

Le terme « open-source » est fréquemment utilisé de manière abusive dans le domaine de l'IA. Il est important de comprendre ce que GPT-OSS offre réellement — et ce qu'il ne rend pas accessible.

Ce qui est ouvert (open-weight)

  • • Les poids du modèle (paramètres entraînés)
  • • Le code d'inférence (pour exécuter le modèle)
  • • La licence Apache 2.0 (usage commercial libre)
  • • La documentation technique (model card)

Ce qui reste fermé

  • • Les données d'entraînement
  • • Le code d'entraînement
  • • Les procédures d'alignement (RLHF)
  • • Les évaluations internes complètes

Pourquoi c'est important pour les cliniciens : Un modèle open-weight peut être audité partiellement (ses sorties, ses biais observables), mais pas entièrement (on ne sait pas exactement sur quoi il a été entraîné). Vous pouvez contrôler il tourne et qui accède aux données, mais pas vérifier la totalité de ce qu'il a appris. Voir notre entrée de glossaire Open Source / Open Weights.

L'intérêt d'un modèle en local

Quand vous utilisez ChatGPT, vos requêtes transitent par les serveurs d'OpenAI aux États-Unis. Avec un modèle open-weight comme GPT-OSS, il devient techniquement possible de faire tourner l'IA sur un serveur local (au sein d'un établissement de santé, d'un hébergeur certifié HDS, ou même sur un poste de travail équipé). Aucune donnée ne quitte votre infrastructure.

Scénarios concrets en santé mentale

  • Aide à la rédaction clinique souveraine : rédiger des comptes-rendus ou synthèses de séance sans envoyer de données patient vers un cloud étranger.
  • Exploration de cas cliniques : tester des hypothèses diagnostiques ou des stratégies thérapeutiques avec un LLM local, en toute confidentialité.
  • Recherche et formation : entraîner du personnel ou conduire des études pilotes sur des interactions patient-IA sans dépendance à un fournisseur extérieur.
  • Conformité réglementaire : l'hébergement local facilite la conformité au RGPD (art. 9, données sensibles) et aux exigences de l'hébergement de données de santé (HDS).

Attention : L'installation locale ne rend pas automatiquement l'usage « sûr ». Un modèle local peut toujours produire des hallucinations, des biais ou des réponses inappropriées. Le contrôle porte sur la confidentialité des données, pas sur la fiabilité des réponses. Les mêmes exigences de vérification s'appliquent — le cadre A.V.E.C. de la HAS reste pertinent, que le modèle tourne sur un cloud américain ou dans votre établissement.

Limites et réalisme

Compétences techniques requises

Installer et faire tourner un LLM en local n'est pas un geste anodin. Cela requiert des compétences en administration système, du matériel adapté (GPU avec suffisamment de VRAM) et une maintenance continue. Ce n'est pas (encore) à portée du clinicien individuel — mais plutôt des DSI d'établissements ou de prestataires spécialisés.

Performances inférieures aux modèles propriétaires

GPT-OSS est compétitif mais reste en retrait par rapport aux versions commerciales les plus avancées (GPT-5, Claude Opus). Pour des tâches exigeant la plus haute qualité de raisonnement, le compromis confidentialité/performance doit être évalué au cas par cas.

Pas de garde-fous intégrés

Contrairement à ChatGPT qui intègre des mécanismes de sécurité (détection de crise, redirection vers le 3114), un modèle exécuté en local hérite uniquement de l'alignement intégré lors de l'entraînement. Les garde-fous supplémentaires doivent être implémentés par l'organisation.

Opacité résiduelle

Même avec les poids ouverts, les données d'entraînement restent inconnues. On ne peut pas vérifier si le modèle a été exposé à des sources cliniques de qualité ou à des contenus problématiques. L'ouverture est partielle.

Notre analyse

GPT-OSS représente un tournant dans l'accessibilité des modèles de langage avancés. Pour la première fois, OpenAI — l'éditeur de ChatGPT, le plus utilisé des LLM — publie un modèle à raisonnement que n'importe quelle institution peut héberger sur ses propres serveurs.

Pour les établissements de santé mentale, c'est une opportunité stratégique. Le principal frein éthique à l'usage des LLM en clinique — l'envoi de données sensibles vers des serveurs étrangers — peut théoriquement être levé avec un hébergement local ou souverain. GPT-OSS et ses équivalents (LLaMA de Meta, Mistral de Mistral AI) dessinent un paysage où le clinicien n'est plus captif d'un fournisseur unique.

Mais il faut rester lucide. La souveraineté des données ne résout pas la question de la fiabilité clinique. Un modèle local peut halluciner tout autant qu'un modèle cloud. Il peut renforcer des biais, valider des ruminations, ou produire des recommandations inappropriées. Le cadre d'usage prudent — vérification systématique, transparence, supervision humaine — s'applique identiquement.

La vraie promesse de GPT-OSS n'est pas l'autonomie technologique. C'est la possibilité d'expérimenter sous contrôle : tester des usages, évaluer des scénarios, former des équipes, mener des recherches — le tout sans dépendance à un tiers et sans risque pour la confidentialité des patients. C'est un outil de recherche et d'exploration avant d'être un outil clinique.

GPT-OSS vs ChatGPT : comparaison rapide

Critère ChatGPT GPT-OSS
Hébergement Serveurs OpenAI (USA) Local ou cloud au choix
Données patient Transitent vers l'extérieur Restent en interne
Qualité des réponses Supérieure (GPT-5) Compétitive (120B) / Honorable (20B)
Garde-fous Intégrés (3114, disclaimers) À implémenter soi-même
Accessibilité Immédiate (navigateur web) Compétences techniques requises
Coût Gratuit / 20 $/mois Gratuit (modèle) + coût matériel/infra

Autres modèles open-weight notables

GPT-OSS n'est pas le seul modèle open-weight. L'écosystème est dynamique :

LLaMA 4 (Meta)

Famille de modèles open-weight de Meta, utilisée comme base de nombreuses implémentations tierces. Large communauté et écosystème d'outils.

Mistral (Mistral AI)

Éditeur français, modèles multilingues performants. Argument de souveraineté européenne fort pour les institutions de santé soumises au RGPD.

DeepSeek (DeepSeek AI)

Modèles chinois open-weight très performants (DeepSeek-V3, R1). À noter : la question de la provenance et de l'alignement se pose différemment selon l'éditeur.

Références

OpenAI (2025). GPT-OSS Model Card. arXiv:2508.10925.

Isola, P. et al. (2025). GPT-OSS: Open-Weight Reasoning Models from OpenAI. OpenAI Technical Report.

HAS (2025). Premières clefs d'usage de l'IA générative en santé — Framework A.V.E.C.

Fiche mise à jour : février 2026

Retour aux outils IA