Ce que dit (et ne dit pas) la HAS sur l'IA en santé mentale
La HAS a publié ses premières recommandations sur l'IA en santé et lancé un programme ambitieux en psychiatrie. Mais ces deux chantiers avancent en parallèle, sans se croiser. Cartographie d'un angle mort institutionnel qui concerne directement les psychologues.
Deux chantiers, zéro intersection
En octobre 2025, la Haute Autorité de Santé publie un document inédit : ses premières recommandations sur l’usage de l’IA générative en santé, un guide pédagogique structuré autour d’un acronyme — le framework A.V.E.C. (Apprendre, Vérifier, Estimer, Communiquer). Premier cadre officiel français sur le sujet, il est largement salué.
Ce même automne, la HAS déploie son programme Santé Mentale et Psychiatrie 2025-2030, le plus ambitieux de son histoire. Pour la première fois, la santé mentale est érigée en « thématique phare », au même rang que la prévention. Neuf axes de travail, quatre ambitions structurantes, des recommandations inédites sur la schizophrénie — le programme est vaste.
Le problème : aucun de ces deux chantiers ne mentionne l’autre.
Le framework A.V.E.C. ne contient pas un mot sur la psychiatrie, la psychothérapie ou la santé mentale. Le programme santé mentale ne contient pas un mot sur l’intelligence artificielle, les thérapies numériques ou les agents conversationnels. Deux chantiers majeurs, deux silos parfaitement étanches — à l’heure où ChatGPT est utilisé par des millions de personnes pour parler de leur anxiété, de leur dépression ou de leurs traumatismes.
Ce n’est pas un reproche. C’est un constat qui mérite d’être posé clairement, parce que ses implications sont concrètes pour les cliniciens que nous sommes. Quand un patient vous demande ce que vous pensez de l’IA en psychothérapie, vous ne pouvez pas vous tourner vers la HAS pour une réponse. Il n’y en a pas — pas encore.
Un chiffre qui résume la situation
Plus de 84 chartes éthiques sur l’IA ont été publiées dans le monde depuis 2018. Aucune ne traite spécifiquement de la psychiatrie ou de la psychothérapie. La HAS ne fait pas exception : ses travaux sur l’IA et sur la santé mentale progressent en parallèle, sans convergence formelle.
Cet article cartographie la situation. Pas pour polémiquer, mais pour que les cliniciens sachent exactement ce qui existe, ce qui manque, et ce qui arrive. En huit sections, nous traverserons le paysage institutionnel français — du framework A.V.E.C. au programme santé mentale, des thérapies numériques refusées au remboursement aux projets France 2030, jusqu’aux implications directes pour votre pratique.
Ce que la HAS dit sur l’IA : le framework A.V.E.C.
Le 30 octobre 2025, la HAS publie ses « Premières clefs d’usage de l’IA générative en santé ». C’est un événement : jamais une autorité sanitaire française n’avait produit de recommandations officielles sur ChatGPT, Mistral, Claude ou tout autre système d’IA générative dans le contexte des soins.
Le document est structuré autour d’un acronyme mnémonique : A.V.E.C. — « Le bon usage de l’IA générative en santé se fait AVEC le professionnel. » Quatre piliers qui dessinent un cadre de bon usage :
Apprendre
S’approprier le fonctionnement des systèmes d’IA générative via des sources fiables. Comprendre les limites inhérentes — hallucinations, biais algorithmiques, dépendance aux données d’entraînement. Se former aux modalités d’utilisation et aux règles de confidentialité.
Vérifier
Attention à la pertinence de l’usage et à la qualité de la requête. Contrôle systématique du contenu généré. Ne jamais partager d’informations confidentielles. Traiter tout contenu généré comme potentiellement erroné — chaque sortie doit être vérifiée par le professionnel.
Estimer
Analyse continue de la qualité et de l’adéquation aux besoins. Évaluation du gain de temps réel vs temps de vérification — car la vérification peut annuler les gains d’efficacité. Conscience de l’impact environnemental de ces technologies.
Communiquer
Transparence avec les patients sur l’utilisation d’IA. Échanges avec les collègues dans une démarche d’amélioration continue. Partage d’expériences et retours — une dimension collective indispensable dans un contexte où les pratiques évoluent vite.
Citation clé — HAS, octobre 2025
« Le bon usage de l’IA générative en santé se fait AVEC le professionnel — l’IA ne remplace pas le jugement clinique, elle peut l’assister sous réserve de vérification systématique. »
Le framework est complété par une note de cadrage d’avril 2025, préparée en collaboration avec la CNIL, qui annonce des recommandations conjointes pour début 2026 sur l’IA en contexte de soins. Cette collaboration HAS/CNIL est inédite et significative : elle signale que les enjeux de protection des données personnelles sont enfin pris au sérieux dans le champ de l’IA en santé.
Ce que le framework couvre bien : l’aide à la rédaction clinique, la synthèse de littérature, l’usage professionnel des LLM comme outils d’assistance — bref, le médecin ou le soignant qui utilise ChatGPT pour préparer un compte rendu.
Ce que le framework ne couvre pas : l’usage par les patients eux-mêmes, les agents conversationnels thérapeutiques, les applications de santé mentale, les spécificités de la confidentialité des données psychologiques (RGPD article 9 sur les données sensibles). Le guide est pensé pour la médecine somatique — et il le fait bien. Mais il laisse un vide considérable pour la psychiatrie et la psychothérapie.
Ce que la HAS dit sur la santé mentale : un programme ambitieux mais analogique
Le programme Santé Mentale et Psychiatrie 2025-2030 est le troisième du genre, succédant au programme 2018-2023. Sous la présidence de Claire Compagnon, membre du collège de la HAS, il affiche une ambition sans précédent : pour la première fois, la santé mentale et la psychiatrie sont traitées comme « thématique phare », au même titre que la prévention.
L’ambition est structurée autour de neuf thématiques et de quatre ambitions :
- Troubles sévères : Établir enfin des recommandations pour la schizophrénie et les troubles bipolaires — inédites en France à ce jour
- Populations vulnérables : Enfants, adolescents, personnes âgées, handicap psychique, réfugiés
- Prévention : Détection précoce des conduites à risque, troubles anxio-dépressifs, conduites suicidaires
- Participation sociale : Déstigmatisation, rétablissement, conditions de vie
Voici les neuf thématiques retenues — et leur mention (ou non) du numérique et de l’IA :
| # | Thématique | Mention IA/numérique |
|---|---|---|
| 1 | Schizophrénie et troubles bipolaires | Non |
| 2 | Santé mentale de l’enfant et de l’adolescent | Non |
| 3 | Droits des personnes, pair-aidance, alliance thérapeutique | Non |
| 4 | Accompagnement des familles et aidants | Non |
| 5 | Santé mentale du sujet âgé | Non |
| 6 | Soins psychiatriques des personnes détenues | Non |
| 7 | Santé mentale, psychiatrie et addictions | Non |
| 8 | Troubles du neurodéveloppement (TND) | Non |
| 9 | Certification des établissements psychiatriques | Vague* |
* Seule mention du numérique dans tout le programme (voir ci-dessous).
Neuf thématiques, zéro mention de l’IA. La seule allusion au numérique est la suivante :
La seule mention du numérique dans le programme SM 2025-2030
« Les capacités du numérique et la pertinence de création de documents destinés aux usagers seront systématiquement examinées. »
Cette formulation est limitée à la création de documents, pas aux interventions thérapeutiques, au diagnostic, au suivi ou à quelque usage clinique que ce soit. Elle est aussi remarquablement vague par rapport à l’ampleur du programme.
Ce n’est pas faute de pertinence. Prenons la thématique 1 (schizophrénie) : des projets comme Emobot travaillent sur la télésurveillance IA des troubles de l’humeur, Theremia sur l’aide à la prescription d’antidépresseurs — mais aucun de ces dispositifs n’apparaît dans le programme HAS. Prenons la thématique 3 (droits des personnes, alliance thérapeutique) : l’impact de l’IA sur l’alliance thérapeutique est un enjeu clinique majeur — mais le programme n’en dit rien.
Le constat est net : le programme santé mentale HAS est pensé dans un monde analogique. C’est d’autant plus frappant que le projet stratégique HAS 2025-2030 identifie lui-même « IA et numérique en santé » comme axe prioritaire transversal. La transversalité s’arrête aux portes de la psychiatrie.
Les thérapies numériques en psychiatrie : un parcours du combattant
Si le programme santé mentale de la HAS ne parle pas d’IA, la Commission Nationale d’Évaluation des Dispositifs Médicaux (CNEDiMTS) a, elle, été saisie de deux demandes concrètes de remboursement pour des thérapies numériques en santé mentale. Les deux ont reçu un avis défavorable.
| Critère | Deprexis | HelloBetter Insomnie |
|---|---|---|
| Fabricant | Ethypharm Digital Therapy | GET.ON Institut (Allemagne) |
| Indication | Dépression caractérisée | Insomnie (TCC numérique) |
| Date d’évaluation | Décembre 2021 | Juillet 2024 |
| Décision | Avis défavorable (PECAN) | Avis défavorable (PECAN) |
| Motif principal | Bénéfice clinique « léger à modéré » — insuffisant vs traitements conventionnels | Données insuffisantes pour étayer la présomption d’innovation |
| Statut en Allemagne | Remboursée (DiGA) | Remboursée (DiGA) |
Le cas Deprexis est particulièrement éclairant. La CNEDiMTS a reconnu que l’application « peut répondre à un besoin médical mal couvert » en raison d’« inégalités importantes dans l’offre de soins et de professionnels ». Pour la dépression légère, le service attendu a même été jugé « suffisant ». Mais la commission a conclu à un bénéfice clinique insuffisant pour les formes modérées à sévères — et a rendu un avis défavorable global.
Pour HelloBetter, le schéma se répète : un dispositif déjà remboursé en Allemagne, un pilote français ayant validé l’acceptabilité, mais des données jugées insuffisantes pour étayer une « présomption d’innovation ». Un standard très élevé.
Le paradoxe CNEDiMTS
La commission reconnaît explicitement que les inégalités d’accès aux soins psychologiques justifient l’intérêt des thérapies numériques — puis refuse leur remboursement faute de preuves suffisantes selon ses propres critères. Le besoin est reconnu, la solution est refusée. Ce n’est pas incohérent — les critères d’évaluation sont ce qu’ils sont. Mais la question mérite d’être posée : ces critères, conçus pour le médicament et l’imagerie médicale, sont-ils adaptés aux interventions psychologiques numériques ?
La comparaison internationale est sévère pour la France :
| Critère | France (CNEDiMTS) | Allemagne (DiGA) |
|---|---|---|
| DTx psy remboursées | 0 | 30+ (dont Deprexis, HelloBetter) |
| Cadre d’évaluation | Critères classiques des DM (niveau de preuve élevé) | Fast-track DiGA (12 mois de preuve en conditions réelles) |
| Délai type | Plusieurs années + risque élevé de refus | 12 mois (inscription provisoire) puis réévaluation |
| Philosophie | « Prouvez d’abord, remboursez ensuite » | « Remboursez pour prouver en vie réelle » |
Il ne s’agit pas de dire que le modèle allemand est supérieur — le système DiGA a ses propres limites (désinscriptions pour données insuffisantes, critiques sur la qualité des apps). Mais la question est posée : comment évaluer correctement une intervention psychologique numérique quand les critères ont été pensés pour les prothèses de hanche et les scanners ? Le comparateur utilisé (soins habituels + thérapie numérique vs soins habituels seuls) change radicalement la conclusion selon qu’on compare avec « rien du tout » ou avec une TCC en présentiel — que la plupart des patients n’obtiennent jamais, faute de thérapeutes disponibles.
Pour un éclairage complémentaire sur les modèles d’évaluation des applications de santé mentale, voir notre analyse du modèle APA.
France 2030 : trois projets qui changent la donne ?
Si la HAS n’a pas encore croisé IA et santé mentale, l’État français a, lui, lancé un signal politique fort. En septembre 2025, dans le cadre du plan France 2030, trois projets lauréats de l’appel à projets « Dispositifs médicaux numériques en santé mentale » ont été annoncés, financés par BPIfrance.
Theremia — Aide à la décision pour les antidépresseurs
Cible : Dépression chez les jeunes adultes
Technologie : Algorithme IA co-développé avec l’INRIA, exploitant des données en vie réelle
Innovation : Réduire les délais thérapeutiques en aidant les prescripteurs à choisir le bon antidépresseur plus rapidement. Validation par cliniciens et patients.
Emobot (EMOCARE) — Télésurveillance passive des troubles de l’humeur
Cible : Dépression et troubles de l’humeur
Technologie : IA multimodale — analyse du visage, de la voix, du sommeil, de l’activité physique
Innovation : Premier dispositif médical de télésurveillance passive, continue et objective des troubles de l’humeur. Détection de rechutes en temps réel sans intervention du patient. Étude REMOOD en cours, vise le marquage CE.
Resilience / Edra PRO — Télésurveillance en psychiatrie
Cible : Épisode dépressif majeur sous traitement médicamenteux
Technologie : Suivi structuré et personnalisé, avec analyse d’impact budgétaire
Innovation : Déploiement à grande échelle de la télésurveillance psychiatrique. Étude clinique en cours pour démontrer les bénéfices cliniques et médico-économiques.
Ces projets sont prometteurs. Mais trois constats s’imposent :
Tous ciblent la dépression. Les trois projets se concentrent sur la dépression ou les troubles de l’humeur. Aucun ne traite de l’anxiété, du PTSD, des troubles du comportement alimentaire, des addictions ou de la psychose. C’est compréhensible — la dépression est le trouble le plus prévalent et le mieux documenté. Mais cela laisse d’immenses besoins non couverts.
Aucun n’est de la psychothérapie numérique. Les trois dispositifs relèvent de la télésurveillance ou de l’aide à la décision médicale. Aucun ne propose d’interaction thérapeutique directe avec le patient — pas de TCC numérique, pas de chatbot, pas d’accompagnement psychologique. C’est un choix réaliste (l’évaluation est plus facile pour la télésurveillance que pour la psychothérapie), mais qui maintient un angle mort sur les outils que les patients utilisent déjà au quotidien — ChatGPT, Replika, Character.AI.
Ils se heurteront aux mêmes critères. Dans 3 à 5 ans, ces dispositifs devront passer devant la CNEDiMTS pour obtenir un remboursement. Les mêmes critères qui ont refusé Deprexis et HelloBetter s’appliqueront. La question est ouverte : l’évaluation aura-t-elle évolué d’ici là ?
Pourquoi ça nous concerne directement
Tout ce qui précède peut sembler institutionnel, abstrait, lointain du cabinet ou de la salle de consultation. Ce n’est pas le cas. Les choix (et les non-choix) de la HAS ont des implications très concrètes pour les cliniciens en santé mentale.
Ce que le framework A.V.E.C. ne couvre pas en psychiatrie
| Ce que A.V.E.C. couvre | Ce que A.V.E.C. ne couvre pas en psy |
|---|---|
| L’usage professionnel de l’IA (aide à la rédaction, synthèse) | L’usage par le patient (ChatGPT pour sa dépression, Replika comme confident) |
| La vérification des contenus générés | Le risque d’attachement et de transfert envers une IA conversationnelle |
| La confidentialité générale (ne pas saisir de données patient) | La confidentialité renforcée des données psychologiques (RGPD art. 9, données sensibles) |
| La transparence envers le patient sur l’usage d’IA | L’impact de l’IA sur l’alliance thérapeutique et le cadre de soin |
| La formation professionnelle continue | Le consentement éclairé en situation de vulnérabilité psychique |
Cinq questions sans réponse institutionnelle
1. Que dire à un patient qui utilise ChatGPT pour « parler » de sa dépression ? Le framework A.V.E.C. ne couvre que l’usage professionnel. Pour l’usage patient — celui qui se multiplie — vous êtes seul. Aucune recommandation HAS ne vous guide.
2. Comment gérer le transfert envers une IA ? Des patients développent des formes d’attachement aux agents conversationnels — projection d’empathie, attente de disponibilité permanente, sentiment de trahison quand le service change. C’est un phénomène clinique réel, documenté, et totalement absent des cadres réglementaires.
3. Quelle position sur les données psychologiques dans les LLM ? Un patient qui saisit ses pensées intrusives dans ChatGPT les confie à OpenAI. L’article 9 du RGPD classe les données de santé comme « sensibles » — mais le consentement éclairé requis est-il réellement possible ou souhaitable quand un patient en détresse utilise un outil gratuit à 2h du matin ? Une ergothérapeute en psychiatrie carcérale nous a témoigné du cas d’un patient qui, la corde en main à 3 heures du matin, a choisi de parler à ChatGPT plutôt que de passer à l’acte — « vous m’avez fourni un moyen pour ne pas mourir ». Ce cas, évidemment anecdotique, pose une question que la réglementation devra affronter : comment évaluer le coût de l’absence d’accès à ces outils en cas de régulation trop restrictive ?
4. Que change la certification 6e cycle pour la psychiatrie ? Depuis septembre 2025, les établissements psychiatriques doivent répondre à des critères numériques dans leur certification HAS — gouvernance des DM numériques, télémédecine, outils innovants avec IA. C’est le mécanisme le plus concret par lequel l’IA entre dans la psychiatrie institutionnelle. Mais le risque d’une adoption superficielle (« cocher la case ») sans réflexion éthique est réel.
5. Comment penser le numérique sans capture cognitive ? Le risque, pour les cliniciens comme pour les institutions, est d’adopter une posture défensive (tout rejeter) ou au contraire enthousiaste (tout accepter) sans l’analyse nuancée que la situation exige. Ni technophobie ni technophilie : c’est l’espace que nous tentons d’ouvrir ici.
Pour approfondir ces enjeux éthiques
Nous avons consacré plusieurs fiches concepts à ces questions. L’éthique du care offre un cadre complémentaire au principisme classique pour penser la relation patient-IA. Le consentement éclairé à l’ère de l’IA détaille les enjeux spécifiques. Notre article sur l’embedded ethics explore comment intégrer l’éthique directement dans les équipes de développement.
Pour une clarification des termes techniques souvent confondus (IA, chatbot, LLM, agent), voir notre guide terminologique. Et pour un éclairage sur les risques d’attachement aux IA, notre analyse sur les IA sycophantes explore le phénomène de la validation systématique.
Ce qui arrive : le calendrier à surveiller
L’angle mort institutionnel que nous décrivons n’est pas nécessairement permanent. Plusieurs échéances pourraient faire converger les chantiers IA et santé mentale de la HAS. Voici le calendrier à surveiller.
Recommandations IA en contexte de soins (HAS + CNIL)
Les recommandations conjointes HAS/CNIL, annoncées dans la note de cadrage d’avril 2025, devraient être publiées début 2026. C’est le document le plus attendu. Question clé : la psychiatrie sera-t-elle mentionnée dans le périmètre ?
Référentiels de pertinence — LFSS 2026, Art. 84
La loi de financement de la Sécurité sociale 2026 confie à la HAS la création de « référentiels de pertinence » pour le financement public des systèmes d’aide à la décision. C’est le cadre qui déterminera quels outils IA seront éligibles au remboursement.
Cartographie nationale des usages IA en santé
Prévue dans la Stratégie Nationale IA et Données de Santé 2025-2028. Cet état des lieux pourrait révéler l’ampleur des usages informels de l’IA en psychiatrie — et forcer la convergence institutionnelle.
Mesures d’anticipation en psychiatrie
Le groupe de travail HAS sur les mesures d’anticipation en psychiatrie (permettre aux patients d’exprimer leurs préférences de soins à l’avance en cas de crise) rend ses conclusions en septembre 2026. Le chantier ne mentionne pas l’IA — mais les outils numériques pourraient être un vecteur naturel pour ces directives anticipées.
Résultats des projets France 2030
Theremia, Emobot et Edra PRO devraient avoir complété leurs essais cliniques et demandé le marquage CE. C’est à ce moment que la question du remboursement — et donc du passage devant la CNEDiMTS — se posera concrètement.
Notre position
Résumons. La HAS fait un travail considérable. Le framework A.V.E.C. est un premier cadre bienvenu pour l’IA générative en santé. Le programme santé mentale 2025-2030 est le plus ambitieux de l’histoire de l’institution. Les recommandations sur la schizophrénie, inédites en France, étaient attendues depuis des années.
Mais ces deux chantiers avancent en silos. Et cet angle mort a des conséquences concrètes pour les cliniciens en santé mentale, qui se trouvent sans cadre institutionnel face à des questions déjà posées par leurs patients.
Nous ne sommes ni dans la critique facile ni dans la complaisance. Nous sommes dans le constat étayé et la proposition constructive. Voici nos trois recommandations :
Intégrer un axe IA/numérique dans le programme Santé Mentale HAS
Le programme 2025-2030 a neuf thématiques. Aucune ne traite du numérique ou de l’IA. Nous recommandons l’ajout d’un axe transversal « numérique et IA en santé mentale » qui irriguerait les neuf thématiques existantes — pas une dixième thématique isolée, mais une dimension systématiquement examinée dans chacune des neuf. La HAS l’a d’ailleurs fait pour la certification (6e cycle) : le même principe devrait s’appliquer au programme de recommandations.
Adapter le framework A.V.E.C. aux spécificités de la santé mentale
Le framework A.V.E.C. est générique et pensé pour l’usage professionnel en médecine somatique. La psychiatrie et la psychothérapie posent des enjeux spécifiques qui méritent une déclinaison dédiée : vulnérabilité psychique accrue, risques d’attachement et de transfert, confidentialité renforcée (art. 9 RGPD), impact sur l’alliance thérapeutique, usage direct par les patients. Un « A.V.E.C. pour la psy » serait un outil précieux pour les cliniciens.
Repenser les critères CNEDiMTS pour les thérapies numériques
Deux thérapies numériques en santé mentale évaluées, deux avis défavorables. Zéro DTx psy remboursée en France, contre plus de 30 en Allemagne. Le cadre d’évaluation actuel, conçu pour les dispositifs médicaux classiques, peine à appréhender les spécificités des interventions numériques en santé mentale. La LFSS 2026 et ses « référentiels de pertinence » sont une opportunité de repenser ces critères — notamment la question du comparateur (quel est le soin de référence quand les patients n’accèdent pas au soin du tout ?) et du standard de preuve (innovation vs efficacité + accessibilité).
Ces propositions ne sont pas révolutionnaires. Elles sont pragmatiques, réalistes et directement ancrées dans les travaux en cours de la HAS. L’institution a les compétences et la légitimité pour mener ce travail — il s’agit de connecter deux chantiers qui, aujourd’hui, s’ignorent mutuellement.
En attendant, les cliniciens en santé mentale font ce qu’ils ont toujours fait : naviguer sans boussole institutionnelle dans un paysage qui change plus vite que les cadres réglementaires. C’est précisément pour les accompagner dans cette navigation que ce site existe.
Références et sources
Documents HAS
- Framework A.V.E.C. — Premières clefs d’usage de l’IA générative en santé (oct. 2025, MAJ déc. 2025)
- Communiqué A.V.E.C. — Premières clefs d’usage de l’IA générative en santé (oct. 2025)
- Note de cadrage — IA en contexte de soins : accompagner les usages (avr. 2025)
- Programme SM — Santé mentale et psychiatrie 2025-2030 (2025)
- Grille DM IA — Grille d’évaluation des DM avec IA (2020, MAJ 2022)
- Deprexis — Évaluation CNEDiMTS (déc. 2021)
- HelloBetter — Évaluation CNEDiMTS (juil. 2024)
- Certification 6e cycle — Critères numériques (sept. 2025)
- Mesures d’anticipation — Travaux en psychiatrie (2025-2026)
- Projet stratégique HAS — 2025-2030 (2025)
Autres sources
- France 2030 — AAP Dispositifs médicaux numériques en santé mentale (sept. 2025)
- Stratégie Nationale — IA et données de santé 2025-2028
- Santé Mentale Magazine — La santé mentale, thématique phare pour la HAS (fév. 2025)
Lectures complémentaires sur ce site
Mots-clés