Veille IA

Ce que dit (et ne dit pas) la HAS sur l'IA en santé mentale

| Matthieu Ferry ⇄ IA

La HAS a publié ses premières recommandations sur l'IA en santé et lancé un programme ambitieux en psychiatrie. Mais ces deux chantiers avancent en parallèle, sans se croiser. Cartographie d'un angle mort institutionnel qui concerne directement les psychologues.

Ce que dit (et ne dit pas) la HAS sur l'IA en santé mentale

Deux chantiers, zéro intersection

En octobre 2025, la Haute Autorité de Santé publie un document inédit : ses premières recommandations sur l’usage de l’IA générative en santé, un guide pédagogique structuré autour d’un acronyme — le framework A.V.E.C. (Apprendre, Vérifier, Estimer, Communiquer). Premier cadre officiel français sur le sujet, il est largement salué.

Ce même automne, la HAS déploie son programme Santé Mentale et Psychiatrie 2025-2030, le plus ambitieux de son histoire. Pour la première fois, la santé mentale est érigée en « thématique phare », au même rang que la prévention. Neuf axes de travail, quatre ambitions structurantes, des recommandations inédites sur la schizophrénie — le programme est vaste.

Le problème : aucun de ces deux chantiers ne mentionne l’autre.

Le framework A.V.E.C. ne contient pas un mot sur la psychiatrie, la psychothérapie ou la santé mentale. Le programme santé mentale ne contient pas un mot sur l’intelligence artificielle, les thérapies numériques ou les agents conversationnels. Deux chantiers majeurs, deux silos parfaitement étanches — à l’heure où ChatGPT est utilisé par des millions de personnes pour parler de leur anxiété, de leur dépression ou de leurs traumatismes.

Ce n’est pas un reproche. C’est un constat qui mérite d’être posé clairement, parce que ses implications sont concrètes pour les cliniciens que nous sommes. Quand un patient vous demande ce que vous pensez de l’IA en psychothérapie, vous ne pouvez pas vous tourner vers la HAS pour une réponse. Il n’y en a pas — pas encore.

Un chiffre qui résume la situation

Plus de 84 chartes éthiques sur l’IA ont été publiées dans le monde depuis 2018. Aucune ne traite spécifiquement de la psychiatrie ou de la psychothérapie. La HAS ne fait pas exception : ses travaux sur l’IA et sur la santé mentale progressent en parallèle, sans convergence formelle.

Cet article cartographie la situation. Pas pour polémiquer, mais pour que les cliniciens sachent exactement ce qui existe, ce qui manque, et ce qui arrive. En huit sections, nous traverserons le paysage institutionnel français — du framework A.V.E.C. au programme santé mentale, des thérapies numériques refusées au remboursement aux projets France 2030, jusqu’aux implications directes pour votre pratique.


Ce que la HAS dit sur l’IA : le framework A.V.E.C.

Le 30 octobre 2025, la HAS publie ses « Premières clefs d’usage de l’IA générative en santé ». C’est un événement : jamais une autorité sanitaire française n’avait produit de recommandations officielles sur ChatGPT, Mistral, Claude ou tout autre système d’IA générative dans le contexte des soins.

Le document est structuré autour d’un acronyme mnémonique : A.V.E.C. — « Le bon usage de l’IA générative en santé se fait AVEC le professionnel. » Quatre piliers qui dessinent un cadre de bon usage :

A

Apprendre

S’approprier le fonctionnement des systèmes d’IA générative via des sources fiables. Comprendre les limites inhérentes — hallucinations, biais algorithmiques, dépendance aux données d’entraînement. Se former aux modalités d’utilisation et aux règles de confidentialité.

V

Vérifier

Attention à la pertinence de l’usage et à la qualité de la requête. Contrôle systématique du contenu généré. Ne jamais partager d’informations confidentielles. Traiter tout contenu généré comme potentiellement erroné — chaque sortie doit être vérifiée par le professionnel.

E

Estimer

Analyse continue de la qualité et de l’adéquation aux besoins. Évaluation du gain de temps réel vs temps de vérification — car la vérification peut annuler les gains d’efficacité. Conscience de l’impact environnemental de ces technologies.

C

Communiquer

Transparence avec les patients sur l’utilisation d’IA. Échanges avec les collègues dans une démarche d’amélioration continue. Partage d’expériences et retours — une dimension collective indispensable dans un contexte où les pratiques évoluent vite.

Citation clé — HAS, octobre 2025

« Le bon usage de l’IA générative en santé se fait AVEC le professionnel — l’IA ne remplace pas le jugement clinique, elle peut l’assister sous réserve de vérification systématique. »

Le framework est complété par une note de cadrage d’avril 2025, préparée en collaboration avec la CNIL, qui annonce des recommandations conjointes pour début 2026 sur l’IA en contexte de soins. Cette collaboration HAS/CNIL est inédite et significative : elle signale que les enjeux de protection des données personnelles sont enfin pris au sérieux dans le champ de l’IA en santé.

Ce que le framework couvre bien : l’aide à la rédaction clinique, la synthèse de littérature, l’usage professionnel des LLM comme outils d’assistance — bref, le médecin ou le soignant qui utilise ChatGPT pour préparer un compte rendu.

Ce que le framework ne couvre pas : l’usage par les patients eux-mêmes, les agents conversationnels thérapeutiques, les applications de santé mentale, les spécificités de la confidentialité des données psychologiques (RGPD article 9 sur les données sensibles). Le guide est pensé pour la médecine somatique — et il le fait bien. Mais il laisse un vide considérable pour la psychiatrie et la psychothérapie.


Ce que la HAS dit sur la santé mentale : un programme ambitieux mais analogique

Le programme Santé Mentale et Psychiatrie 2025-2030 est le troisième du genre, succédant au programme 2018-2023. Sous la présidence de Claire Compagnon, membre du collège de la HAS, il affiche une ambition sans précédent : pour la première fois, la santé mentale et la psychiatrie sont traitées comme « thématique phare », au même titre que la prévention.

L’ambition est structurée autour de neuf thématiques et de quatre ambitions :

  1. Troubles sévères : Établir enfin des recommandations pour la schizophrénie et les troubles bipolaires — inédites en France à ce jour
  2. Populations vulnérables : Enfants, adolescents, personnes âgées, handicap psychique, réfugiés
  3. Prévention : Détection précoce des conduites à risque, troubles anxio-dépressifs, conduites suicidaires
  4. Participation sociale : Déstigmatisation, rétablissement, conditions de vie

Voici les neuf thématiques retenues — et leur mention (ou non) du numérique et de l’IA :

#ThématiqueMention IA/numérique
1Schizophrénie et troubles bipolairesNon
2Santé mentale de l’enfant et de l’adolescentNon
3Droits des personnes, pair-aidance, alliance thérapeutiqueNon
4Accompagnement des familles et aidantsNon
5Santé mentale du sujet âgéNon
6Soins psychiatriques des personnes détenuesNon
7Santé mentale, psychiatrie et addictionsNon
8Troubles du neurodéveloppement (TND)Non
9Certification des établissements psychiatriquesVague*

* Seule mention du numérique dans tout le programme (voir ci-dessous).

Neuf thématiques, zéro mention de l’IA. La seule allusion au numérique est la suivante :

La seule mention du numérique dans le programme SM 2025-2030

« Les capacités du numérique et la pertinence de création de documents destinés aux usagers seront systématiquement examinées. »

Cette formulation est limitée à la création de documents, pas aux interventions thérapeutiques, au diagnostic, au suivi ou à quelque usage clinique que ce soit. Elle est aussi remarquablement vague par rapport à l’ampleur du programme.

Ce n’est pas faute de pertinence. Prenons la thématique 1 (schizophrénie) : des projets comme Emobot travaillent sur la télésurveillance IA des troubles de l’humeur, Theremia sur l’aide à la prescription d’antidépresseurs — mais aucun de ces dispositifs n’apparaît dans le programme HAS. Prenons la thématique 3 (droits des personnes, alliance thérapeutique) : l’impact de l’IA sur l’alliance thérapeutique est un enjeu clinique majeur — mais le programme n’en dit rien.

Le constat est net : le programme santé mentale HAS est pensé dans un monde analogique. C’est d’autant plus frappant que le projet stratégique HAS 2025-2030 identifie lui-même « IA et numérique en santé » comme axe prioritaire transversal. La transversalité s’arrête aux portes de la psychiatrie.


Les thérapies numériques en psychiatrie : un parcours du combattant

Si le programme santé mentale de la HAS ne parle pas d’IA, la Commission Nationale d’Évaluation des Dispositifs Médicaux (CNEDiMTS) a, elle, été saisie de deux demandes concrètes de remboursement pour des thérapies numériques en santé mentale. Les deux ont reçu un avis défavorable.

CritèreDeprexisHelloBetter Insomnie
FabricantEthypharm Digital TherapyGET.ON Institut (Allemagne)
IndicationDépression caractériséeInsomnie (TCC numérique)
Date d’évaluationDécembre 2021Juillet 2024
DécisionAvis défavorable (PECAN)Avis défavorable (PECAN)
Motif principalBénéfice clinique « léger à modéré » — insuffisant vs traitements conventionnelsDonnées insuffisantes pour étayer la présomption d’innovation
Statut en AllemagneRemboursée (DiGA)Remboursée (DiGA)

Le cas Deprexis est particulièrement éclairant. La CNEDiMTS a reconnu que l’application « peut répondre à un besoin médical mal couvert » en raison d’« inégalités importantes dans l’offre de soins et de professionnels ». Pour la dépression légère, le service attendu a même été jugé « suffisant ». Mais la commission a conclu à un bénéfice clinique insuffisant pour les formes modérées à sévères — et a rendu un avis défavorable global.

Pour HelloBetter, le schéma se répète : un dispositif déjà remboursé en Allemagne, un pilote français ayant validé l’acceptabilité, mais des données jugées insuffisantes pour étayer une « présomption d’innovation ». Un standard très élevé.

Le paradoxe CNEDiMTS

La commission reconnaît explicitement que les inégalités d’accès aux soins psychologiques justifient l’intérêt des thérapies numériques — puis refuse leur remboursement faute de preuves suffisantes selon ses propres critères. Le besoin est reconnu, la solution est refusée. Ce n’est pas incohérent — les critères d’évaluation sont ce qu’ils sont. Mais la question mérite d’être posée : ces critères, conçus pour le médicament et l’imagerie médicale, sont-ils adaptés aux interventions psychologiques numériques ?

La comparaison internationale est sévère pour la France :

CritèreFrance (CNEDiMTS)Allemagne (DiGA)
DTx psy remboursées030+ (dont Deprexis, HelloBetter)
Cadre d’évaluationCritères classiques des DM (niveau de preuve élevé)Fast-track DiGA (12 mois de preuve en conditions réelles)
Délai typePlusieurs années + risque élevé de refus12 mois (inscription provisoire) puis réévaluation
Philosophie« Prouvez d’abord, remboursez ensuite »« Remboursez pour prouver en vie réelle »

Il ne s’agit pas de dire que le modèle allemand est supérieur — le système DiGA a ses propres limites (désinscriptions pour données insuffisantes, critiques sur la qualité des apps). Mais la question est posée : comment évaluer correctement une intervention psychologique numérique quand les critères ont été pensés pour les prothèses de hanche et les scanners ? Le comparateur utilisé (soins habituels + thérapie numérique vs soins habituels seuls) change radicalement la conclusion selon qu’on compare avec « rien du tout » ou avec une TCC en présentiel — que la plupart des patients n’obtiennent jamais, faute de thérapeutes disponibles.

Pour un éclairage complémentaire sur les modèles d’évaluation des applications de santé mentale, voir notre analyse du modèle APA.


France 2030 : trois projets qui changent la donne ?

Si la HAS n’a pas encore croisé IA et santé mentale, l’État français a, lui, lancé un signal politique fort. En septembre 2025, dans le cadre du plan France 2030, trois projets lauréats de l’appel à projets « Dispositifs médicaux numériques en santé mentale » ont été annoncés, financés par BPIfrance.

1

Theremia — Aide à la décision pour les antidépresseurs

Cible : Dépression chez les jeunes adultes

Technologie : Algorithme IA co-développé avec l’INRIA, exploitant des données en vie réelle

Innovation : Réduire les délais thérapeutiques en aidant les prescripteurs à choisir le bon antidépresseur plus rapidement. Validation par cliniciens et patients.

2

Emobot (EMOCARE) — Télésurveillance passive des troubles de l’humeur

Cible : Dépression et troubles de l’humeur

Technologie : IA multimodale — analyse du visage, de la voix, du sommeil, de l’activité physique

Innovation : Premier dispositif médical de télésurveillance passive, continue et objective des troubles de l’humeur. Détection de rechutes en temps réel sans intervention du patient. Étude REMOOD en cours, vise le marquage CE.

3

Resilience / Edra PRO — Télésurveillance en psychiatrie

Cible : Épisode dépressif majeur sous traitement médicamenteux

Technologie : Suivi structuré et personnalisé, avec analyse d’impact budgétaire

Innovation : Déploiement à grande échelle de la télésurveillance psychiatrique. Étude clinique en cours pour démontrer les bénéfices cliniques et médico-économiques.

Ces projets sont prometteurs. Mais trois constats s’imposent :

Tous ciblent la dépression. Les trois projets se concentrent sur la dépression ou les troubles de l’humeur. Aucun ne traite de l’anxiété, du PTSD, des troubles du comportement alimentaire, des addictions ou de la psychose. C’est compréhensible — la dépression est le trouble le plus prévalent et le mieux documenté. Mais cela laisse d’immenses besoins non couverts.

Aucun n’est de la psychothérapie numérique. Les trois dispositifs relèvent de la télésurveillance ou de l’aide à la décision médicale. Aucun ne propose d’interaction thérapeutique directe avec le patient — pas de TCC numérique, pas de chatbot, pas d’accompagnement psychologique. C’est un choix réaliste (l’évaluation est plus facile pour la télésurveillance que pour la psychothérapie), mais qui maintient un angle mort sur les outils que les patients utilisent déjà au quotidien — ChatGPT, Replika, Character.AI.

Ils se heurteront aux mêmes critères. Dans 3 à 5 ans, ces dispositifs devront passer devant la CNEDiMTS pour obtenir un remboursement. Les mêmes critères qui ont refusé Deprexis et HelloBetter s’appliqueront. La question est ouverte : l’évaluation aura-t-elle évolué d’ici là ?


Pourquoi ça nous concerne directement

Tout ce qui précède peut sembler institutionnel, abstrait, lointain du cabinet ou de la salle de consultation. Ce n’est pas le cas. Les choix (et les non-choix) de la HAS ont des implications très concrètes pour les cliniciens en santé mentale.

Ce que le framework A.V.E.C. ne couvre pas en psychiatrie

Ce que A.V.E.C. couvreCe que A.V.E.C. ne couvre pas en psy
L’usage professionnel de l’IA (aide à la rédaction, synthèse)L’usage par le patient (ChatGPT pour sa dépression, Replika comme confident)
La vérification des contenus générésLe risque d’attachement et de transfert envers une IA conversationnelle
La confidentialité générale (ne pas saisir de données patient)La confidentialité renforcée des données psychologiques (RGPD art. 9, données sensibles)
La transparence envers le patient sur l’usage d’IAL’impact de l’IA sur l’alliance thérapeutique et le cadre de soin
La formation professionnelle continueLe consentement éclairé en situation de vulnérabilité psychique

Cinq questions sans réponse institutionnelle

1. Que dire à un patient qui utilise ChatGPT pour « parler » de sa dépression ? Le framework A.V.E.C. ne couvre que l’usage professionnel. Pour l’usage patient — celui qui se multiplie — vous êtes seul. Aucune recommandation HAS ne vous guide.

2. Comment gérer le transfert envers une IA ? Des patients développent des formes d’attachement aux agents conversationnels — projection d’empathie, attente de disponibilité permanente, sentiment de trahison quand le service change. C’est un phénomène clinique réel, documenté, et totalement absent des cadres réglementaires.

3. Quelle position sur les données psychologiques dans les LLM ? Un patient qui saisit ses pensées intrusives dans ChatGPT les confie à OpenAI. L’article 9 du RGPD classe les données de santé comme « sensibles » — mais le consentement éclairé requis est-il réellement possible ou souhaitable quand un patient en détresse utilise un outil gratuit à 2h du matin ? Une ergothérapeute en psychiatrie carcérale nous a témoigné du cas d’un patient qui, la corde en main à 3 heures du matin, a choisi de parler à ChatGPT plutôt que de passer à l’acte — « vous m’avez fourni un moyen pour ne pas mourir ». Ce cas, évidemment anecdotique, pose une question que la réglementation devra affronter : comment évaluer le coût de l’absence d’accès à ces outils en cas de régulation trop restrictive ?

4. Que change la certification 6e cycle pour la psychiatrie ? Depuis septembre 2025, les établissements psychiatriques doivent répondre à des critères numériques dans leur certification HAS — gouvernance des DM numériques, télémédecine, outils innovants avec IA. C’est le mécanisme le plus concret par lequel l’IA entre dans la psychiatrie institutionnelle. Mais le risque d’une adoption superficielle (« cocher la case ») sans réflexion éthique est réel.

5. Comment penser le numérique sans capture cognitive ? Le risque, pour les cliniciens comme pour les institutions, est d’adopter une posture défensive (tout rejeter) ou au contraire enthousiaste (tout accepter) sans l’analyse nuancée que la situation exige. Ni technophobie ni technophilie : c’est l’espace que nous tentons d’ouvrir ici.

Pour approfondir ces enjeux éthiques

Nous avons consacré plusieurs fiches concepts à ces questions. L’éthique du care offre un cadre complémentaire au principisme classique pour penser la relation patient-IA. Le consentement éclairé à l’ère de l’IA détaille les enjeux spécifiques. Notre article sur l’embedded ethics explore comment intégrer l’éthique directement dans les équipes de développement.

Pour une clarification des termes techniques souvent confondus (IA, chatbot, LLM, agent), voir notre guide terminologique. Et pour un éclairage sur les risques d’attachement aux IA, notre analyse sur les IA sycophantes explore le phénomène de la validation systématique.


Ce qui arrive : le calendrier à surveiller

L’angle mort institutionnel que nous décrivons n’est pas nécessairement permanent. Plusieurs échéances pourraient faire converger les chantiers IA et santé mentale de la HAS. Voici le calendrier à surveiller.

DÉBUT 2026

Recommandations IA en contexte de soins (HAS + CNIL)

Les recommandations conjointes HAS/CNIL, annoncées dans la note de cadrage d’avril 2025, devraient être publiées début 2026. C’est le document le plus attendu. Question clé : la psychiatrie sera-t-elle mentionnée dans le périmètre ?

2026

Référentiels de pertinence — LFSS 2026, Art. 84

La loi de financement de la Sécurité sociale 2026 confie à la HAS la création de « référentiels de pertinence » pour le financement public des systèmes d’aide à la décision. C’est le cadre qui déterminera quels outils IA seront éligibles au remboursement.

2026

Cartographie nationale des usages IA en santé

Prévue dans la Stratégie Nationale IA et Données de Santé 2025-2028. Cet état des lieux pourrait révéler l’ampleur des usages informels de l’IA en psychiatrie — et forcer la convergence institutionnelle.

SEPT. 2026

Mesures d’anticipation en psychiatrie

Le groupe de travail HAS sur les mesures d’anticipation en psychiatrie (permettre aux patients d’exprimer leurs préférences de soins à l’avance en cas de crise) rend ses conclusions en septembre 2026. Le chantier ne mentionne pas l’IA — mais les outils numériques pourraient être un vecteur naturel pour ces directives anticipées.

2027+

Résultats des projets France 2030

Theremia, Emobot et Edra PRO devraient avoir complété leurs essais cliniques et demandé le marquage CE. C’est à ce moment que la question du remboursement — et donc du passage devant la CNEDiMTS — se posera concrètement.


Notre position

Résumons. La HAS fait un travail considérable. Le framework A.V.E.C. est un premier cadre bienvenu pour l’IA générative en santé. Le programme santé mentale 2025-2030 est le plus ambitieux de l’histoire de l’institution. Les recommandations sur la schizophrénie, inédites en France, étaient attendues depuis des années.

Mais ces deux chantiers avancent en silos. Et cet angle mort a des conséquences concrètes pour les cliniciens en santé mentale, qui se trouvent sans cadre institutionnel face à des questions déjà posées par leurs patients.

Nous ne sommes ni dans la critique facile ni dans la complaisance. Nous sommes dans le constat étayé et la proposition constructive. Voici nos trois recommandations :

1

Intégrer un axe IA/numérique dans le programme Santé Mentale HAS

Le programme 2025-2030 a neuf thématiques. Aucune ne traite du numérique ou de l’IA. Nous recommandons l’ajout d’un axe transversal « numérique et IA en santé mentale » qui irriguerait les neuf thématiques existantes — pas une dixième thématique isolée, mais une dimension systématiquement examinée dans chacune des neuf. La HAS l’a d’ailleurs fait pour la certification (6e cycle) : le même principe devrait s’appliquer au programme de recommandations.

2

Adapter le framework A.V.E.C. aux spécificités de la santé mentale

Le framework A.V.E.C. est générique et pensé pour l’usage professionnel en médecine somatique. La psychiatrie et la psychothérapie posent des enjeux spécifiques qui méritent une déclinaison dédiée : vulnérabilité psychique accrue, risques d’attachement et de transfert, confidentialité renforcée (art. 9 RGPD), impact sur l’alliance thérapeutique, usage direct par les patients. Un « A.V.E.C. pour la psy » serait un outil précieux pour les cliniciens.

3

Repenser les critères CNEDiMTS pour les thérapies numériques

Deux thérapies numériques en santé mentale évaluées, deux avis défavorables. Zéro DTx psy remboursée en France, contre plus de 30 en Allemagne. Le cadre d’évaluation actuel, conçu pour les dispositifs médicaux classiques, peine à appréhender les spécificités des interventions numériques en santé mentale. La LFSS 2026 et ses « référentiels de pertinence » sont une opportunité de repenser ces critères — notamment la question du comparateur (quel est le soin de référence quand les patients n’accèdent pas au soin du tout ?) et du standard de preuve (innovation vs efficacité + accessibilité).

Ces propositions ne sont pas révolutionnaires. Elles sont pragmatiques, réalistes et directement ancrées dans les travaux en cours de la HAS. L’institution a les compétences et la légitimité pour mener ce travail — il s’agit de connecter deux chantiers qui, aujourd’hui, s’ignorent mutuellement.

En attendant, les cliniciens en santé mentale font ce qu’ils ont toujours fait : naviguer sans boussole institutionnelle dans un paysage qui change plus vite que les cadres réglementaires. C’est précisément pour les accompagner dans cette navigation que ce site existe.


Références et sources

Documents HAS

Autres sources

Lectures complémentaires sur ce site

Mots-clés

HAS réglementation santé mentale thérapies numériques éthique France A.V.E.C.