Ce que le guide HAS-CNIL révèle (et ce qu'il cache) sur l'IA en psychothérapie
Le guide HAS-CNIL sur l'IA en santé (février 2026) ne mentionne ni la psychothérapie ni la santé mentale. Trois angles morts critiques pour les psychologues : le consentement, le secret professionnel, la conscience situationnelle. Analyse et outils concrets.
Source analysée
https://www.cnil.fr/sites/default/files/2026-03/guide_has_cnil_recommandations_ia.pdf
En tant que psychologue clinicien, j’attendais beaucoup du premier guide officiel français sur l’IA en santé. Soixante pages, co-signées par la Haute Autorité de Santé et la CNIL, articulant le Règlement européen sur l’IA (dit « AI Act »), le RGPD et le Code de la Santé Publique. Un travail sérieux qui pose des fondations nécessaires.
Et puis j’ai cherché notre pratique. La psychothérapie. Le soin psychique. La relation thérapeutique. Rien.
Le mot « psychothérapie » n’apparaît pas une seule fois dans le guide HAS-CNIL publié en février 2026. Le mot « santé mentale » non plus, en tant que domaine spécifique. Pourtant, le document prétend couvrir « le contexte de soins » dans sa globalité.
Si vous avez ressenti un malaise en le lisant — l’impression diffuse que ce texte ne vous concerne pas vraiment, que les situations qu’il décrit ne ressemblent pas à ce que vous vivez en cabinet — ce malaise est fondé. Ce n’est pas un défaut de lecture de votre part. C’est un angle mort du guide.
Cet article prolonge notre précédente analyse : Ce que dit (et ne dit pas) la HAS sur l’IA en santé mentale. Le guide conjoint HAS-CNIL de février 2026 confirme et amplifie l’angle mort institutionnel que nous avions identifié.
Ce que le guide dit — et dit bien
Le guide articule clairement le triptyque réglementaire. Il structure les niveaux de risque des systèmes d’IA. Il rappelle que « le professionnel de santé reste entièrement responsable, même lorsque l’acte est accompli avec l’assistance d’un SIA. » Il insiste sur la formation, la transparence, la vigilance.
Autrement dit, le guide assigne au clinicien le rôle de tampon encreur : valider, apposer son sceau d’expertise humaine sur les outputs de l’IA, garantir la conformité. Le problème n’est pas que ce tampon manque d’encre — c’est que cette position même réduit le professionnel à un validateur passif, là où le soin psychique exige un co-constructeur actif.
Le coût de cet angle mort
Ce vide n’est pas un oubli académique. C’est un espace dans lequel s’engouffrent déjà des usages non encadrés.
440 000
connexions à des IA génératives personnelles par des agents hospitaliers en un seul mois au CHU de Nancy1
C’est ce phénomène que nous avons proposé d’analyser à l’aide d’un cadre théorique adapté dans un article à paraître3. Pendant que le guide régule un usage idéal, l’usage réel le dépasse déjà.
Le contrôle humain vu comme un tampon encreur
Nommer le problème : le Contrôle Humain Fictif
Le guide fait du contrôle humain sa pierre angulaire. Il prescrit un contrôle « signifiant » qui doit permettre au professionnel de « comprendre les capacités et limites du système, de détecter des anomalies, d’éviter les biais d’automatisation, d’interpréter correctement les résultats. »
Mais cette exigence présuppose un modèle précis : celui du radiologue qui supervise un outil de détection. En psychothérapie, ce modèle est structurellement inadapté. La relation thérapeutique n’est pas un protocole qu’on applique à un output algorithmique. Elle EST le vecteur du soin.
Ce décalage a un nom. Nous l’appelons le Contrôle Humain Fictif : cette situation où le contrôle humain sur un système d’IA est formellement exercé — procédures, validation, supervision documentée — mais cognitivement vide. L’opérateur approuve sans comprendre, surveille sans saisir, valide sans capacité réelle d’intervention critique.
Ce n’est pas un argument contre le contrôle humain. C’est un constat : certains dispositifs de contrôle sont des fictions organisationnelles qui donnent l’illusion de la maîtrise.
Le Contrôle Humain Fictif repose sur cinq mécanismes convergents :
1. Présence formelle sans substance cognitive
Le clinicien coche une case de validation mais ne dispose ni du temps ni de l’expertise technique pour évaluer réellement ce que l’outil produit.
Tendance documentée à traiter les recommandations algorithmiques comme des décisions déjà prises plutôt que comme des suggestions à évaluer4.
3. Dégradation de la conscience situationnelle
Plus on délègue à l’outil, plus on perd la capacité d’intervenir le jour où c’est nécessaire5.
4. Écart de responsabilité diffus
Quand personne — ni le concepteur, ni le déployeur, ni le clinicien — ne peut être tenu pleinement responsable d’un résultat néfaste6.
5. Effet de légitimation institutionnelle
La présence formelle d’un humain dans la boucle rend le contrôle fictif autoprotecteur — le dossier prouve que la supervision a eu lieu.
Le biais d’automatisation en séance
Imaginons une situation concrète. Un psychologue utilise un outil d’IA qui analyse les réponses d’un patient au PHQ-9 et génère un profil de risque : « risque modéré, orientation TCC recommandée. » Le score semble cohérent avec son impression clinique.
Le risque n’est pas que l’IA se trompe grossièrement. Le risque est que l’IA ait à peu près raison, et que le clinicien cesse de mobiliser son propre jugement sur les nuances que l’algorithme ne capture pas : le ton de voix du patient, l’hésitation sur certaines questions, le contexte relationnel qui colore les réponses. Le score devient un diagnostic plutôt qu’un signal à contextualiser cliniquement.
Ce glissement est d’autant plus insidieux qu’il est invisibilisé par un paradoxe social documenté par la recherche :
| Ce que les études mesurent | Score | Source |
|---|---|---|
| Favorabilité des psychothérapeutes envers l’IA (auto-évaluation) | 4,30 / 7 | Wagner & Schwind, 20257 |
| Score attribué par les thérapeutes au soutien empathique par IA | 1,77 / 6 | Wagner & Schwind, 20257 |
| Compétence d’un clinicien utilisant l’IA, jugée par ses pairs | 3,79 / 7 | Yang et al., 20258 |
| Compétence d’un clinicien sans IA, jugée par ses pairs | 5,93 / 7 | Yang et al., 20258 |
Le résultat ? Une double contrainte. Le clinicien ne peut ni adopter ouvertement l’IA (sous peine de perte de crédibilité professionnelle) ni la refuser complètement (elle est déjà dans son environnement de travail). La conséquence prévisible — et déjà observable — est un usage discret, non supervisé, non discuté entre pairs. Exactement le terreau dans lequel le Contrôle Humain Fictif prospère.
Trois angles morts qui changent tout pour le psy
Le consentement n’est pas le même en psychothérapie
Le guide recommande de NE PAS exiger de consentement spécifique pour l’usage d’un SIA en soin courant, arguant du « déséquilibre de la relation patient-professionnel. » En médecine somatique, cet argument peut se tenir.
En psychothérapie, le cadre est qualitativement différent. La relation de confiance n’est pas un contexte du soin — elle est le soin.
Le transfert thérapeutique est actif. L’asymétrie relationnelle n’est pas un biais à compenser par un formulaire — elle est le levier même du processus thérapeutique. Introduire un tiers algorithmique dans cette relation sans un consentement qui prenne en compte ces dimensions spécifiques, c’est modifier le cadre du soin en prétendant ne modifier que l’outil.
Le secret professionnel est une condition du soin, pas seulement une obligation légale
Pour un psychothérapeute, le secret professionnel est la condition même du processus thérapeutique. Sans garantie de confidentialité absolue, pas de parole libre. Sans parole libre, pas de transfert. Sans transfert, pas de soin psychique au sens clinique du terme.
Quand un professionnel de santé mentale utilise un LLM grand public pour reformuler une note clinique ou explorer une hypothèse diagnostique, des fragments de matériel clinique — potentiellement identifiants, toujours intimes — transitent par des serveurs dont le modèle économique repose sur l’exploitation des données. Le guide traite la confidentialité comme un enjeu RGPD standard. En psychothérapie, c’est un enjeu de structure du soin.
Les données psychologiques sont identifiantes par leur contenu même — la combinaison d’un diagnostic, d’un contexte familial et d’une dynamique relationnelle suffit souvent à identifier un patient, nom ou pas.
La conscience situationnelle EST le soin
Mica Endsley a théorisé la perte de conscience situationnelle liée à l’automatisation — le problème « out-of-the-loop »5. Quand un opérateur est cantonné à un rôle de surveillance passive, ses compétences de compréhension active se détériorent progressivement.
Dans la plupart des domaines, cette perte est un risque à gérer. En psychothérapie, c’est une catastrophe structurelle.
Car la conscience situationnelle du clinicien n’est pas un complément au soin — elle est le soin lui-même. L’attention flottante freudienne, la résonance empathique rogérienne, l’ajustement micro-comportemental de l’alliance thérapeutique — tout cela requiert une présence cognitive active, soutenue, irremplaçable.
Un psychothérapeute « out-of-the-loop » n’est plus un psychothérapeute. Il est un opérateur qui tamponnerait des outputs algorithmiques avec le sceau de l’expertise clinique.
Mais — et c’est essentiel — cela ne signifie pas que toute IA en psychothérapie soit à proscrire. Cela signifie que le cadre réglementaire n’est pas encore à la hauteur de la spécificité de notre pratique. Et c’est aux cliniciens de le signaler.
Refuser la place du tampon encreur
Trois niveaux d’usage, trois cadres différents
Pour dépasser le réflexe binaire « adopter ou refuser », il est utile de distinguer trois niveaux :
Niveau 1 — Usage administratif pur
Gestion d’agenda, facturation, documentation non clinique. Risque faible pour la relation thérapeutique. Cadre RGPD standard applicable.
Niveau 2 — Usage clinique indirect
Revue de littérature, préparation de séance, exploration d’hypothèses — mais aussi transcription de séances et aide à la rédaction de comptes-rendus. Attention : la transcription automatique n’est pas un simple acte administratif en psychothérapie. Le patient qui sait qu’une IA « écoute » sa séance peut modifier son dévoilement, activer des biais d’auto-présentation, ou inhiber l’expression de contenus intimes.
Niveau 3 — Usage clinique direct
Outil utilisé en séance, chatbot proposé au patient, scoring psychométrique automatisé. Cadre déontologique complet requis : consentement spécifique et éclairé, supervision entre pairs, évaluation régulière de l’impact sur l’alliance thérapeutique.
Cinq questions avant d’utiliser un outil IA dans votre pratique
Pour transformer le contrôle humain fictif en contrôle signifiant :
1. Est-ce que je comprends ce que cet outil fait réellement ?
Pas « ce qu’il prétend faire » sur sa page marketing, mais son fonctionnement effectif, ses données d’entraînement, ses limites documentées.
2. Est-ce que je pourrais arriver à cette conclusion sans l’outil ?
Si la réponse est non, le risque de biais d'automatisation est maximal. L’outil doit enrichir une compétence que vous avez déjà.
3. Est-ce que mon patient sait qu’un outil IA intervient dans son parcours de soin ?
Et cette information a-t-elle été donnée dans un contexte qui permet un vrai choix — pas un formulaire de plus.
4. Est-ce que les données traitées pourraient compromettre le cadre thérapeutique si elles étaient exposées ?
Si oui, l’outil doit garantir un niveau de confidentialité au moins équivalent à celui que vous assurez dans votre cabinet.
5. Est-ce que j’utilise cet outil pour accélérer mon travail ou pour améliorer le soin ?
L’accélération peut être légitime. Mais si l’outil modifie la qualité de votre attention au patient, c’est le soin lui-même qui est en jeu.
Du validateur passif au praticien-chercheur
Le guide dessine implicitement un modèle du clinicien comme opérateur : il reçoit des outputs d’IA, les valide selon un protocole, et reste « responsable. » Ce modèle n’est pas seulement inadapté à la psychothérapie — il est en dessous de ce que les cliniciens font déjà.
Les praticiennes que nous avons interviewées dans le cadre de nos recherches — comme Béatrice Pérez-Dandieu (directrice du CEFTI, spécialiste de la thérapie des schémas) et Dre Isabelle Leboeuf (psychologue clinicienne, autrice et chercheuse, spécialiste CFT/CMT) — exercent un rapport à l’IA qui n’a rien du rubber-stamping. C’est le discernement clinique forgé par l’expérience, pas le protocole, qui distingue dans leur pratique l’usage pertinent de l’usage risqué.
Ce modèle d’intégration délibérée — ce que nous appelons l’hybridation cognitive — est l’horizon vers lequel nous pouvons collectivement tendre. Le praticien-chercheur qui comprend les mécanismes de l’IA, évalue ses effets, et préserve dans chaque usage la primauté de la relation thérapeutique.
Conclusion
Le guide HAS-CNIL pose des fondations solides, mais son absence de spécificité santé mentale révèle un présupposé plus large : que le soin psychique peut être cadré comme le soin somatique. L’un traite des organes, l’autre traite par la relation. Ce n’est pas le même métier, et ce ne peut pas être le même cadre.
Il est temps de refuser la place du tampon encreur. Non pas en rejetant l’IA, mais en redéfinissant notre rôle face à elle — de validateur passif à co-constructeur d’une dynamique hybride.
La posture que cet article défend est celle du praticien-chercheur : un clinicien qui intègre délibérément l’IA dans sa réflexion et sa pratique, en comprenant ses mécanismes, en évaluant ses effets, et en ne cédant jamais sur la primauté de la relation. Ce n’est pas une position « entre deux extrêmes » — c’est une position qui demande davantage d’exigence que chacun des deux, parce qu’elle refuse de simplifier la complexité du terrain et le dialogue auquel cette complexité invite.
Le guide HAS-CNIL est un point de départ. Ce sont les cliniciens qui écriront la suite.
Les grands absents du guide : les usagers
Un dernier point mérite d’être soulevé. Le guide a été élaboré à partir d’auditions de parties prenantes, d’un groupe de travail pluridisciplinaire et d’une consultation publique. Mais les principaux concernés — les patients eux-mêmes — semblent remarquablement absents de ce processus. Le texte parle pour eux (information loyale, droit d’opposition, protection des données), mais jamais avec eux. Ils apparaissent comme objets de protection, rarement comme agents capables de formuler leurs propres attentes face à l’IA dans leur parcours de soin.
Cette absence est d’autant plus frappante que, rappelons-le, près de la moitié des utilisateurs de LLM en détresse les utilisent déjà spontanément comme soutien psychologique — sans attendre ni le cadre réglementaire, ni l’avis des professionnels.
Quand les patients agissent massivement avant que les institutions ne les consultent, la question n’est plus seulement déontologique : elle est démocratique.
Nous y reviendrons dans un prochain article.
Références
-
Haute Autorité de Santé & CNIL. (2026). Accompagner le bon usage des systèmes d’intelligence artificielle en contexte de soins. Document de travail, 16 février 2026. ↩
-
Rousmaniere, T., Zhang, Y., Li, X. & Shah, S. (2025). Large language models as mental health resources: Patterns of use in the United States. Practice Innovations. https://doi.org/10.1037/pri0000292 ↩
-
Ferry, M. & Malo, R. (2026, en review). The Pocket Therapist: Emergence of a Clinical Phenomenon and Proposal of an Analytical Schema-Therapy Framework. Manuscrit soumis pour publication. ↩
-
Parasuraman, R. & Manzey, D. H. (2010). Complacency and Bias in Human Use of Automation: An Attentional Integration. Human Factors, 52(3), 381-410. https://doi.org/10.1177/0018720810376055 ↩
-
Endsley, M. R. & Kiris, E. O. (1995). The Out-of-the-Loop Performance Problem and Level of Control in Automation. Human Factors, 37(2), 381-394. https://doi.org/10.1518/001872095779064555 ↩ ↩2
-
Sparrow, R. (2007). Killer Robots. Journal of Applied Philosophy, 24(1), 62-77. https://doi.org/10.1111/j.1468-5930.2007.00346.x ↩
-
Wagner, J. & Schwind, A.-S. (2025). Investigating psychotherapists’ attitudes towards artificial intelligence in psychotherapy. BMC Psychology, 13(1), 719. https://doi.org/10.1186/s40359-025-03071-7 ↩ ↩2
-
Yang, H., Dai, T., Mathioudakis, N., Knight, A. M., Nakayasu, Y. & Wolf, R. M. (2025). Peer perceptions of clinicians using generative AI in medical decision-making. npj Digital Medicine, 8(1), 530. https://doi.org/10.1038/s41746-025-01901-x ↩ ↩2
Mots-clés