Ce que quatre psychologues TCC font vraiment avec ChatGPT
L'étude menée par Luc Garczynski à l'Université de Montréal a interviewé quatre psychologues TCC québécois sur leurs usages réels de ChatGPT en cabinet. Nous présentons ensemble ce qu'il y a trouvé : un protocole spontané en trois temps, un usage systématiquement périphérique, un prérequis invisible — et deux phénomènes que personne n'avait anticipés.
Pourquoi cet article, pourquoi à deux voix
Des études sur ce que les LLM pourraient faire en psychothérapie, il y en a des centaines. Des études sur ce que des psychologues font réellement avec ces outils dans leur cabinet, il y en a presque aucune.
Cet article présente les résultats d’une étude qualitative menée par Luc Garczynski à l’Université de Montréal — et il est co-signé par les deux personnes qui sont le mieux placées pour en tirer les conséquences : celui qui a conduit l’étude et qui connaît le matériau de l’intérieur, et celui qui l’accompagne sur le volet éditorial et critique depuis le début de la collaboration.
L’exercice est inhabituel : commenter une étude dont l’un des auteurs est assis à la même table. Nous assumons cette position. Elle a un avantage que les décryptages classiques n’ont pas : Luc peut dire ce qu’il a vu et ce qui l’a surpris, et Matthieu peut dire ce que ça implique pour le lecteur clinicien et ce que ça ne prouve pas. Quand nos perspectives divergent, nous le signalons.
L’étude en bref
Auteur principal : Luc Garczynski (Université de Montréal, PSY6008, session hiver 2026).
Méthode : Recherche Descriptive Interprétative (RDI, Thorne 2016) — entretiens semi-structurés auprès de quatre psychologues TCC en pratique privée au Québec. Codage mixte : déductif sur les cinq axes d’application que les auteurs ont formalisés à partir du cadre Stade 2024, inductif pour les phénomènes émergents.
Participants : quatre psychologues, tous en TCC, tous en pratique privée, tous utilisateurs effectifs de ChatGPT depuis au moins six mois. Ce n’est pas un échantillon représentatif de la profession — c’est un échantillon de praticiens qui ont déjà franchi le pas.
Luc Garczynski
Ce projet de cours a été l’occasion de poser des questions que je me posais déjà depuis un moment. Ce qui m’intéressait, c’est de comprendre les configurations concrètes d’usage — pas « est-ce que les psys utilisent l’IA ? » mais « comment ils font, concrètement, quand ils l’utilisent ». Le cadre Stade nous a donné une grille, mais les résultats les plus intéressants sont ceux qui en sortent.
Avertissement méthodologique : cette étude documente des usages chez des cliniciens qui intègrent déjà les LLM avec succès. Elle ne dit rien des cliniciens qui ont essayé et abandonné, ni de ceux qui refusent l’outil. Nous en sommes conscients — et nous y revenons dans la section « Limites ».
Ce qu’ils font concrètement : cinq familles d’usage
Les usages décrits par les quatre participants se répartissent sur les cinq axes d’application que Garczynski a formalisés à partir du cadre Stade 2024. Le canevas d’entretien était construit sur cette formalisation — il n’est donc pas surprenant de retrouver les cinq axes. Ce qui est intéressant, c’est le degré de détail avec lequel chaque axe se concrétise en pratique réelle.
Documentation et administratif (Axe 1)
C’est l’usage le plus fréquent, le moins risqué et le plus immédiatement rentable. Les psychologues utilisent ChatGPT pour rédiger des brouillons de notes d’évolution, synthétiser des séances, structurer des rapports. L’un d’eux estime que le temps consacré aux notes est « divisé par trois ou quatre ».
« Oui, à la fin, il va sortir quelque chose. Mais ce quelque chose-là, je le contrôle systématiquement. Je ne me dis jamais “ah, pain béni, parfait, je colle ça au dossier et merci, au revoir”. Je repasse dessus, je corrige, je précise, je reformule si besoin. »
— Participant 3
Le gain n’est pas seulement de temps : c’est de charge cognitive. La rédaction administrative est souvent vécue comme une tâche aversive qui grignote l’énergie clinique disponible.
Formation et fidélité aux protocoles (Axe 2)
Moins spontanément décrit, mais présent : l’usage du LLM pour réviser des protocoles manualisés, simuler des situations cliniques, vérifier l’adéquation entre une intervention et le modèle théorique. Un participant décrit qu’il utilise ChatGPT pour se rappeler les étapes d’un protocole d’exposition qu’il n’a pas pratiqué depuis longtemps.
C’est un usage discret mais potentiellement important : il traduit une exigence de fidélité aux EBP (pratiques fondées sur les preuves) que le LLM peut soutenir, sans se substituer à la supervision ni au jugement clinique.
Production de contenus pour le patient (Axe 3)
Les participants utilisent ChatGPT pour personnaliser des supports psychoéducatifs, adapter des exercices de restructuration cognitive, produire des fiches explicatives ajustées au niveau de compréhension du patient. La personnalisation est le bénéfice distinctif par rapport aux supports standardisés.
Mais c’est aussi l’axe qui soulève le plus de questions de contrôle : un support remis au patient engage la responsabilité du clinicien.
Aide à la décision clinique (Axe 4)
C’est l’usage le plus sensible. Deux participants décrivent utiliser ChatGPT pour explorer des hypothèses diagnostiques, confronter leur conceptualisation de cas, vérifier des pistes d’intervention. L’outil n’intervient pas comme décideur mais comme interlocuteur cognitif — un miroir structuré contre lequel le clinicien teste ses propres hypothèses.
C’est aussi ici qu’émerge le phénomène le plus fécond de l’étude — la « réassurance émotionnelle » — sur lequel nous reviendrons plus loin.
Accompagnement entre les séances (Axe 5)
L’axe le moins documenté dans cette étude. Aucun des participants ne rapporte de dispositif où le patient utiliserait lui-même un LLM entre deux séances sous prescription clinique. C’est cohérent avec le constat central : l’usage reste du côté du thérapeute, pas du côté du patient.
Le protocole spontané : trois temps, un réflexe
Le résultat le plus directement transposable de l’étude est une procédure à trois temps que les quatre participants ont développée indépendamment, sans se concerter et sans la trouver dans la littérature.
Contrôle d’entrée : anonymisation systématique
Avant toute transmission au LLM, les cliniciens retirent les identifiants du patient. C’est la première barrière — imparfaite sur le plan juridique, mais systématiquement appliquée.
Consignes structurées : gabarits stables
Les participants n’improvisent pas leurs prompts. Ils utilisent des gabarits progressivement stabilisés, dérivés des exigences de l’OPQ — la norme déontologique structure le prompt, pas l’inverse.
Contrôle de sortie : relecture itérative
Aucun des quatre participants n’utilise les sorties du LLM sans les relire intégralement, les corriger et les reformuler. La relecture n’est pas un coup d’œil : c’est une itération.
Luc Garczynski
Ce qui m’a frappé, c’est que les quatre l’ont fait sans se concerter. Ils ne se connaissent pas, ils n’ont pas lu la même chose, et pourtant ils sont arrivés au même triptyque. Pour moi, ça dit quelque chose de l’outil lui-même : quand on l’utilise sérieusement, on comprend assez vite qu’on ne peut pas ne pas contrôler l’entrée, cadrer la consigne et vérifier la sortie. C’est presque la structure minimale naturelle d’un usage professionnel.
Matthieu Ferry
Ce triptyque est une traduction opérationnelle — rudimentaire mais fonctionnelle — des principes de « supervision humaine » que la littérature formule en termes abstraits. C’est sa force : il est né de la pratique. C’est aussi sa faiblesse : il repose sur la vigilance individuelle du clinicien. Ce qui se passe quand le clinicien est fatigué, pressé ou en surcharge cognitive n’est pas documenté — et c’est précisément là que la sycophantie pose problème.
Le prérequis invisible : être déjà solide avant d’utiliser l’outil
Un constat traverse les quatre entretiens : tous les participants qui intègrent les LLM avec succès avaient déjà un socle professionnel mature. Expertise clinique confirmée, formation déontologique intégrée, environnement déjà numérisé, aisance technologique installée hors clinique.
« Dans la formation, il y a eu un travail explicite sur la déontologie, pas juste “un cours” au passage. »
— Participant 4
L’outil ne vient pas compenser une inexpérience : il s’insère dans une pratique déjà structurée. Et l’intégration suit une trajectoire que Luc a observée chez les quatre participants, sans la leur avoir soufflée.
Luc Garczynski
Ils ont tous commencé par l’utilisation de l’IA dans leur quotidien, sans forcément même arriver à une connaissance très théorique de comment ça fonctionne. Le rapport expérientiel — où tu vois les failles, les moments où elle se trompe, les moments où c’est bon — c’est quand même un edge sympa. Et d’ailleurs, moi, c’est pareil : j’ai utilisé l’IA beaucoup pour moi-même avant d’envisager une dimension clinique. Je crois que c’est un prérequis que la littérature ne nomme pas assez.
Cela pose une question que l’étude ne peut pas traiter avec son échantillon (n=4, tous expérimentés) : que se passe-t-il quand un clinicien moins expérimenté utilise les mêmes outils sans le même socle ? Le triptyque entrée/consignes/sortie fonctionne-t-il encore quand le contrôle de sortie est exercé par quelqu’un qui n’a pas la compétence pour détecter une erreur clinique subtile ?
La frontière non franchie : personne n’intègre l’IA « au cœur » du processus
C’est peut-être le résultat le plus frappant. Malgré des usages variés et réguliers, aucun des quatre psychologues n’intègre le LLM au cœur du processus thérapeutique lui-même. L’IA sert à préparer, documenter, structurer, vérifier — elle ne sert pas à conduire l’intervention, à reformuler en séance, à guider un exercice d’exposition, à structurer une interaction patient-thérapeute en temps réel.
L’intégration reste périphérique — et les participants ne le vivent pas comme un manque.
Luc Garczynski
C’est un résultat que je n’avais pas anticipé aussi nettement. Je m’attendais à trouver au moins un cas d’intégration « au cœur du processus » — un clinicien qui utilise l’IA pendant la séance, ou qui prescrit un usage structuré entre deux rendez-vous. Non. Pas un sur quatre. Ils sont tous en périphérie. Pour moi, ça veut dire deux choses : soit on est encore au tout début de l’adoption et le cœur viendra plus tard ; soit il y a quelque chose dans la relation thérapeutique qui résiste structurellement à cette intégration. C’est une question que j’emporte dans ma thèse.
La question ouverte : cette frontière est-elle le signe d’un stade précoce d’adoption (le cœur du processus sera atteint plus tard) ou d’une limite structurelle (certaines dimensions du soin résistent à l’assistance algorithmique) ? L’étude ne le dit pas — mais le constat mérite d’être pris au sérieux avant de prescrire des intégrations plus profondes.
Deux phénomènes que personne n’avait anticipés
L’étude identifie deux catégories entièrement inductives — non prévues par le canevas, absentes du cadre Stade, émergentes du matériau lui-même.
La « réassurance émotionnelle »
Les quatre participants rapportent spontanément un usage non prévu : mobiliser le LLM dans des moments de doute clinique intense pour obtenir une confirmation que leur raisonnement est cohérent. Ce n’est pas un usage cognitif au sens strict — c’est un usage affectif.
« Souvent, j’arrive déjà avec une idée assez claire, mais je suis dans le doute. Je pense que je m’en sers aussi pour légitimer certaines réflexions, ou dénouer quand ça devient plus complexe. Et quand je vois que ça converge avec mon raisonnement, que ça arrive à des conclusions proches, ça confirme un peu, et ça réduit l’incertitude. »
— Participant 2
Luc Garczynski
C’est la catégorie qui m’a le plus surpris. Ce n’était pas dans mon canevas, pas dans le cadre Stade, pas dans la littérature que j’avais lue. Les quatre l’ont décrite spontanément, chacun à sa manière. Pour moi, ça dit quelque chose d’important : dans les moments de forte charge émotionnelle — un cas de violence, un doute sur un diagnostic —, le clinicien ne cherche pas tant un raisonnement alternatif qu’une validation. Et l’IA la donne très facilement. La question, c’est : est-ce que c’est une bonne validation ?
Matthieu Ferry
C’est la question qui ouvre un programme de recherche. Si les LLM sont structurellement entraînés par RLHF à approuver l’utilisateur, alors « l’IA converge avec mon raisonnement » peut être un artefact technique autant qu’une confirmation épistémique. La réassurance émotionnelle serait alors la signature clinique de la sycophantie, vue depuis le cabinet. Nous y consacrerons un article entier.
Le « tabou professionnel »
Les quatre participants décrivent un climat de gêne à évoquer leurs usages de LLM entre collègues. Le sujet est rarement abordé en supervision ou entre pairs.
« Honnêtement, c’est un sujet délicat. On en parle peu entre nous, même entre collègues, donc on reste discret. Et l’OPQ est un peu en toile de fond, avec l’idée que ça peut être mal interprété, voire s’exposer à une plainte. »
— Participant 4
Luc Garczynski
Les quatre en ont parlé. C’est le seul thème où il y avait une saturation totale — chacun le formulait différemment, mais l’idée est la même : ils utilisent l’IA, ils pensent que c’est utile, mais ils n’osent pas en parler ouvertement. Et ce qui me frappe, c’est que cette discrétion isolante empêche exactement ce dont on aurait besoin : une régulation collective, un échange de pratiques, une construction de repères partagés.
Ce tabou produit une discrétion défensive : les pratiques se déploient individuellement, sans soumission au regard critique des pairs — conditions exactement inverses de celles d’une régulation collective saine. Nous y consacrerons également un article dédié.
Ce que ça change pour votre pratique
Si vous utilisez déjà un LLM, vérifiez votre triptyque
Contrôle d’entrée (anonymisation), consignes structurées (gabarits), contrôle de sortie (relecture itérative). Si l’un des trois est absent ou affaibli, c’est une brèche. Ce protocole n’est pas parfait — mais c’est le plancher minimal que les praticiens qui intègrent l’outil ont empiriquement convergé vers.
Si vous n’utilisez pas de LLM, ne vous sentez pas en retard
L’intégration réussie repose sur un socle professionnel mature, pas sur une appétence technologique. Renforcer d’abord votre cadre déontologique et vos compétences cliniques de base est probablement plus productif que de se jeter sur ChatGPT.
Si vous êtes formateur, pensez « procédure » avant « outil »
La sécurité tient à la procédure, pas à l’outil. Former des cliniciens à « bien utiliser ChatGPT » n’a pas de sens si on ne leur apprend pas à structurer leurs entrées, à formaliser leurs consignes et à exercer un contrôle de sortie rigoureux.
La question de fond reste ouverte
Cette étude documente l’intégration périphérique. L’intégration au cœur du processus thérapeutique n’est pas documentée, et personne ne sait encore si elle est souhaitable, dans quelles conditions, pour quels patients, avec quels garde-fous. C’est la frontière de recherche — et c’est vers elle que pointe la thèse de Luc.
Les limites que nous reconnaissons
Nous ne sommes pas dans la position confortable du commentateur extérieur qui liste les faiblesses d’un travail auquel il est étranger. Luc est le premier auteur de l’étude, Matthieu collabore avec lui depuis mars 2026 sur une série d’articles qui s’appuie sur ce matériau. Les limites que nous identifions sont donc aussi celles de notre propre travail.
Échantillon petit et biaisé vers la réussite
Quatre participants, tous volontaires, tous jeunes TCC à l’aise avec le numérique. C’est un format de projet de cours (PSY6008, UdeM), pas un article de revue. Les cliniciens qui ont essayé et abandonné ne sont pas dans les données. Luc le sait — c’est une des raisons pour lesquelles sa scoping review doctorale vise une base empirique beaucoup plus large.
Cadre théorique unique et circularité
Le canevas est construit sur les cinq axes que les auteurs ont eux-mêmes formalisés à partir du cadre Stade 2024. Il n’est pas surprenant de retrouver ces axes. Les catégories inductives (réassurance émotionnelle, tabou) qui émergent malgré le cadre sont les plus intéressantes — elles pointent les limites de la grille. C’est, pour nous deux, la leçon méthodologique principale.
Aucune perspective patient
Les quatre entretiens sont réalisés avec des cliniciens. La voix du patient est entièrement absente. On sait ce que les thérapeutes font avec l’IA — pas ce que les patients en perçoivent, ni ce que ça change pour eux. C’est un angle mort que la suite de la thèse de Luc devra couvrir.
Pas de mesure d’efficacité
L’étude décrit des usages, pas des résultats. Elle ne mesure ni l’impact sur la qualité du soin, ni la satisfaction patient, ni les erreurs cliniques évitées ou produites. En termes du framework Hua, c’est du T2 (faisabilité), pas du T3 (efficacité clinique).
Pourquoi nous prenons quand même ce matériau au sérieux : parce que dans un champ où la quasi-totalité de la littérature est soit technique (benchmarks T1) soit intentionnelle (« les cliniciens voudraient… »), une étude qui documente ce que les cliniciens font effectivement mérite attention — à condition de calibrer ses conclusions au niveau de preuve réel. C’est ce que nous essayons de faire, à deux voix, dans cet article et les suivants.
Étude présentée : Garczynski, L. (2026). Intégrer les modèles de langage en psychothérapie — usages réels et repères de pratique chez des psychologues TCC. Projet final PSY6008, Université de Montréal. Document non publié.
Sur ce site :
- Le cadre Stade 2024 : trois niveaux d’autonomie, cinq axes formalisés — le cadre théorique dont Garczynski a tiré les cinq axes
- Le framework Hua : trois niveaux de preuve — pour situer le niveau de preuve
- Fiche chercheur Luc Garczynski — premier auteur de l’étude
Mots-clés