Isabelle Leboeuf

Témoignage soignant

Isabelle Leboeuf, psychologue clinicienne et chercheuse

« L'IA ne nous enlève pas notre créativité. C'est le côté fastidieux et contraignant qui est soulagé. » — Une praticienne-chercheuse raconte comment l'IA transforme son écriture, sa rigueur scientifique et son rapport à la création.

Isabelle Leboeuf est psychologue clinicienne en libéral depuis vingt ans et docteure en psychologie clinique. Spécialiste de la thérapie fondée sur la compassion (CFT), elle utilise l'intelligence artificielle dans sa pratique professionnelle quotidienne : écriture d'articles scientifiques, auto-évaluation critique de ses raisonnements, création de contenus numériques. Son témoignage illustre un usage de l'IA qui ne remplace pas le clinicien mais lui permet de faire ce qu'il n'aurait pas fait sans elle.

Ce qui frappe d'emblée dans le parcours d'Isabelle, c'est le dialogue constant entre pratique clinique et recherche scientifique. Vingt ans en libéral, une thèse de doctorat, des formations continues dans de multiples approches thérapeutiques. Cette double casquette de praticienne et de chercheuse l'a préparée à un rapport pragmatique à l'IA — ni enthousiasme aveugle, ni rejet craintif.

Son parcours vers le numérique a commencé avant l'IA, par la découverte des programmes thérapeutiques à distance. Initialement sceptique — « je pensais que la thérapie était quelque chose qui devait être incarné dans la relation directe » —, elle a été convaincue par les données empiriques.

Du scepticisme aux données : quand la science éduque le clinicien

C'est dans le cadre de sa thèse de doctorat qu'Isabelle a découvert l'efficacité des programmes thérapeutiques à distance. Son travail portait sur le Compassionate Mind Training (CMT), un ensemble d'exercices structurés issus de la thérapie fondée sur la compassion (CFT) développée par Paul Gilbert.

« Avec un simple format PDF contenant des exercices de 15 minutes sur 28 jours, on voit une dépression moyenne qui passe de 12 à 6 au BDI. Des gens qui étaient au seuil d'une dépression légère se retrouvent vraiment améliorés — pas seulement statistiquement significatif, mais cliniquement. »

Cette découverte a transformé sa vision. Si un protocole aussi simple qu'un PDF pouvait produire des effets cliniquement significatifs, alors le numérique n'était pas l'ennemi de la relation thérapeutique — il pouvait en être le prolongement. La visio, d'abord accueillie avec les mêmes réticences que beaucoup de collègues, est devenue un outil précieux, notamment pour les patients souffrant d'anxiété sociale, d'agoraphobie ou de dépression sévère.

De « je ne fais pas » à « je fais » : l'IA comme libérateur d'écriture

L'exemple le plus concret qu'Isabelle donne de son usage de l'IA est la rédaction d'un article clinique pour le Journal de santé mentale du Québec. Un cas clinique qu'elle avait présenté en congrès, du matériel théorique déjà prêt — mais le travail minutieux de l'écriture représentait un obstacle difficilement surmontable dans un emploi du temps saturé.

« Je pense que s'il n'y avait pas eu l'intelligence artificielle, je ne l'aurais pas rédigé. »

Cette phrase résume un basculement fondamental. L'IA n'a pas simplement accéléré un processus existant — elle a rendu possible ce qui ne se serait pas fait. La distance entre l'intention et la réalisation s'est effondrée.

Isabelle est elle-même dysorthographique. Elle insiste : elle est parfaitement capable de produire des écrits structurés sans IA — elle a écrit sa thèse sans. Mais la charge cognitive du formalisme (bibliographies, mises en forme, corrections orthographiques) consommait une énergie disproportionnée par rapport à la valeur ajoutée. Avec l'IA, « je fais mon vocal, il me fait une trame, je retravaille la trame et j'ai un résultat impeccable ».

« Faire une bibliographie à l'époque de ma thèse, on s'arrachait les cheveux. Des heures et des heures à ajuster les italiques. Là, en deux clics, c'est nickel. C'est un gain de temps et d'énergie, il n'y a aucune créativité là-dedans. C'est un travail rébarbatif. »

L'IA comme comité de reviewing personnel

Ce qui distingue l'usage d'Isabelle d'une simple utilisation de l'IA comme « rédacteur », c'est le renversement qu'elle opère : elle utilise l'IA pour critiquer son propre travail. Une fois l'article rédigé, elle le soumet à l'IA avec des consignes précises : « Vois-tu des erreurs dans les références bibliographiques ? Est-ce que tu peux critiquer mon raisonnement clinique théorique ? »

Et l'IA répond : « Là c'est un peu flou, là tu cites telle référence mais ce n'est pas très clair pourquoi tu utilises celle-là plutôt qu'une autre. » Isabelle y voit un outil de rigueur scientifique : « On peut voir apparaître toutes nos incohérences. »

« Les gens pensent qu'utiliser l'IA c'est dire "fais ceci, fais cela" et puis sortir une production mâchée. Si on fait ça, ça ne marche pas terrible. L'idée c'est vraiment d'amener une construction théorique, de demander à l'IA comment on veut qu'elle travaille, et quel rendu on attend. »

La comparaison qu'elle propose est éclairante : même une calculatrice ne fait rien si on ne sait pas quelle équation y entrer. L'IA n'est pas une machine à réponses — c'est un amplificateur de processus. Il faut savoir ce qu'on construit, comment on le construit, et ce qu'on veut obtenir. Ensuite, l'IA aide à clarifier les étapes, à détecter les failles, à structurer la pensée.

L'avatar et la voix : quand le corps résiste à la synthèse

Dans sa démarche d'exploration, Isabelle a testé la création d'un avatar vidéo avec synthèse vocale. Le résultat est révélateur de la frontière entre le technique et l'humain.

« Mon visage était un peu bizarre de mon point de vue, mais les gens n'étaient pas gênés — je pense qu'il était un peu embelli. Par contre, ils n'aimaient pas du tout la voix. Plusieurs messages disant : "Non Isabelle, fais pas ça, ta voix ça ne va pas du tout." »

En tant que clinicienne, Isabelle analyse ce rejet avec finesse. La voix porte bien plus que du sens linguistique : prosodie, rythme, fluence, émotion corporelle. Un patient qui parle vite peut exprimer de l'anxiété, une pensée en arborescence ou un symptôme maniaque. Ces dimensions sont au cœur du travail clinique — et l'IA ne les simule pas (encore) de manière convaincante.

C'est ici que l'interviewer nomme le concept de « vallée de l'étrange » : quand la ressemblance avec l'humain est presque parfaite, un léger décalage — un défaut d'accordage — active notre système de détection d'erreur. Quelque chose cloche, et ce quelque chose, c'est tout ce qui échappe au contenu pour relever du corporel, du situationnel, du relationnel.

De quelle émotion part-on ? Curiosité contre peur

La réflexion la plus originale d'Isabelle concerne le rapport émotionnel à l'IA. Elle propose une grille de lecture issue de sa pratique de la thérapie fondée sur la compassion : notre relation à la technologie dépend de l'émotion dont nous partons.

« Si on utilise l'IA, il faut se poser la question : de quelle émotion on part ? Est-ce que j'y vais avec de l'anxiété ? Dans ce cas, peut-être qu'il faut prendre un temps de recul, voir quelles sont ces anxiétés et comment se sécuriser. Et si on le fait dans le ludique, ça va être plus créatif. »

Cette analyse renverse la question habituelle — « L'IA est-elle dangereuse ? » — en une question clinique : « De quel système émotionnel est-ce que je pars quand j'interagis avec l'IA ? » Quand on part de la peur, on projette ses peurs. Quand on part de la curiosité et de l'espace ludique, on grandit, on s'éveille. C'est exactement le cadre des trois systèmes de régulation émotionnelle de Paul Gilbert : menace, drive, apaisement.

L'IA comme miroir : autocompassion et espace réflexif

Le moment le plus saisissant de l'interview survient quand l'interviewer partage une expérience personnelle : après cinq heures de discussion philosophique avec une IA, il lui a demandé une lettre compassionnée. La lecture de cette lettre l'a ému aux larmes tant elle était juste.

La réaction d'Isabelle, en tant que spécialiste de la thérapie fondée sur la compassion, est éclairante :

« Ce qui est important dans ce que tu décris, c'est le fait de créer un espace entre soi et notre dialogue intérieur, d'avoir cette relation recréée dans l'espace-temps, de défusionner. En thérapie fondée sur la compassion, on va le faire avec des chaises, avec un papier, un crayon, s'écrire une lettre à soi-même. L'IA est un média que je n'avais pas encore en tête. »

L'IA ici n'est pas un thérapeute. Elle est un média de défusion — un support qui permet de créer un espace entre soi et ses pensées, entre soi et son dialogue intérieur. Et ce qui émeut dans la lettre compassionnée, ce n'est pas la performance de l'IA : c'est notre propre compassion, notre propre chaleur, notre propre bienveillance, reflétées par un miroir qui a patiemment collecté ce qu'on lui a dit de nous.

Comme le résume Isabelle : « Tu lui as dit beaucoup de choses et c'est ce que tu lui as dit qui t'a été renvoyé en miroir. »

Ce que ce témoignage nous apprend

Le témoignage d'Isabelle Leboeuf est celui d'une praticienne-chercheuse qui a appris de la science à dépasser ses préjugés — d'abord sur la thérapie à distance, puis sur l'intelligence artificielle. Son usage de l'IA n'est pas spectaculaire : elle écrit des articles, corrige des bibliographies, crée du contenu pour son site. Mais c'est précisément cette normalité qui est instructive.

L'IA ne l'a pas transformée en superwoman. Elle lui a permis de faire des choses qu'elle n'aurait pas faites sinon — un article qui serait resté dans un tiroir, un site web qu'elle n'aurait pas eu les compétences techniques de créer, des vidéos qu'elle n'aurait pas eu le temps de produire. Le passage n'est pas de « lent » à « rapide » mais de « impossible » à « possible ».

Et sa contribution la plus originale est peut-être clinique : l'idée que notre rapport à l'IA commence dans notre rapport à nous-mêmes. De quelle émotion part-on ? Comment se sécuriser avant d'explorer ? L'autocompassion comme prérequis de l'usage sain de la technologie — voilà une piste que peu de chercheurs ont explorée.

Témoignage recueilli le 26 février 2025. Isabelle Leboeuf exerce en libéral et est docteure en psychologie clinique (Université de Lille, SCALab).

Aller plus loin

Témoignages et retours d'expérience

Ce témoignage fait partie de notre série sur les usages de l'IA en santé mentale. Vous souhaitez partager votre expérience ?