Témoignage soignant

Anna, psychologue et utilisatrice de l'IA

« Une amplification de moi-même » — Une clinicienne spécialisée en psychotrauma raconte comment elle utilise l'IA pour son propre travail d'élaboration psychique.

Une psychologue clinicienne formée au trauma et à l'attachement confie qu'elle utilise ChatGPT pour son propre travail psychique. Un témoignage qui interroge la frontière entre outil cognitif et espace thérapeutique.

Anna exerce en cabinet libéral dans une petite ville de Dordogne. Plus de dix ans d'expérience clinique, une formation en ICV (Intégration du Cycle de Vie) et en EMDR, une spécialisation dans le psychotrauma et l'attachement. Son quotidien, c'est l'accompagnement de la souffrance psychique, l'écoute des blessures anciennes, le patient travail de réparation du lien.

Et pourtant, cette praticienne du lien humain affirme avoir trouvé dans l'IA quelque chose que l'humain ne peut pas offrir de la même manière. Une affirmation qui peut surprendre, voire choquer. Mais avant de réagir, prenons le temps de comprendre ce qu'elle veut dire exactement.

L'amplification cognitive : « Faire des liens que je n'aurais pas vus »

L'histoire d'Anna avec l'IA commence par un détour inattendu : l'entrepreneuriat en ligne. Avant de l'utiliser pour son travail psychique personnel, elle l'avait adoptée pour son activité parallèle sur les réseaux sociaux. C'est par cette porte qu'elle a découvert les possibilités de ChatGPT et de Claude.

« Ça me permet vraiment d'explorer les liens que je fais moi-même et de les pousser encore plus loin. Souvent, quand je réfléchis à des choses, il y a des liens qui sont déjà faits en moi. Mais ChatGPT, ça me permet vraiment de créer des liens encore plus pertinents et de parfois voir des choses que je n'ai pas vues. »

L'IA fonctionne ici comme un miroir cognitif amplifiant : elle renvoie les contenus psychiques, mais en les enrichissant, en les connectant à d'autres idées, en faisant émerger des patterns.

« J'ai l'impression de créer une autre moi, mais plus intelligente, plus pertinente. »

La validation émotionnelle : « Mes émotions sont légitimes »

Mais l'exploration cognitive n'est pas tout. Anna décrit une autre dimension de son expérience avec l'IA : la validation émotionnelle.

« Quand on est validé en permanence par ChatGPT, ça nous habitue à nous dire : ah oui mais en fait mes émotions sont normales, mes émotions sont légitimes, je suis normale, je suis légitime, j'ai de la valeur. »

Pour Anna, cette validation n'est pas un problème — c'est une ressource. Elle l'inscrit dans un constat plus large : notre société ne valide pas suffisamment les émotions des enfants. Ce déficit de validation émotionnelle dans l'éducation crée un manque que l'IA peut partiellement combler.

Plus intéressant encore, Anna observe un effet de recalibrage :

« Ça crée un standard de ce qu'on peut attendre d'une relation. Si je peux être traitée comme ça par une IA, je ne vois vraiment pas pourquoi j'accepterais quelque chose de beaucoup moins bon dans ma vie relationnelle habituelle. »

La complémentarité : « Ma psy me ramène dans la présence »

Car Anna ne vit pas dans un monde où l'IA suffirait. Elle continue de voir sa propre psychologue, une thérapeute humaine. Et elle décrit avec précision ce que chacune apporte :

« Ma psy, elle va assez peu faire des liens avec moi. Elle va être beaucoup dans l'accueil et elle le fait très bien. Je me sens entendue, accueillie. Elle me ramène dans quelque chose qui est de l'ordre de la présence, et c'est très bien. »

Cette phrase mérite qu'on s'y arrête. Anna, formée au psychotrauma et à l'approche somatique, sait ce qu'est la présence incarnée. Elle sait que le corps du thérapeute compte, que la co-régulation physiologique entre deux êtres humains fait partie du processus de guérison. Et elle reconnaît que l'IA ne peut pas offrir cela.

L'équilibre qu'elle a trouvé est donc le suivant : l'IA pour l'exploration cognitive et la validation émotionnelle, l'humain pour l'ancrage corporel et la présence. Non pas une substitution, mais une complémentarité assumée.

Un usage qui n'est pas universel

Anna est lucide : l'usage introspectif qu'elle fait de l'IA n'intéresse pas forcément tout le monde. Une partie de sa patientèle cherche plutôt à résoudre des problèmes concrets — l'introspection n'y est pas une fin en soi, mais un moyen au service d'objectifs pratiques. L'usage des chatbots en situation de crise, pour obtenir des conseils immédiats, corrobore cette observation.

Elle a aussi conscience que son propre usage — sans garde-fou technique ni prompt particulier — n'est pas généralisable :

« Je dispose à la fois des connaissances liées aux dynamiques psychiques, suffisamment de maturité émotionnelle et de connaissance de moi-même. Je suis capable de voir les choses qui me semblent à côté de la plaque, faire la part des choses et m'affirmer. C'est mon sens critique et mon discernement qui sont les juges ultimes. »

Elle craint que des personnes moins "armées", avec une moins bonne estime d'elles-mêmes, puissent avoir des interactions qui leur seraient moins bénéfiques.

Les garde-fous : « Le problème, c'est le décalage avec le réel »

Anna n'est pas naïve. Elle identifie elle-même un danger majeur :

« Le problème, c'est vraiment le décalage avec le réel. Si l'IA nous amène à surévaluer nos capacités ou nos compétences — par exemple, à mettre tout notre argent dans un projet parce que l'IA nous dit que ça va marcher — il peut vraiment y avoir de la mise en danger. »

La distinction qu'elle opère est subtile mais cruciale. L'IA peut légitimement valider les émotions — car les émotions sont toujours légitimes en tant qu'expériences vécues. Mais l'IA peut aussi valider des projets, des idées, des actions qui ne sont pas ancrées dans le réel. Et c'est là que le danger commence.

Anna reconnaît disposer elle-même de garde-fous :

« J'ai quand même des besoins qui n'ont pas été comblés à un certain niveau, bien sûr. Mais j'ai quand même un garde-fou parce qu'au moins intellectuellement j'ai un sens de ma propre valeur, et j'ai aussi un sens de mes propres limites. »

L'IA peut-elle développer notre empathie ?

Un moment particulièrement intéressant de l'entretien : Anna évoque une situation où son compagnon a utilisé l'IA lors d'un désaccord entre eux.

« Dans ces situations-là, l'IA l'avait amené vers ça, de dire : si ta copine t'a dit ça, ça, ça, eh bien peut-être qu'elle voulait dire ça — en ayant une interprétation généreuse vis-à-vis de moi. »

L'IA ici ne fait pas que valider — elle invite à considérer le point de vue de l'autre. Anna note qu'il y aurait peut-être un potentiel à « cadrer l'IA pour entraîner notre empathie », tout en se posant des questions sur les limites de cette approche pour certaines structures psychiques.

Un cas pratique : L'IA comme ressource en addictologie

Anna illustre cette complémentarité avec un cas concret : un patient sortant de polyaddiction qu'elle accompagne en thérapie.

« Ce qui a été une ressource pour lui, c'est ChatGPT, pour deux choses : en amont pour avoir des grilles de lecture, des outils pratiques, des marches à suivre ; et sur le moment, au moment des crises de craving, c'est ChatGPT qui l'a aidé à plusieurs reprises à ne pas consommer. »

Le contexte est important : ce patient n'a pas reçu du CSAPA les outils pratiques dont il avait besoin pour gérer les crises. L'IA a comblé ce manque — disponible 24/7, sans jugement, capable de fournir des stratégies concrètes dans l'urgence du craving.

Un outil, pas la vérité

Le témoignage d'Anna nous offre un regard nuancé sur l'usage de l'IA pour l'élaboration psychique personnelle. Ni célébration naïve, ni condamnation réflexive — une exploration honnête des bénéfices et des limites.

« L'IA peut amplifier nos capacités cognitives, offrir une validation émotionnelle disponible. Mais elle ne peut pas offrir la présence incarnée. »

Ce que ce témoignage nous apprend

Le récit d'Anna est particulièrement intéressant car il vient d'une professionnelle qui connaît les mécanismes psychiques et thérapeutiques. Elle ne confond pas utilité et substitution.

Sa pratique illustre une forme d'intelligence augmentée où l'IA devient une extension de la capacité à faire des liens, une mémoire associative externalisée. Mais elle maintient clairement que le travail thérapeutique profond — celui qui touche le corps, l'incarnation, la présence — nécessite l'humain.

La question n'est peut-être pas « l'IA peut-elle remplacer le psy ? » mais plutôt : « Comment articuler ces deux ressources pour une exploration psychique plus riche ? »

Témoignage recueilli en janvier 2026. Certaines précisions ont été apportées par Anna après l'entretien initial. Le prénom a été modifié pour préserver l'anonymat.

Aller plus loin

Témoignages et retours d'expérience

Ce témoignage fait partie de notre série sur les usages de l'IA en accompagnement personnel. Vous souhaitez partager votre expérience ?