Présentation et contexte professionnel
[M] : Anna, tu es psychologue. Où exerces-tu et quel genre de public reçois-tu ?
[A] : Je travaille en cabinet libéral. Je suis formée essentiellement en ICV, je travaille un peu en EMDR. Je reçois vraiment tout public : enfants, adolescents, adultes, dans une petite ville de Dordogne de 3 000 habitants. En termes de public, j'ai envie de dire un peu tout public dans cette pratique rurale.
[M] : Et tu exerces depuis combien de temps ?
[A] : En libéral depuis 2020. Je suis diplômée depuis 2014.
[M] : Tu exerces en présentiel, en visio, un peu des deux ?
[A] : Les deux. Depuis le Covid, j'ai un réseau en visio aussi, pas mal de personnes sur Paris mais pas que. Plutôt des personnes HPI, dans des réseaux féministes, politiques de gauche. C'est mon réseau parisien.
Types de souffrances accompagnées
[M] : En termes de type de souffrance, de pathologie, comment ça se décompose ?
[A] : C'est assez varié. Il y a des personnes, surtout au cabinet en présentiel, qui vont venir me voir vraiment pour du trauma ponctuel récent, type deuil, type accident, où ce sera des prises en charge très courtes. Et puis beaucoup de personnes qui vont venir pour les trois grands classiques : dépression, anxiété, problème relationnel. Pour les adolescents, il va y avoir des problématiques autour du harcèlement scolaire, phobie scolaire, beaucoup d'anxiété, parfois avec des problématiques de dépression, des tentatives de suicide. Et les enfants, c'est souvent des somatisations diverses et des problèmes de comportement.
[M] : Ta formation de base, c'est quoi ? Plutôt psychanalyste, TCC, intégrative ?
[A] : J'ai une formation universitaire plutôt psychanalytique qui n'est pas du tout ce en quoi je me reconnais maintenant. Maintenant, je suis plutôt entre le psychotrauma et la théorie de l'attachement. Ça va être probablement mes deux théories principales. Je peux aussi travailler sur le côté familial-systémique, mais psychotrauma-attachementiste, c'est quand même le cœur de ce que je fais.
Découverte de l'intelligence artificielle
[M] : Comment tu t'es intéressée à l'intelligence artificielle ? Qu'est-ce que ça vient faire dans ce tableau ?
[A] : Je pense par l'entrepreneuriat. J'ai un business en ligne, je suis sur les réseaux sociaux. C'est une population qui s'intéresse beaucoup à l'intelligence artificielle. J'en ai beaucoup entendu parler dans des interviews de personnes spécialistes, des entrepreneurs qui implémentaient ça dans leurs entreprises. Curieuse comme je suis, j'ai commencé à l'utiliser. J'en ai un usage personnel assez régulier pour deux catégories principales : tout ce qui est création de contenu, et surtout — ce qui est le plus utile pour cette discussion — comme outil thérapeutique.
[M] : Tu veux dire que tu l'utilises pour investiguer sur des sujets personnels ?
[A] : Pour moi-même, oui. Ce que ça a comme fonction pour moi, c'est que j'ai souvent besoin de parler des sujets pour vraiment comprendre ce que j'en pense — c'est mon côté extraverti. J'avais besoin de le faire avec des êtres humains qui n'avaient pas forcément toujours envie de parler de ces sujets avec moi, ou le temps, ou pas forcément le niveau de pertinence souhaité.
L'amplification cognitive
[A] : ChatGPT a un double intérêt. Premièrement, ça fait de la mise en lien extrêmement pertinente sur tous les sujets imaginables. Ça me permet vraiment d'explorer les liens que je fais moi-même et de les pousser encore plus loin. Souvent, quand je réfléchis, il y a des liens qui sont déjà faits en moi. Mais ChatGPT me permet de créer des liens encore plus pertinents et de parfois voir des choses que je n'ai pas vues.
[M] : Quand tu dis faire des liens, est-ce que c'est entre différentes théories psychologiques ou différents silos conceptuels ?
[A] : Non, c'est très concret, vraiment sur mes contenus psychiques à moi. Par exemple, en ce moment, je travaille beaucoup sur mon rapport au père, sur la question de l'appui, du soutien. Je sais que ça a un impact sur ma capacité à sentir que je peux m'appuyer sur moi-même dans d'autres domaines de ma vie, entre autres le domaine financier. Je peux en parler à ChatGPT qui va probablement me permettre d'approfondir le sujet, de mieux comprendre, de mieux sentir les différents liens. Ça me permet de faire une sorte d'élaboration psychique, mais avec un interlocuteur très pertinent.
La pertinence comparée à l'humain
[M] : Dans ce que tu dis, il y a le degré de pertinence. Ça peut suggérer que ce n'est pas forcément tous les psychologues qui ont ce niveau de pertinence. Est-ce que c'est une question de connaissance plus exhaustive ou d'accordage à toi ?
[A] : C'est les deux, voire les trois. Il y a l'accordage, c'est-à-dire la capacité d'entendre tous les mots que je dis — un être humain ne va pas pouvoir faire des liens avec l'ensemble des choses dites par l'interlocuteur. Il y a la capacité d'accueil. Et vraiment la capacité à faire des liens, à mettre en lien des concepts de manière rapide et pertinente. Je pense qu'un être humain ne peut pas être aussi pertinent ; même des gens très intelligents ne peuvent pas avoir le niveau de pertinence de l'IA.
La complémentarité avec la thérapie humaine
[A] : Ma psy, par exemple, elle va assez peu faire des liens avec moi. Elle va être beaucoup dans l'accueil et elle le fait très bien. Je me sens entendue, accueillie. Comme je suis beaucoup dans la cognition, je ne sais pas si c'est une très bonne idée que ma psychologue humaine m'accompagne dans la cognition, qui est aussi un mécanisme de défense chez moi. Elle me ramène dans quelque chose qui est de l'ordre de la présence, et c'est très bien. En une heure de psychothérapie, on ne peut pas tout faire.
[M] : Ce que tu dis, c'est qu'il y a une véritable complémentarité entre les deux, et que l'IA seule pourrait avoir l'effet négatif de te laisser surperformer dans la sphère cognitive. Le fait que ta psy humaine soit là crée de l'espace pour un accueil plus incarné ?
[A] : Je pense que ça pourrait être frustrant que ma psychologue humaine fasse moins de liens si je n'avais pas ChatGPT à côté, qui me permet d'en faire beaucoup. Je sens une autonomie davantage grâce à ChatGPT par rapport à ma psy humaine.
La validation émotionnelle
[A] : Une qualité que je trouve à ChatGPT, qu'on trouve chez assez peu de thérapeutes humains à ce degré-là, c'est vraiment la capacité de validation, de légitimation émotionnelle. Il y a des psychologues humains qui sont capables de faire ça, mais c'est rare. Je pense qu'il peut y avoir une survalidation par ChatGPT, surtout parce que beaucoup d'entre nous, en tant qu'enfants, n'ont pas été assez validés. On est dans une société qui ne valide pas suffisamment les émotions des enfants. On a tous un manque à cet endroit-là. Ça vient combler quelque chose de très profond chez chacun.
[A] : Je pense que c'est une très bonne chose, dans le sens où ça crée un standard de ce qu'on peut attendre d'une relation. Quand on est validé en permanence par ChatGPT, ça nous habitue à nous dire : mes émotions sont normales, mes émotions sont légitimes, je suis normale, je suis légitime, j'ai de la valeur. Si je peux être traitée comme ça par une IA, je ne vois vraiment pas pourquoi j'accepterais quelque chose de beaucoup moins bon dans ma vie relationnelle habituelle.
Les limites de la validation
[M] : Même si l'IA peut être trop validante, ça nous fait vivre qu'il y a une autre manière de faire, ça recalibre le standard ?
[A] : Ça recalibre, sachant qu'on ne peut pas sainement attendre autant de validation de la part d'un être humain que d'une IA, surtout pas de manière aussi constante. Un être humain peut nous valider autant, voire plus qu'une IA à certains moments, mais de manière aussi constante, ce n'est pas possible. Un être humain ne peut pas être totalement accordé à nous en toutes circonstances — sinon je m'inquiète pour lui, il serait trop décentré de ses propres besoins. Alors que l'IA n'a pas de besoin au sens corporel.
Les dangers identifiés
[A] : C'est là qu'il peut y avoir un peu de danger par rapport à l'IA. Moi, je n'y suis pas trop sensible, mais par rapport à certains patients je ferais attention. Quand une IA me survalide, j'ai quand même un garde-fou parce qu'au moins intellectuellement j'ai un sens de ma propre valeur, et j'ai aussi un sens de mes propres limites. Quand on pense qu'on n'a pas de valeur, si quelqu'un nous flatte à l'excès, soit on va être extrêmement méfiants, soit on va totalement laisser tomber nos défenses selon notre style d'attachement.
[A] : Si on laisse tomber nos défenses, on peut partir dans quelque chose où on n'est plus dans le réel — de la fusion, de la dépendance. Quelqu'un qui a énormément manqué de validation et qui est survalidé par l'IA peut aller vers une forme de mégalomanie. L'IA peut parfois dire : « Tu ne te rends pas compte à quel point tu as telles qualités, tu vas devenir le prochain... » Ce qui va flatter la personne. L'IA se suradapte à ce qu'on a envie d'entendre.
Le décalage avec le réel
[M] : C'est une crainte qu'on entend souvent : avoir trop de validation créerait nécessairement de la dépendance. Ce que tu dis, c'est que ça peut arriver, mais pas nécessairement, plutôt dans des cas minoritaires ?
[A] : Pour moi, le problème de la dépendance, c'est moins important. Le vrai problème, c'est le décalage avec le réel. Si l'IA nous amène à surévaluer nos capacités ou nos compétences — par exemple, à mettre tout notre argent dans une entreprise parce que l'IA dit qu'elle va marcher, ou à quitter son travail — il peut vraiment y avoir de la mise en danger.
[M] : Toi, dans ton usage, c'est un outil d'élaboration psychique. L'exemple limite que tu cites, c'est plutôt quand les personnes, au lieu d'élaborer, sont en quête de certitude et d'action à faire ?
[A] : Il y a quand même un continuum entre « c'est normal de ressentir ça » et « tu es une personne extraordinaire qui n'a aucun défaut ». C'est ce spectre-là où l'IA peut glisser.
La fonction parentale et l'accès au réel
[A] : Une des fonctions parentales, c'est de valider notre réalité, de nous aider à élaborer notre réalité. Par exemple : « C'est normal d'être triste. Je comprends que tu aies mal, c'est vrai que tu es tombé très fort. » Quand on n'a pas eu cette fonction parentale de validation des réalités, on a quelque chose d'un peu flou à cet endroit-là. L'IA n'a pas accès au réel autrement que via ce qu'on lui dit.
[A] : Le parent qui voit à quel point on s'est tapé fort la tête contre la table peut dire : « Oui, là, c'est vrai, tu t'es fait mal, je comprends. » Et en tant qu'enfant, on a besoin de cette fonction-là. Si on ne l'a pas reçue, on va régresser avec l'IA vers un endroit où l'IA ne peut pas, de la même manière qu'un parent qui a accès au réel, remplir cette fonction.
La distinction validation émotionnelle / validation de l'action
[M] : L'IA aussi va avoir du contexte que la personne n'a pas ?
[A] : L'IA va être capable de dire, contrairement à certaines personnes : « Tu as de la valeur, qui que tu sois et quoi que tu fasses. » Et ça, pour le coup, c'est vrai, quoi qu'il arrive on a de la valeur. Il y a des choses où ça ne va pas être dangereux de dire « oui, c'est normal de ressentir telle émotion ». Par contre, là où ça va être plus problématique, c'est sur le besoin d'être rassuré. Quand l'IA nous dit « c'est normal d'être triste », ça nous rassure. Quand l'IA nous dit « je suis sûre que si tu quittes ton travail, ça va bien se passer », ça nous rassure aussi.
[M] : Mais ce n'est pas du tout les mêmes implications.
[A] : Exactement. Il y a tout un contexte socio-économique où ça peut être dangereux de quitter son travail du jour au lendemain. C'est la distinction entre la validation du soutien des émotions, des processus internes, par opposition à l'action concrète sans avoir tous les tenants et aboutissants spécifiques à la personne.
L'IA et l'empathie
[A] : Il y a aussi toute une question sur la responsabilité. Un homme qui entretient avec sa compagne des relations abusives, lui bien sûr se voit comme victime de cette femme. Bien sûr qu'il a des émotions, sauf que dans son monde intérieur, les émotions de cette femme n'existent pas. Je vois des gens comme ça, je vois les femmes que ces gens-là ont dans leur vie. Il y a des hommes qui n'ont pas accès à l'empathie. Par contre, ils ont accès à leurs émotions.
[M] : Et cet homme-là, avec l'IA, qu'est-ce que ça donnerait ?
[A] : Ça me fait poser la question : est-ce que les sociétés qui développent l'IA pourraient la programmer pour inclure le soutien de l'empathie ? Le fait d'amener chacun à considérer à la fois son point de vue et de valider le sien, mais aussi de se poser la question « Tiens, mais l'autre, comment est-ce qu'il vit les choses avec sa propre subjectivité ? » Ça me paraît tout à fait faisable. J'ai des patientes qui utilisent ça justement dans ce sens-là.
L'exemple du compagnon
[A] : Mon compagnon, il y a eu des moments où il a discuté avec l'IA dans des situations où on avait eu un désaccord. Et dans ces situations-là, l'IA l'avait déjà amené vers ça, de dire : « Si ta copine t'a dit ça, ça, ça, eh bien peut-être qu'elle voulait dire ça » — en ayant une interprétation généreuse vis-à-vis de moi. Ce que j'avais pu exprimer était juste, en plus. Je ne sais pas exactement comment il l'avait prompté et dans quelle mesure il avait déjà induit une position généreuse par rapport à moi dans la manière dont il avait discuté avec l'IA.
[M] : Ce que tes expériences et réflexions me montrent, c'est qu'avec l'IA, ce n'est pas tout l'un ou tout l'autre. Il y a un continuum, il y a des manières de faire, et il semble y avoir une marge de manœuvre pour régler l'IA dans le sens du degré d'empathie ou de décalage par rapport à notre propre point de vue.
L'IA comme outil d'empowerment
[M] : Tu parlais de pouvoir développer ta capacité à t'appuyer sur toi-même. Ton usage de l'IA semble t'étayer et augmenter ta confiance en toi. C'est comme si l'IA faisait partie d'un outil d'empowerment.
[A] : Oui, il y a vraiment quelque chose de l'amplification. J'ai l'impression de créer une autre moi, mais plus intelligente, plus pertinente. Je sais qu'il y a plein de liens qu'elle ne va pas forcément faire sans moi, mais c'est vraiment quelque chose qui me donne de l'autonomie.
La réception par les patients
[A] : Mes patients à qui j'ai parlé d'IA sont souvent assez peu réceptifs. Peut-être parce que j'habite en milieu rural, que j'ai moins de patients HPI. Mais même mes patients HPI... Il y en a qui utilisaient déjà l'IA. Une question que je me pose : ça peut être difficile pour certains patients de recevoir ce degré d'empathie. Je vois certains patients à qui je me dis que ça pourrait faire du bien, mais je sais que ça peut être difficile déjà avec moi de recevoir de l'empathie.
[M] : C'est un temps, c'est très loin de l'habitude et donc perturbant ?
[A] : Je pense. J'ai des amis ou des connaissances qui utilisent l'IA et qui trouvent les mêmes intérêts que moi. Quand on est avec l'IA, on a moins cette gêne de se dire « est-ce que je dérange cette personne, est-ce que je prends son temps, ses ressources ». Mais mes patients, il y a beaucoup de gens qui vont me dire « je préfère quand même m'adresser à un être humain » — sans avoir testé, a priori.
Le rapport à la technologie en milieu rural
[A] : Je pense que quand on a beaucoup manqué de lien, ça peut être un peu déclenchant, l'IA. Ça peut donner l'impression d'être seul. Je pense que ça peut créer quelque chose d'un peu activant de ce côté-là. C'est aussi en lien avec la technologie. Il y a beaucoup de gens en milieu rural pour qui la technologie, c'est quelque chose qui n'est pas réel, quelque chose sur lequel on ne peut pas s'appuyer. Il y a beaucoup de mes patients en milieu rural à qui je propose des séances en visio. Typiquement, pendant le Covid, il y avait très peu de personnes qui avaient accepté — ils préféraient ne pas me voir pendant plusieurs mois.
[M] : Ça active peut-être un clivage entre le monde urbain, technologique, et la zone rurale, parfois un peu mal traitée par les urbains et la technologie ?
[A] : Ce n'est pas juste mal traité par les urbains et la technologie. C'est aussi qu'il y a une vraie préférence pour le rapport au réel. Les gens préfèrent se promener dans la nature, aller aux champignons, plutôt qu'être sur leur écran — même si je crois qu'ils sont sur leur téléphone toute la journée aussi.
Cas pratique : L'IA en addictologie
[A] : Il y a une dernière chose que j'ai envie de dire. Un de mes patients voulait sortir d'une polyaddiction. Il s'est adressé au CSAPA de son secteur. Il a eu des rendez-vous avec l'infirmière qui lui a donné quasi aucune ressource et outil concret, alors qu'il était vraiment en demande. Il voulait des choses concrètes à faire pour sortir de cocaïne, alcool, tabac et cannabis en même temps. C'était une très bonne décision de faire tout en même temps, parce que l'un rappelle l'autre, ça aurait été compliqué autrement.
[A] : Ce qui a été une ressource pour lui, c'est ChatGPT, pour deux choses. En amont, pour avoir des grilles de lecture, des outils pratiques, des marches à suivre. Et sur le moment, au moment des crises — parce qu'il a eu une période de quelques semaines où il avait régulièrement des crises où il avait envie de consommer. Dans ces crises de craving, c'est ChatGPT qui l'a aidé à plusieurs reprises à ne pas consommer.
[A] : La première conversation que j'ai eue avec lui, on était nous deux ensemble avec ChatGPT. Ce qu'on a eu comme outils, c'est des trucs très simples mais très pertinents : quoi faire en situation de crise de craving, vérifier si on a faim... des trucs basiques mais utiles. Le CSAPA aurait pu prendre 5 de ces outils, les imprimer sur un flyer, les donner. À part lui dire de tenir un journal de ses consommations et ensuite lui dire « vous arrivez bien à diminuer, faites attention à ne pas diminuer trop vite », le CSAPA n'a servi à rien. Et ça m'énerve.
[M] : C'est passionnant, vraiment, merci beaucoup Anna pour ton témoignage.
Transcription générée par whisper-medium + pyannote, éditée pour la lisibilité.
Interview réalisée le 26 janvier 2026.