Dr Arnaud Gauthier

Témoignage soignant

Dr Arnaud Gauthier, médecin psychothérapeute

« L'IA pourrait-elle être une orthèse cognitive ? » — Président de l'Institut Français de Thérapie des Schémas, il explore avec curiosité et sans dogmatisme les usages de l'IA en santé mentale.

Médecin psychothérapeute et président de l'Institut Français de Thérapie des Schémas, Arnaud Gauthier explore avec une curiosité sans dogmatisme les usages de l'IA en santé mentale. De l'orthèse cognitive pour les patients TSA au rêve d'immortalité numérique, un praticien entre clinique et science-fiction.

« Un médecin somaticien devenu psychothérapeute »

Arnaud Gauthier est médecin généraliste et psychothérapeute en libéral. Son parcours est atypique : formé initialement en médecine d'urgence et en traumatologie, il s'est progressivement tourné vers la psychothérapie. Ce double ancrage — somatique et psychique — irrigue toute sa réflexion sur l'IA.

Sa trajectoire thérapeutique est elle-même intégrative : thérapie analytique reichienne (déjà axée sur le corps), hypnose éricksonienne, EMDR, TCC, thérapie des schémas, psychologie positive. Aujourd'hui président de l'Institut Français de Thérapie des Schémas (IFTS) et superviseur certifié ISST, il reçoit en libéral des patients adultes et grands adolescents présentant des troubles anxieux, dépressifs et de la personnalité.

Au moment de l'interview, il achève un livre sur le travail de chaise (chair work) — cette technique expérientielle où le patient dialogue avec différentes parts de lui-même. Sa philosophie : transmettre une grammaire des outils plutôt que des scripts rigides.

L'IA comme orthèse cognitive : quand la béquille devient légitime

L'idée est venue en supervision. Une thérapeute lui décrit une patiente autiste en grande difficulté relationnelle au travail : messages perçus comme cassants, incompréhension des codes sociaux, pertes d'emploi à répétition. Arnaud, qui n'est pas spécialiste du TSA, a pourtant une intuition immédiate.

« Est-ce que ce ne serait pas intéressant de lui proposer de créer un prompt pour relire les messages qu'elle doit envoyer dans son cadre professionnel ? Que ce soit un genre de secrétaire ou de coach qui lui permette de fonctionner de manière plus simple au quotidien. »

L'analogie est centrale : un patient qui a une jambe cassée reçoit un plâtre sans que personne n'y voie un problème. L'aide est acceptée parce que le déficit est physique, visible. Mais pour un déficit cognitif — communication TSA, organisation TDA/H, mémoire — la réaction sociale est toute autre.

« Pourquoi est-ce que ça devrait être différent si on sort des fonctions motrices ? Pour des fonctions cognitives, des fonctions de mémoire, des fonctions émotionnelles, pourquoi ce serait une mauvaise chose d'utiliser des béquilles ? »

Arnaud distingue aussi les chatbots (production de texte) des agents IA (actions concrètes sur l'environnement). Pour un patient TDA/H, l'idéal ne serait pas seulement un outil qui reformule, mais un agent capable de gérer un agenda, d'envoyer des rappels, de recaler un planning — d'agir concrètement sur les fonctions exécutives déficitaires.

Le double standard physique/psychique

« T'es dépressif, mais bon, t'as qu'à te mettre un coup de pied au derrière, t'as qu'à te bouger. C'est juste une histoire de volonté. Je pense que c'est beaucoup plus présent pour des troubles psychiques que pour des troubles somatiques. »

Le diagnostic est limpide : le même type d'aide (une compensation externe pour un déficit fonctionnel) est accepté quand il s'agit du corps et stigmatisé quand il s'agit du psychique. Dire à quelqu'un « tu devrais te bouger » quand il a un plâtre serait absurde. Mais pour la dépression, l'anxiété, le TDA/H ? La réponse sociale est souvent : « c'est une question de volonté ».

Ce double standard éclaire la résistance culturelle à l'IA en santé mentale. Si l'aide technologique est suspecte pour le psychique en général, elle l'est doublement quand elle vient d'une machine. La crainte de la « dépendance à l'IA » fait écho à un reproche plus ancien : celui de ne pas « s'en sortir seul ».

L'IA au quotidien du praticien : assistant bibliographique et limites créatives

Au-delà du concept, Arnaud utilise l'IA dans sa pratique professionnelle quotidienne. Son usage principal : la veille bibliographique. Il recherche des articles sur PubMed, les donne à ChatGPT pour obtenir des résumés simplifiés, puis décide s'il approfondit ou non. Ce processus alimente la newsletter mensuelle de l'IFTS.

L'exemple le plus parlant : un article fondamental d'Arnoud Arntz, mettant à jour le protocole de reparentage en thérapie des schémas. Quinze pages en anglais. Sans IA, l'exercice — lecture, synthèse, traduction — lui aurait pris une journée entière.

« Je l'ai donné à ChatGPT, en deux minutes il m'a fait un résumé clair. J'ai été vérifier les infos en parallèle, ça m'a pris une demi-heure. Ça m'aurait pris une journée entière sans. »

Mais l'enthousiasme a ses limites. Pour la création conceptuelle — faire des liens transversaux entre approches, synthétiser des idées originales —, Arnaud est plus mitigé. Il estime que plus de 50 % du temps, les résultats sont satisfaisants, mais note une frustration récurrente quand il cherche des synthèses qui n'existent pas encore dans la littérature.

Quand ChatGPT critique votre livre : créativité, intentionnalité et grammaire

L'épisode est révélateur. Arnaud a presque fini son livre sur le travail de chaise. Il le soumet à ChatGPT pour révision. La réponse : beaucoup de compliments, puis une liste de recommandations — mettre plus de protocoles, ajouter des cas cliniques avec des scripts bien définis.

« Ça m'a mis un petit coup de blues. Je me suis dit : est-ce que j'ai fait fausse route ? Et ça m'a pris un moment pour me rendre compte qu'en fait, non. C'est pas ce que je veux pour ce livre. »

La tension est profonde. L'IA, entraînée sur des milliers de manuels de psychothérapie, reproduit la norme du genre : théorie, cas clinique, protocole. Or, c'est précisément ce qu'Arnaud veut éviter. Son projet est de transmettre une grammaire — un ensemble de principes que le clinicien peut combiner créativement — pas un script à appliquer mécaniquement.

L'analogie avec l'édition est éclairante : Arnaud pressent que son éditrice fera les mêmes remarques que ChatGPT. Ce n'est pas un défaut spécifique de l'IA, c'est une tendance structurelle à la convention. Mais la leçon reste : l'IA suit les normes, l'humain porte l'intention.

Science-fiction et prospective : le double numérique, l'immortalité, et le pharmakon

Changement de registre

Cette section rapporte les réflexions prospectives et spéculatives d'Arnaud Gauthier. Il s'agit d'explorations intellectuelles, pas de propositions cliniques. Ce changement de registre est porté par le praticien lui-même.

Arnaud a grandi dans la science-fiction — ses parents possédaient plus de 2000 livres de SF. Cette culture irrigue sa réflexion prospective. Si l'on considère que le cerveau est « un support biologique d'information », alors le transfert de conscience vers un support numérique n'est pas conceptuellement absurde.

De cette réflexion naît l'idée du « double numérique » : un modèle d'IA nourri de toutes nos préférences, idées, manières de penser, rêves et vulnérabilités — une copie fonctionnelle de notre personnalité qui persisterait indépendamment de notre corps biologique. Un « back-up » de soi, en quelque sorte, qui pourrait subsister « aussi longtemps qu'il y a un peu d'électricité dans un disque dur ».

Les applications imaginées sont multiples : implants cognitifs post-AVC utilisant ce double pour restaurer le langage, assistance mémoire pour les patients Alzheimer, persistance de la personnalité après la mort pour accompagner le deuil des proches. Mais Arnaud assume la tension avec l'embodiment qu'il défendait plus tôt.

« Il n'y aurait peut-être pas le ressenti biologique — l'embodiment pour le coup serait peut-être plus compliqué, ou il faudrait le programmer. Mais quelque part, ce serait une forme d'immortalité. »

Puis vient le retour éthique : « dans quelle mesure faut-il pallier complètement ? Notre humanité serait peut-être aussi dans le fait d'affronter certaines choses difficiles, pas juste choisir toujours la voie de la facilité. » La réflexion converge vers la notion de pharmakon : l'IA n'est ni bonne ni mauvaise, c'est le dosage et l'intentionnalité qui comptent.

« Plutôt que d'être dans le bien, le mal — il faut remettre de la nuance, s'adapter à son contexte, et juste se questionner. »

Ce que ce témoignage nous apprend

Le récit d'Arnaud Gauthier est celui d'un praticien-explorateur : un clinicien qui observe, teste, s'enthousiasme, se frustre, et théorise à partir de son expérience. Sa double formation — somaticienne et psychothérapeutique — lui permet de poser une question essentielle : pourquoi acceptons-nous une béquille pour le corps mais pas pour l'esprit ?

Ce qui est remarquable, c'est la progression de l'interview : du cas clinique concret (la patiente TSA) vers la philosophie (l'embodiment, le pharmakon) puis la science-fiction (le double numérique). Cette trajectoire reflète la manière dont beaucoup de cliniciens pensent l'IA : en partant du terrain, pas de la théorie.

L'humilité épistémologique que revendique Arnaud en conclusion est peut-être la posture la plus précieuse : accepter qu'on ne sait pas encore, tout en restant curieux.

Témoignage recueilli le 11 février 2026. Le Dr Arnaud Gauthier exerce en libéral et préside l'Institut Français de Thérapie des Schémas (IFTS).

Aller plus loin

Témoignages et retours d'expérience

Ce témoignage fait partie de notre série sur les usages de l'IA en santé mentale. Vous souhaitez partager votre expérience ?