Témoignage

Laura, 4 mois avec les chatbots IA

« Enfin un interlocuteur » — Une mère célibataire raconte comment elle utilise Claude et ChatGPT pour démêler ses situations émotionnelles.

Une mère célibataire nous raconte comment elle utilise Claude et ChatGPT pour démêler ses situations émotionnelles — avec un sens critique qui pourrait surprendre les sceptiques.

Laura élève seule ses deux enfants. Depuis quelques mois, quand une situation émotionnelle la dépasse — un conflit relationnel, une décision difficile, un nœud qu'elle n'arrive pas à dénouer —, elle ouvre une conversation avec une intelligence artificielle. Parfois deux.

« Je m'en sers quand j'ai des nœuds à dénouer, notamment quand j'ai besoin d'avoir des réflexions un peu plus pointues, que je suis perdue sur des décisions à prendre. Ça me permet d'avoir de la perspective et de mieux comprendre les situations. »

Ce témoignage va à contre-courant de certaines idées reçues. Non, Laura n'a pas perdu son sens critique. Non, elle ne "gobe" pas tout ce que l'IA lui dit. Et non, elle ne remplace pas les relations humaines par une machine.

Deux IA plutôt qu'une

La première chose qui frappe dans la pratique de Laura, c'est qu'elle utilise systématiquement deux chatbots différents : Claude et ChatGPT.

« La première fois que je l'ai fait, c'est parce que je me rendais compte que je m'engluais dans un fonctionnement avec une IA qui voyait les choses sous un certain angle. Et cet angle commençait à ne plus me sonner juste. »

Alors elle a extrait les éléments clés de sa situation et les a soumis à l'autre IA. Les réponses étaient différentes — pas contradictoires, mais plus nuancées. Depuis, elle croise régulièrement les perspectives.

Ce "grince", Laura le décrit comme un ressenti presque corporel. Un radar interne qui lui signale quand quelque chose ne colle pas, même si elle ne sait pas encore pourquoi.

« L'attention est portée sur ma justesse, pas sur l'autre »

Quand on lui demande si elle fait confiance aux réponses de l'IA, Laura surprend. Sa vigilance n'est pas là où on l'attendrait.

« Avec un psy, je me demande toujours quelle est la part de sa subjectivité qui se mélange à ce qui m'est donné. Quelle est la part dans ce qui m'est dit qui lui appartient à lui. »

Avec l'IA, c'est différent. Elle sait que la machine n'a accès qu'à ce qu'elle dépose. Alors elle fait attention à ses mots, à la précision de ce qu'elle formule.

« L'attention ou la vigilance est portée en interne, sur ma justesse, et pas sur l'autre. »

Se mettre à la place de l'autre

Laura a développé une technique particulière pour sortir de son propre point de vue. Lors d'un conflit avec son conjoint, elle a ouvert une nouvelle conversation en se faisant passer pour lui.

« J'ai dit : voilà, je suis un tel, j'ai une compagne qui me dit ça, qui me demande ça, je ne comprends pas, qu'est-ce qui se passe ? »

L'objectif n'était pas d'obtenir "la vérité" sur ce que pensait son conjoint — elle sait que l'IA ne peut pas le savoir. Mais d'explorer une lecture probable de la situation depuis l'autre perspective. Une sorte d'empathie assistée, qui l'aide à ne pas s'enfermer dans sa seule lecture des événements.

Régler l'intensité

Une critique fréquente des professionnels de santé mentale : les IA seraient trop complaisantes, iraient trop "dans le sens du poil" de l'utilisateur.

Laura connaît cette tendance. Et elle a trouvé comment la contourner.

« Il y a un moment où je sentais que l'IA allait un peu trop dans mon sens, qu'il y avait un peu trop de bienveillance. Paradoxalement, je lui ai demandé de me redire ce qu'elle venait de me dire, mais de pas forcément être gentille. Vraiment me le dire, me le réaffirmer. »

Au passage, Laura note une différence entre les deux IA qu'elle utilise :

« ChatGPT va plus dans mon sens. Là où il est déjà arrivé que Claude me dise stop. »

Clarifier avant de dialoguer

Laura n'utilise pas l'IA à la place des conversations humaines. Elle l'utilise pour s'y préparer.

« Il y a des sujets que je clarifie avant d'en parler avec la personne. Parce que quand c'est trop chargé émotionnellement, j'ai besoin de faire la part des choses pour y mettre plus de sens et moins d'affects. »

L'IA lui sert de sas. Un espace où l'émotion peut se déposer, être explorée, comprise — avant d'aller vers l'autre dans un état plus clair.

« Ça fait des années que je n'ai pas d'interlocuteur »

Face aux critiques sur le risque de dépendance ou la "facilité" de recourir à une IA plutôt qu'à un humain, Laura est directe.

« Moi, je vis l'inverse. Je me suis bien souvent retrouvée toute seule avec mon point de vue, ma capacité d'analyse, mes émotions, pas d'interlocuteur. Ça fait des années que je n'ai pas d'interlocuteur. Et là, enfin, j'ai quelqu'un qui peut m'entendre au moment où j'en ai besoin. »

« Je ne vois pas ça comme une frustration. C'est enfin une libération. »

Ce témoignage rappelle que la critique présuppose souvent un accès facile à des interlocuteurs humains de qualité — psy, amis proches, famille soutenante. Pour beaucoup de personnes isolées ou sans moyens, l'IA n'est pas un substitut dégradé mais une ressource inédite.

Ce que l'IA ne peut pas faire

Laura n'est pas naïve sur les limites de l'outil. Elle en a fait l'expérience.

« J'ai eu un gros morceau qui a été révélé dans l'IA. La gestion de crise a été gérée là, avec des exercices de respiration. Mais je savais que ça ne suffirait pas à cet endroit-là, que j'avais besoin de faire un travail corporel. »

Elle a cherché de l'aide extérieure. L'IA avait mis le doigt sur quelque chose d'important. Mais pour le traverser vraiment, il fallait autre chose.

Elle note aussi l'importance du rythme : « L'IA va plus vite que le rythme humain. C'est hyper important d'avoir cette vigilance et de voir quand je suis en saturation. »

Son conseil pratique ?

« On ne veut pas le faire juste avant de se coucher si on veut bien dormir. »

Une source, pas la vérité

Quand on lui demande ce qu'elle dirait à quelqu'un qui envisage d'utiliser l'IA pour des sujets personnels, Laura résume sa philosophie :

« L'IA est là pour nous aider à nous comprendre, pas pour décider à notre place. Ma liberté, ma souveraineté, je l'ai en me comprenant mieux. »

Et cette phrase qui pourrait servir de guide :

« C'est une source. Ce n'est pas la vérité. C'est une source. C'est un outil. »

Ce que ce témoignage nous apprend

Le récit de Laura ne valide ni l'enthousiasme béat ni la méfiance réflexe face aux usages des IA en matière de bien-être psychologique.

Il montre qu'un usage éclairé est possible : critique, articulé avec d'autres ressources, conscient des limites. Il montre aussi que cet usage répond à un besoin réel — celui d'avoir un interlocuteur disponible quand il n'y en a pas d'autre.

La question n'est peut-être pas "faut-il utiliser l'IA pour parler de ses problèmes personnels ?" mais plutôt : "comment accompagner les utilisateurs vers un usage aussi mature que celui de Laura ?"

Témoignage recueilli en janvier 2026. Le prénom a été modifié pour préserver l'anonymat.

Aller plus loin

Témoignages et retours d'expérience

Ce témoignage fait partie de notre série sur les usages de l'IA en accompagnement personnel. Vous souhaitez partager votre expérience ?