Double Standard Épistémique
En bref : dans le débat sur l'IA en psychothérapie, les outils basés sur les LLM sont systématiquement évalués à des standards que les pratiques humaines de référence ne satisfont pas elles-mêmes. On exige de l'IA des preuves d'innocuité que la psychothérapie humaine n'a jamais fournies. On dénombre les risques de l'IA sans les comparer aux risques du statu quo. Ce biais n'est pas une erreur d'inattention — c'est un réflexe cognitif profondément enraciné.
Pourquoi ce concept est utile
Quand vous lisez une étude qui conclut que « l'IA est dangereuse en santé mentale », ou qu'un confrère affirme que « les chatbots ne peuvent pas remplacer un thérapeute », une question simple permet de détecter un double standard éventuel :
« Le reproche fait à l'IA serait-il également valable pour la pratique humaine correspondante ? »
Si la réponse est oui — et qu'on ne fait pas le reproche à l'humain — c'est un double standard. Cela ne signifie pas que le reproche est faux. Cela signifie qu'il est incomplet : il manque le terme de comparaison qui lui donnerait sa juste mesure.
La balance à quatre plateaux
En psychothérapie, une décision clinique bien informée s'appuie sur une balance décisionnelle complète — pas seulement sur les risques. Quatre plateaux, pas deux.
Changement (intégrer l'IA)
Statu quo (ne rien changer)
Le double standard épistémique se manifeste quand on ne remplit qu'un seul plateau : les risques du changement. Les trois autres — les bénéfices du changement, les bénéfices du statu quo, et surtout le coût du statu quo (la perte de chance) — restent vides. C'est exactement la structure de la plupart des articles alarmistes sur l'IA en santé mentale : un décompte minutieux des risques potentiels, sans un mot sur ce que coûte l'absence de l'outil.
Le taux de décès par erreur médicale se compte en millions par an. Celui lié à l'IA en santé mentale se compte sur les doigts d'une main. Cela ne rend pas l'IA inoffensive — mais ça rend la comparaison obligatoire.
Cinq doubles standards courants dans le débat psy-IA
« L'IA est trop sycophante »
La sycophantie des LLM est un risque réel et documenté. Mais quand avez-vous lu une étude sur la sycophantie des thérapeutes humains ? Les expériences d'Asch (1951) montrent que 75 % des humains cèdent au conformisme social sur une question perceptive triviale. Les thérapeutes ne sont pas immunisés : désirabilité sociale, allégeance au cadre théorique, biais de confirmation en supervision — autant de formes de sycophantie humaine rarement nommées.
Le problème n'est pas que l'IA soit sycophante. C'est qu'on le reproche à l'IA sans le mesurer chez l'humain.
« L'IA peut provoquer des passages à l'acte »
Des cas isolés de suicides liés à l'usage de chatbots ont été rapportés. Chacun est une tragédie. Mais le comparateur est absent : combien de passages à l'acte surviennent malgré un suivi thérapeutique humain ? Combien de patients ne se suicident pas parce que un chatbot était disponible à 3 heures du matin quand le thérapeute ne l'était pas ? Le témoignage de Gaëlle Charlot en documente un cas.
Pointer le risque sans le comparer au coût de l'absence, c'est faire une analyse bénéfice-risque à un seul plateau.
« Les LLM n'ont pas de preuves d'efficacité clinique »
C'est factuel : la plupart des études sur les LLM en santé mentale sont au niveau T1 (test technique), pas T3 (efficacité clinique). Mais combien de pratiques humaines courantes en psychothérapie ont un niveau T3 robuste ? Des pans entiers de la pratique — supervision, reformulation, ajustement intuitif du cadre — ne reposent sur aucune preuve de niveau T3. Exiger d'un LLM des preuves que le thérapeute humain ne fournit pas, c'est un double standard.
Le déficit de preuve des LLM est réel. Mais il est rarement comparé au déficit de preuve (tout aussi réel) de la pratique humaine de référence.
« L'IA renforce les biais cognitifs »
Probable. Mais c'est aussi ce que fait un thérapeute humain mal supervisé, un ami bien intentionné, ou un groupe de pairs qui partage les mêmes a priori. Le biais de confirmation est un phénomène humain universel — l'IA l'amplifie peut-être, mais elle ne l'invente pas. La question utile n'est pas « l'IA renforce-t-elle les biais ? » (réponse triviale : oui) mais « dans quelle mesure, comparé à quoi, et avec quels garde-fous ? »
« Il faut un humain dans la boucle »
Principe de prudence raisonnable que nous partageons. Mais qui a le statut d'un article de foi quand il est prononcé sans confrontation empirique. Les données qui soutiendraient « un humain dans la boucle produit systématiquement de meilleurs résultats cliniques qu'un LLM seul » n'existent pas encore — précisément parce qu'on ne fait pas l'étude. Le principe pourrait être vrai. Mais le décréter vrai sans preuve, tout en exigeant des preuves de l'IA, c'est le double standard lui-même.
Pourquoi le double standard est si facile à commettre
Ce n'est pas un biais anodin ni un défaut d'attention. Il est nourri par plusieurs mécanismes cognitifs bien documentés.
- • Biais du statu quo : nous percevons les risques du changement comme plus saillants que les risques (pourtant équivalents ou supérieurs) de l'absence de changement. Le négatif du statu quo est invisible parce qu'il est habituel.
- • Familiarité : nous accordons une confiance implicite aux systèmes familiers (le thérapeute humain) et un scepticisme implicite aux systèmes étrangers (le LLM). C'est le même mécanisme qui rendait l'imprimerie menaçante au XVe siècle.
- • Identité professionnelle : remettre en question la supériorité absolue du thérapeute humain touche à l'identité même du praticien. Le double standard protège cette identité en maintenant la comparaison hors du champ.
- • Structure de la publication scientifique : un article qui démontre un risque de l'IA est publiable. Un article qui démontre que le même risque existe chez l'humain est trivial. La structure des incitations académiques favorise le décompte des risques de l'IA et ignore le comparateur.
Ce que ce concept n'est pas
Ce n'est pas un argument en faveur de l'IA
Pointer un double standard ne signifie pas que l'IA est inoffensive ou préférable. Cela signifie que l'évaluation doit être complète et comparative — les quatre plateaux remplis — pour être honnête intellectuellement.
Ce n'est pas un rejet de la prudence
Le principe de précaution est légitime. Ce qui ne l'est pas, c'est de l'appliquer sélectivement à l'IA tout en le suspendant pour les pratiques humaines. La prudence est cohérente ou elle n'est rien.
Ce n'est pas une attaque contre les thérapeutes
La psychothérapie humaine est précieuse et irremplaçable dans de nombreux contextes. Dire que la comparaison avec l'IA doit être honnête n'est pas dire que l'humain est défaillant — c'est dire que le débat est défaillant quand il évite la comparaison.
Ce que ça change pour votre pratique
- Quand vous lisez une étude qui liste des risques de l'IA en psychothérapie, vérifiez si le comparateur est présent. « L'IA peut faire X de mal » sans « comparé à quoi ? » est un argument incomplet.
- Quand vous débattez entre pairs, essayez de remplir les quatre plateaux avant de conclure. Quels sont les risques de l'IA ? Ses bénéfices ? Quels sont les bénéfices du statu quo ? Et surtout : quel est le coût du statu quo ?
- Avec vos patients TAG, le double standard vous sera familier : c'est exactement la structure cognitive de l'évitement anxieux. Les risques du changement sont hyper-saillants ; les coûts de l'immobilité sont invisibles. La restructuration cognitive qui fonctionne pour le patient fonctionne aussi pour le débat professionnel.
Concepts associés sur ce site
Sycophancy des LLM
La sycophantie est un risque réel des LLM. Mais le reproche sycophantique lui-même est sujet au double standard s'il n'est pas comparé au conformisme humain (Asch 1951, désirabilité sociale en thérapie).
Échantillon WEIRD
Les études qui dénoncent les biais des LLM s'appuient souvent elles-mêmes sur des échantillons WEIRD. Un double standard au carré : reprocher à l'IA un biais d'entraînement à partir d'études qui souffrent du même biais d'échantillonnage.
Pour aller plus loin
Sur ce site
- IA sycophantes : resituer le débat — Notre éditorial fondateur sur la confusion entre sycophantie technique et validation émotionnelle.
- Allen Frances et la menace existentielle — Un cas paradigmatique de double standard : le président du DSM-IV refuse l'analyse bénéfice-risque qu'il prône par ailleurs.
- Framework Hua : trois niveaux de preuve — Pour situer le niveau réel de preuve des études qu'on cite dans le débat.
- Témoignage Gaëlle Charlot — Le cas d'un patient qui a choisi de parler à ChatGPT plutôt que de mourir à 3 heures du matin. Le coût du statu quo, concrètement.
Références
- Asch, S. E. (1951) — Effects of group pressure upon the modification and distortion of judgments. In H. Guetzkow (ed.), Groups, leadership and men. — Le conformisme social humain comme référence.
- Kahneman, D. (2011) — Thinking, Fast and Slow. — Biais du statu quo, aversion à la perte, saillance asymétrique.
- Hua, Y. et al. (2025) — Charting the evolution of AI mental health chatbots. World Psychiatry. — Cadre T1/T2/T3 pour mesurer le double standard entre types de preuve.
Fiche créée : avril 2026