Quand la menace existentielle perçue biaise l'analyse concernant l'IA : lecture critique d'Allen Frances
Un éminent psychiatre publie un cri d'alarme sur les chatbots thérapeutiques dans le British Journal of Psychiatry. Son analyse est lucide sur certains risques, mais tombe dans des pièges cognitifs que tout clinicien devrait savoir repérer — chez les auteurs et chez soi-même.
L’article
En août 2025, Allen Frances — psychiatre américain, professeur émérite à Duke University et surtout ancien président du groupe de travail qui a produit le DSM-IV — publie dans le British Journal of Psychiatry un article intitulé « Warning: AI chatbots will soon dominate psychotherapy ».
L’article est substantiel. Frances y recense onze bénéfices de la thérapie par chatbot, quatorze dangers, et formule des recommandations pour la profession. Le tout se conclut par une question dramatique : l’IA sera-t-elle « le grand nouveau serviteur de l’humanité, ou est-elle destinée à nous remplacer dans une lutte darwinienne pour la survie ? »
Venant d’un auteur de cette stature, publié dans l’une des revues les plus prestigieuses de la psychiatrie mondiale, l’article mérite une lecture attentive. C’est ce que nous avons fait — et c’est précisément cette lecture attentive qui révèle des problèmes.
Non pas que Frances ait tort sur tout. Au contraire, plusieurs de ses préoccupations sont fondées. Mais la manière dont il construit son analyse tombe dans des biais cognitifs identifiables, reproductibles, et — c’est ce qui nous intéresse ici — généralisables à la plupart des débats sur l’IA en santé mentale.
Si même un clinicien de cette envergure n’y échappe pas, aucun d’entre nous n’est immunisé. D’où l’intérêt de les repérer.
Ce que Frances dit de juste
Avant de critiquer, reconnaissons ce qui est solide. Frances identifie des risques réels que nous partageons :
-
Le dommage iatrogène pour les patients vulnérables : un chatbot non supervisé face à une personne psychotique ou suicidaire pose un risque réel. Ce n’est pas une spéculation — c’est une préoccupation clinique légitime.
-
Le contournement réglementaire : de nombreuses applications de santé mentale se labellisent « outils de bien-être » pour éviter les régulations applicables aux dispositifs médicaux. Frances a raison de le signaler.
-
L’exploitation commerciale des données : le fait que des entreprises utilisent les transcriptions de sessions de thérapie en ligne pour entraîner leurs modèles soulève des questions éthiques de consentement éclairé.
-
La formation par patients simulés : l’une des idées les plus constructives de l’article — l’IA pourrait former les thérapeutes sans exposer de vrais patients aux erreurs d’apprentissage.
Ces points méritent d’être pris au sérieux. Le problème n’est pas ce que Frances dit — c’est ce qu’il ne dit pas, et la manière dont il pèse ce qu’il dit.
Biais n°1 · Le double standard
Le biais : Appliquer des critères d’évaluation différents selon qu’on juge l’IA ou l’humain.
C’est le biais le plus structurant de l’article. Quand un chatbot commet une erreur, Frances parle de danger « terrifying ». Quand un thérapeute humain commet une erreur, il note entre parenthèses, avec humour : « in fairness, we human therapists also sometimes say dumb things and don’t own up to them. »
Même phénomène, deux traitements radicalement différents.
Or la littérature sur le dommage iatrogène en psychothérapie humaine est loin d’être anecdotique. Lilienfeld (2007) a documenté de multiples traitements psychologiques qui causent du tort, y compris des approches largement pratiquées. Crawford et al. (2016), dans le British Journal of Psychiatry lui-même, ont trouvé qu’environ 5 à 10 % des patients en essais cliniques de thérapies psychologiques se détériorent — un taux comparable à la pharmacothérapie.
Frances ne mentionne aucune de ces données. Le dommage iatrogène est présenté comme un problème spécifique à l’IA, alors qu’il est inhérent à toute intervention thérapeutique.
Pourquoi c’est un problème : si nous voulons évaluer rigoureusement l’IA thérapeutique, nous devons appliquer les mêmes critères aux deux modalités. Mêmes mesures de résultats, mêmes standards de sécurité, même transparence sur les effets indésirables. Ce n’est pas défendre l’IA — c’est défendre la méthode scientifique.
Comment le repérer : chaque fois qu’un article sur l’IA en santé mentale décrit un risque, demandez-vous : ce risque existe-t-il aussi en thérapie humaine ? Et si oui, pourquoi n’est-il pas mentionné ?
Biais n°2 · La négligence de la probabilité
Le biais : Évaluer un risque par la gravité du pire scénario imaginable, sans estimer sa probabilité d’occurrence.
Ce biais a un nom en psychologie cognitive : le probability neglect (Sunstein, 2005). C’est la tendance à juger un risque par la terreur qu’il inspire plutôt que par sa fréquence réelle. C’est lui qui fait que nous avons plus peur de l’avion que de la voiture, alors que la voiture tue incomparablement plus.
Frances dresse un catalogue de dangers spectaculaires : lavage de cerveau totalitaire, IA qui « se rebelle » contre ses programmeurs, chatbot qui « fait chanter » ses développeurs, suicide causé par un chatbot. Chaque danger est présenté par son extrême — jamais par sa probabilité.
L’ironie est profonde. Frances a présidé le groupe de travail du DSM-IV — un monument de la psychiatrie basée sur les preuves, construit sur l’épidémiologie : prévalence, incidence, facteurs de risque, number needed to treat, number needed to harm. Toute la tradition intellectuelle dont il est l’un des architectes repose sur l’évaluation probabiliste du risque.
Qu’un psychiatre de cette stature abandonne toute estimation probabiliste au profit d’un catalogue de catastrophes possibles est une incohérence remarquable avec sa propre tradition.
Ce qui manque : pour chaque danger listé, quelle proportion d’utilisateurs est réellement affectée ? Quel est le taux d’incidents graves par nombre d’interactions ? Comment ce taux se compare-t-il au taux de base en thérapie humaine ? Sans ces données, nous ne faisons pas de l’analyse de risque — nous faisons de la rhétorique de la peur.
Comment le repérer : quand un article liste des dangers sans jamais estimer leur fréquence, demandez-vous : suis-je face à une évaluation de risque ou face à un argument émotionnel ?
Biais n°3 · L’outil diabolisé
Le biais : Attribuer à un outil technique les risques qui relèvent de son instrumentalisation par des systèmes humains.
Frances décrit des dangers bien réels : exploitation commerciale des données thérapeutiques, manipulation politique via les chatbots, marketing intrusif, collecte abusive d’informations personnelles. Ces risques existent. Mais ils ne sont pas des propriétés de l’IA — ce sont des propriétés du capitalisme de surveillance appliqué à la santé mentale.
La téléconsultation humaine pose les mêmes problèmes de confidentialité. Les dossiers médicaux électroniques sont piratés régulièrement. Les laboratoires pharmaceutiques font du marketing ciblé auprès des prescripteurs depuis des décennies. Aucun de ces problèmes n’a conduit à conclure qu’il fallait abolir la téléconsultation, les dossiers médicaux ou les médicaments.
Frances va jusqu’à évoquer Goebbels et l’Allemagne nazie pour illustrer le danger de manipulation par l’IA. Mais Goebbels utilisait la radio — pas l’intelligence artificielle. Le langage lui-même, l’imprimerie, la télévision : chaque technologie de communication a été instrumentalisée à des fins destructrices. La question pertinente n’est jamais « cet outil peut-il être mal utilisé ? » (oui, comme tout outil) mais « quels cadres institutionnels, réglementaires et déontologiques permettent un usage bénéfique ? »
C’est précisément cette question constructive que Frances n’explore pas.
Comment le repérer : quand un article attribue un risque à une technologie, demandez-vous : ce risque est-il intrinsèque à la technologie, ou au système dans lequel elle est déployée ?
Biais n°4 · Les bénéfices qui disparaissent
Le biais : Documenter des avantages, puis les exclure de la conclusion et des recommandations.
C’est peut-être le biais le plus troublant de l’article, parce qu’il est structurel.
Frances consacre une section substantielle aux bénéfices de l’IA thérapeutique : accessibilité 24/7, coût réduit, absence de jugement, capacité à intégrer les techniques de différentes écoles thérapeutiques. Il reconnaît que les chatbots sont « good, some brilliant ». Il reconnaît que la majorité des utilisateurs en bénéficie.
Puis, dans sa conclusion, ces bénéfices disparaissent intégralement. Le mot final est exclusivement alarmiste : « menace existentielle », « David contre Goliath », « lutte darwinienne pour la survie ». Aucune recommandation ne porte sur la façon de maximiser les bénéfices qu’il vient de documenter.
C’est comme si un médecin documentait qu’un traitement est efficace pour 80 % des patients, qu’il a des effets secondaires graves pour 5 %, et concluait qu’il ne faut jamais le prescrire.
L’enjeu n’est pas abstrait. L’OMS estime que plus de 75 % des personnes souffrant de troubles mentaux dans les pays à revenu faible ou moyen n’ont aucun accès aux soins psychologiques. Si même une fraction de ces personnes bénéficiait d’un soutien par IA — même imparfait, même limité aux cas légers — l’impact de santé publique serait considérable. Un article dans le British Journal of Psychiatry devrait intégrer ces données dans la balance, pas les mentionner en préambule pour les oublier ensuite.
Frances reproduit paradoxalement le pattern qu’il décrit chez Weizenbaum : horrifié de constater que « ça marche », la réponse est l’alarme plutôt que l’exploration constructive.
La question qu’il ne pose pas
Tout au long de l’article, Frances maintient un cadre compétitif : humain contre IA, « adapter ou mourir », David contre Goliath. Ce cadre exclut ce qui est peut-être la réponse la plus prometteuse : la collaboration.
Qu’est-ce que cela pourrait donner concrètement ?
- L’IA assure le suivi entre les séances (exercices, psychoéducation, monitoring de l’humeur) pendant que le thérapeute humain se concentre sur le travail relationnel en séance
- L’IA sert d’outil de supervision clinique en temps réel — détection de signaux de risque suicidaire, suggestions d’interventions basées sur les données probantes
- Des protocoles de stepped care où l’IA prend en charge le premier niveau de soutien, et le thérapeute humain intervient quand la complexité l’exige
- Le thérapeute comme superviseur d’agents IA, garant de la qualité clinique et de l’éthique
Frances mentionne en passant l’idée de « leading teams of artificial intelligence agents ». Mais il ne la développe pas. Son cadre compétitif l’en empêche : si l’IA est un ennemi dans une lutte darwinienne, elle ne peut pas être simultanément un partenaire.
La question de Frances — « serviteur ou remplaçant ? » — admet une troisième réponse : partenaire.
Ce que cet article nous apprend sur nous-mêmes
Les biais que nous venons d’identifier ne sont pas des « erreurs » de Frances. Ce sont des réactions cognitives prévisibles face à une menace perçue comme existentielle. Tout clinicien reconnaîtra le pattern :
- Pensée dichotomique : ami ou ennemi, adapter ou mourir
- Attention sélective : les dangers captent l’attention, les bénéfices sont minimisés
- Surgénéralisation : quelques cas dramatiques deviennent la règle
- Raisonnement émotionnel : « c’est terrifiant, donc c’est probable »
Ce sont exactement les distorsions cognitives que nous aidons nos patients à identifier. Il serait paradoxal que la profession qui a formalisé ces concepts ne les applique pas à sa propre réflexion sur l’IA.
L’intérêt de l’article de Frances n’est donc pas seulement dans ce qu’il dit sur l’IA. C’est aussi un cas d’école de ce qui arrive à notre pensée quand nous nous sentons menacés — même quand nous sommes des experts reconnus, même quand nous écrivons dans des revues prestigieuses, même quand nous avons les meilleures intentions du monde.
Conclusion : des outils de pensée, pas des camps à rejoindre
Le débat sur l’IA en psychothérapie n’a pas besoin de plus d’alarme. Il n’a pas besoin non plus d’enthousiasme béat. Il a besoin de ce que notre discipline sait faire de mieux : une analyse rigoureuse, nuancée, fondée sur les données.
Cela signifie :
- Appliquer les mêmes critères d’évaluation à la thérapie humaine et à la thérapie IA
- Évaluer les risques par leur probabilité, pas seulement par leur gravité imaginée
- Intégrer les bénéfices dans la balance, en particulier pour les populations actuellement sans accès aux soins
- Explorer les modèles de collaboration plutôt que de se préparer à une guerre
- Développer notre propre littératie IA comme compétence professionnelle
Frances nous rend un service en forçant la profession à affronter cette transformation. Mais une profession qui se définit par l’analyse rigoureuse de la complexité humaine ne peut pas se permettre une analyse simplifiée de la complexité technologique.
Ni technophile naïf, ni technophobe catastrophiste : c’est la position la plus difficile à tenir, et c’est exactement celle dont nos patients ont besoin.
Cet article est le premier d’une série de décryptages critiques de la littérature scientifique sur l’IA en santé mentale. Notre objectif n’est pas de défendre l’IA ni de la condamner, mais d’outiller les cliniciens pour lire ces publications avec le même regard critique qu’ils appliquent à leurs propres patients.
Référence analysée : Frances, A. (2025). Warning: AI chatbots will soon dominate psychotherapy. The British Journal of Psychiatry, 1–5. https://doi.org/10.1192/bjp.2025.10380
Lectures complémentaires :
- Crawford, M. J., Thana, L., Farquharson, L., Palmer, L., Hancock, E., Bassett, P., Clarke, J., & Parry, G. D. (2016). Patient experience of negative effects of psychological treatment: Results of a national survey. British Journal of Psychiatry, 208(3), 260–265. https://doi.org/10.1192/bjp.bp.114.162628
- Lilienfeld, S. O. (2007). Psychological treatments that cause harm. Perspectives on Psychological Science, 2(1), 53–70. https://doi.org/10.1111/j.1745-6916.2007.00029.x
- Sunstein, C. R. (2005). Laws of fear: Beyond the precautionary principle. Cambridge University Press.
Mots-clés