IA santé mentale Soutien autonome Fermé (juin 2025)

Woebot

Woebot Health (San Francisco) — 2017–2025

En bref : Woebot était le chatbot de santé mentale le plus étudié scientifiquement au monde : 14 essais cliniques randomisés, désignation FDA « Breakthrough Device » pour la dépression post-partum, 1,5 million d'utilisateurs. Contrairement à ChatGPT ou Claude, Woebot n'utilisait pas d'IA générative : chaque réponse était écrite à la main par des cliniciens TCC et orchestrée par un arbre décisionnel. L'application a été fermée le 30 juin 2025, sa fondatrice citant le coût prohibitif de la réglementation FDA et l'impossibilité d'intégrer les LLM dans un cadre régulatoire inexistant. Sa trajectoire — de la promesse clinique à la fermeture — est une leçon pour tout le champ de l'IA en santé mentale.

Identité

Éditeur : Woebot Health (San Francisco, États-Unis)

Période : 2017–2025 (fermé le 30 juin 2025)

Type : Chatbot thérapeutique TCC à règles (pas d'IA générative)

Fondatrice : Alison Darcy, PhD (psychologue clinicienne, Stanford)

Tarifs : Gratuit (grand public) / Licences entreprise

Langues : Anglais uniquement

Accès : Était disponible sur iOS, Android et web — plus accessible

Utilisateurs : ~1,5 million au total

Origine : rendre la TCC accessible

Alison Darcy est psychologue clinicienne, formée à Dublin puis à Stanford. Pendant 20 ans, elle travaille sur les traitements numériques en santé mentale — d'abord des groupes de soutien en ligne pour les troubles alimentaires, puis la réalité virtuelle en psychiatrie de l'enfant. Son constat récurrent : les traitements validés existent, mais la majorité des gens n'y ont pas accès.

À Stanford, elle rencontre Andrew Ng, pionnier de l'IA, et dirige son Health Innovation Lab. De cette collaboration naît Woebot : un chatbot qui délivre des techniques de TCC à travers des conversations structurées. Le premier essai (2017) montre une réduction significative des symptômes dépressifs en deux semaines — un délai comparable à celui des antidépresseurs.

La suite : 123,5 millions $ de financement, la désignation FDA « Breakthrough Device », et en 2023, la reconnaissance de Darcy dans le TIME 100 AI.

Ce que faisait Woebot (en clair)

Woebot était fondamentalement différent de ChatGPT, Claude ou Gemini. Ce n'était pas un modèle de langage. C'était un système à règles : chaque réponse était écrite à la main par des rédacteurs formés en TCC, IPT et DBT, puis organisée dans un arbre décisionnel. L'IA n'intervenait que pour comprendre les messages de l'utilisateur (NLP), pas pour générer les réponses.

Implication clinique de ce choix technique

Pas de risque d'hallucination, pas de contenu imprévisible, pas de sycophantie. Chaque intervention était contrôlée et reproductible — ce qui rendait l'outil testable en essai clinique. C'est précisément ce qui l'a rendu le chatbot le plus étudié et le plus validé. C'est aussi ce qui l'a rendu obsolète face aux LLM.

Approches intégrées

  • • Thérapie cognitivo-comportementale (TCC)
  • • Psychothérapie interpersonnelle (IPT)
  • • Thérapie comportementale dialectique (DBT)

Fonctionnalités

  • • Check-ins quotidiens d'humeur
  • • Exercices de restructuration cognitive
  • • Psychoéducation par modules
  • • Suivi d'humeur graphique
  • • Journaling guidé

L'alliance thérapeutique avec un chatbot

Étude sur 36 070 utilisateurs : Woebot atteignait un score d'alliance thérapeutique (WAI-SR) de 3,8/5 — comparable à la TCC de groupe (3,8) et proche de la TCC individuelle (4,0). Le lien se formait en 3 à 5 jours et ne diminuait pas avec le temps.

Résultats cliniques

Woebot est le seul chatbot de santé mentale à disposer d'un corpus de preuves cliniques substantiel : 14 essais cliniques randomisés publiés dans des revues à comité de lecture.

Dépression chez les jeunes adultes (Fitzpatrick et al., 2017)

  • • RCT, 70 participants (18–28 ans), 2 semaines
  • • Réduction significative des symptômes dépressifs (PHQ-9) vs. groupe contrôle
  • • Taille d'effet modérée (d = 0,44), significative après correction de Bonferroni
  • Limites : petit échantillon, durée courte, fondatrice co-auteure

Usage problématique de substances (Prochaska et al., 2021)

  • • RCT, 180 adultes
  • • Réduction d'un tiers de la fréquence d'épisodes de consommation problématique
  • • Amélioration de la confiance et diminution des envies
  • Pas de différence significative sur dépression/anxiété générales

Stress et burn-out (2023)

  • • Étude exploratoire (non randomisée), 8 semaines
  • • Réduction significative du stress perçu et du burn-out, augmentation de la résilience
  • • Effet plus marqué chez les participants avec symptômes élevés au départ

Dépression post-partum (essai pivotal)

  • • WB001 : désignation FDA « Breakthrough Device » (2021)
  • • Essai multicentrique, en double aveugle, randomisé
  • • Premier patient recruté — résultats non publiés (interrompu par la fermeture)

Lecture critique : Les résultats de Woebot sont les plus solides du champ, mais restent modestes. Les échantillons sont petits (70–180 participants), les durées courtes (2–8 semaines), et la fondatrice est co-auteure des études initiales. L'essai pivotal sur la dépression post-partum — qui aurait pu fournir des preuves décisives — n'a pas abouti. C'est néanmoins nettement plus que ce dont disposent ChatGPT, Claude ou Replika.

Pourquoi Woebot a fermé : leçons pour le champ

Le 30 juin 2025, Woebot ferme son application grand public. Alison Darcy explique : « l'IA avance plus vite que les régulateurs ». Les causes sont multiples.

1. L'impasse réglementaire

La FDA dispose d'un cadre pour les chatbots à règles, mais aucun cadre pour les LLM. Woebot voulait intégrer de l'IA générative pour améliorer son produit, mais ne pouvait pas le faire sans autorisation réglementaire — qui n'existait pas. Un comité consultatif FDA ne s'est réuni sur le sujet qu'en novembre 2025, cinq mois après la fermeture.

2. Le coût de la rigueur

Mener des essais cliniques, rédiger des dossiers FDA, maintenir des standards de preuve coûte cher. Pendant ce temps, ChatGPT atteignait des centaines de millions d'utilisateurs sans aucune validation clinique ni approbation réglementaire — simplement parce qu'il n'est pas commercialisé comme outil de santé.

3. Le paradoxe du chatbot éthique

L'application la plus sûre et la mieux validée a fermé, tandis que des outils sans validation clinique (ChatGPT, Replika) sont utilisés massivement pour le soutien émotionnel. L'Illinois et New York ont commencé à légiférer, mais le vide réglementaire reste béant au niveau fédéral.

Pour le clinicien : Woebot illustre un paradoxe structurel. Les outils qui cherchent à prouver leur efficacité et à obtenir une approbation réglementaire sont pénalisés par le coût et la lenteur du processus. Les outils qui ne prétendent pas être thérapeutiques échappent à la régulation tout en étant utilisés comme tels. Ce décalage est le problème central du champ.

Notre analyse

Woebot mérite une fiche sur ce site précisément parce qu'il a fermé. Sa trajectoire est la démonstration la plus nette que rigueur clinique et succès commercial ne coïncident pas dans le champ de l'IA en santé mentale — du moins pas encore.

Pour le clinicien, Woebot représente ce à quoi pourrait ressembler un outil numérique de santé mentale « bien fait » : fondé sur des approches validées (TCC, IPT, DBT), écrit par des cliniciens, testé en essai randomisé, soumis à régulation. C'est aussi la démonstration qu'un chatbot à règles peut former une alliance thérapeutique mesurable (3,8/5 sur le WAI-SR), même sans IA générative.

Mais l'histoire de Woebot révèle aussi les limites du modèle. Un chatbot à règles ne peut pas s'adapter finement au langage de chaque utilisateur, ne peut pas saisir des nuances émotionnelles subtiles, ne peut pas intégrer le contexte d'une conversation longue. Les LLM le peuvent — mais sans les garanties de sécurité et de reproductibilité d'un système à règles. Le défi du champ est de trouver comment combiner les deux.

Comme l'écrit Scott Wallace (psychologue spécialiste de l'IA en santé mentale) : quand « le plus éthique et le plus fondé sur la science » ferme, cela dit quelque chose sur les incitations du marché. Les outils qui rapportent le plus ne sont pas ceux qui guérissent le mieux. Ce constat devrait orienter la réflexion des cliniciens sur l'ensemble du champ.

Références

Fitzpatrick, K. K., Darcy, A. & Vierhile, M. (2017). Delivering CBT to Young Adults With Symptoms of Depression and Anxiety Using a Fully Automated Conversational Agent (Woebot): A RCT. JMIR Mental Health, 4(2), e19.

Prochaska, J. J. et al. (2021). A therapeutic relational agent for reducing problematic substance use (Woebot): Development and usability study. Drug and Alcohol Dependence.

Darcy, A. et al. (2023). Changes in stress, burnout, and resilience associated with an 8-week intervention with Woebot. Internet Interventions.

STAT News (2025). Woebot Health shuts down pioneering therapy chatbot.

Wallace, S. (2025). R.I.P. Woebot: When the most ethical and science-based AI mental health tool shuts down. Advances in AI for Mental Health (Medium).

Palmer, M. (2025). Digital Mental Health Tools and AI Therapy Chatbots: A Balanced Approach to Regulation. Hastings Center Report.

IEEE Spectrum (2024). Woebot, a Mental-Health Chatbot, Tries Out Generative AI.

Fiche mise à jour : février 2026

Retour aux outils IA