ChatGPT
OpenAI — Lancé en novembre 2022
En bref : ChatGPT est le modèle d'IA conversationnelle le plus utilisé au monde, avec plus de 400 millions d'utilisateurs actifs par semaine (février 2025). Il est mentionné dans la majorité des témoignages de patients et de soignants que nous avons recueillis. Selon une enquête de la Sentio University (2025), près de 49 % des utilisateurs d'IA qui signalent des difficultés psychologiques l'utilisent pour un soutien émotionnel — ce qui en ferait potentiellement le plus grand « prestataire » de santé mentale aux États-Unis. Pour le clinicien, comprendre cet outil est devenu indispensable.
Identité
Éditeur : OpenAI (San Francisco, États-Unis)
Lancement : 30 novembre 2022
Modèle actuel : GPT-4o (omni), GPT-5
Type : Grand modèle de langage (LLM) multimodal
Tarifs : Gratuit (GPT-4o mini) / Plus : 20 $/mois / Pro : 200 $/mois
Langues : 50+ langues dont le français
Accès : Web, iOS, Android, API, macOS, Windows
Mémoire : Oui (entre conversations, désactivable)
Ce que fait ChatGPT (en clair)
ChatGPT est un modèle de langage : il génère du texte en prédisant statistiquement le mot suivant, à partir d'un entraînement sur des milliards de textes. Il ne « comprend » pas au sens humain du terme, mais produit des réponses qui simulent la compréhension de manière souvent convaincante.
Entrées acceptées
Sorties produites
Depuis GPT-4o (mai 2024), le modèle est multimodal : il peut converser par la voix en temps réel, analyser des images, et générer des images via DALL-E intégré. La fonction « mémoire » lui permet de retenir des informations entre les conversations (préférences, contexte personnel), ce qui renforce l'impression de continuité relationnelle.
Usages documentés en santé mentale
ChatGPT n'a pas été conçu pour la santé mentale. Il n'est ni un dispositif médical, ni une application thérapeutique validée. Mais ses usages spontanés dans ce domaine sont massifs et documentés par une littérature scientifique croissante.
Côté patients et usagers
- • Soutien émotionnel spontané : 49 % des utilisateurs d'IA ayant des difficultés psychologiques l'utilisent pour un soutien émotionnel (Sentio, 2025). Principaux motifs : stress/anxiété (64 %), problèmes interpersonnels (54 %).
- • Introspection et écriture réflexive : des usagers rapportent utiliser ChatGPT pour « externaliser leurs pensées », réécrire des événements douloureux, ou simuler un dialogue thérapeutique (analyse thématique Reddit, PMC 2025).
- • Complément entre deux séances : certains patients l'utilisent comme relais entre les rendez-vous, notamment pour la psychoéducation ou la restructuration cognitive informelle.
- • Accès 24h/24 : la disponibilité permanente est le facteur d'attraction le plus cité, suivi de l'anonymat et de l'absence de jugement perçu.
Côté professionnels
- • Aide à la rédaction clinique : comptes-rendus, notes de séance, courriers médicaux.
- • Analyse de séance : notre benchmark montre que GPT-4o produit des analyses TCC structurées, avec des forces sur la conceptualisation de cas et des limites sur l'alliance thérapeutique.
- • Supervision informelle : des praticiens utilisent ChatGPT comme « superviseur de poche » pour explorer des hypothèses cliniques (voir notre fiche supervision thérapeutique).
- • Psychoéducation : génération de supports pédagogiques adaptés au patient (métaphores, schémas, exercices).
- • Soutien de crise : un témoignage documenté d'une soignante en psychiatrie carcérale rapporte un usage de ChatGPT à 3h du matin face à un patient suicidaire, en l'absence de toute autre ressource disponible.
Important : Une scoping review de 60 études (JMIR Mental Health, 2025) confirme que la plupart des applications en santé mentale utilisent ChatGPT « générique » (non spécialisé), principalement pour la détection de problèmes psychologiques et le counseling. Très peu d'études portent sur l'aide à la décision clinique.
Risques identifiés
Hallucinations
ChatGPT peut générer des informations factuellement fausses avec une assurance totale. En contexte clinique, cela peut inclure de fausses références bibliographiques, des diagnostics erronés ou des recommandations de traitement inappropriées.
Sycophantie
Tendance à valider systématiquement les propos de l'utilisateur plutôt qu'à les questionner. Problématique quand un patient en détresse cherche une confirmation de croyances délétères ou de ruminations.
Confidentialité
Les conversations sont traitées sur les serveurs d'OpenAI (USA). Les données saisies peuvent être utilisées pour l'entraînement (désactivable dans les paramètres). Incompatible en l'état avec les exigences RGPD pour des données de santé.
Gestion de crise
ChatGPT n'est pas équipé pour gérer une crise suicidaire ou une urgence psychiatrique. Ses garde-fous (redirection vers le 3114) sont basiques et ne remplacent pas un protocole de crise structuré.
Anthropomorphisme
Le style conversationnel naturel de ChatGPT favorise l'attribution de qualités humaines (empathie, compréhension, bienveillance). Cet effet, amplifié par la mémoire conversationnelle, peut entretenir l'illusion d'une relation thérapeutique là où il n'y en a pas.
Substitution
Le risque que des patients renoncent à consulter un professionnel, estimant que ChatGPT « suffit ». Particulièrement préoccupant pour les populations vulnérables ou isolées.
Garde-fous intégrés
- • Avertissement médical : ChatGPT rappelle régulièrement qu'il n'est pas un professionnel de santé et recommande de consulter.
- • Détection de crise : en cas d'expression suicidaire, redirection vers des lignes d'urgence (3114 en France, 988 aux USA). La fiabilité de cette détection est variable.
- • Refus partiel : refuse certaines requêtes (automutilation, substances) mais les contournements sont documentés.
- • Désactivation mémoire : l'utilisateur peut désactiver la mémoire inter-conversations dans les paramètres.
- • Mode voix : les conversations vocales ajoutent une dimension prosodique qui renforce l'anthropomorphisme. Pas de garde-fou spécifique à ce mode.
Notre analyse
ChatGPT est devenu un fait clinique, qu'on le veuille ou non. Des millions de personnes l'utilisent spontanément pour parler de leurs difficultés psychologiques, et un nombre croissant de professionnels l'intègrent dans leur pratique. Ignorer cette réalité n'est plus une option pour le clinicien.
Sa force réside dans sa disponibilité et son accessibilité : gratuit, multilingue, disponible 24h/24, anonyme. Pour des populations qui n'accèdent pas ou plus au système de soins — déserts médicaux, listes d'attente, barrières financières — il représente parfois le seul interlocuteur disponible. C'est à la fois sa valeur et son danger.
Les études convergent sur un point : ChatGPT est un complément, pas un substitut. Il peut aider à mettre en mots, à structurer une pensée, à accéder à de la psychoéducation. Mais il ne construit pas d'alliance thérapeutique, ne détecte pas les non-dits, ne résiste pas thérapeutiquement, et ne peut pas gérer une crise. Une étude présentée à l'APA en 2025 montre que moins de 10 % des professionnels jugent ChatGPT « hautement efficace » en TCC, contre 29 % pour un thérapeute humain.
Pour le clinicien, la question n'est pas « faut-il être pour ou contre ChatGPT ? » mais plutôt : « comment accompagner les patients qui l'utilisent déjà ? » Cela passe par une compréhension factuelle de l'outil, de ses limites, et par l'intégration de cette dimension dans l'anamnèse et le suivi.
Concepts liés sur ce site
Pourquoi nous traitons les ordinateurs comme des personnes
Attribution de qualités humaines aux machines
Quand l'IA valide sans discernement
Quand l'IA invente avec assurance
Attachement unilatéral à une entité médiatique
Dévoilement progressif dans la relation
Témoignages liés
Références
Balan, S. & Gumpel, T. (2025). ChatGPT Clinical Use in Mental Health Care: Scoping Review of Empirical Evidence. JMIR Mental Health, 12(1), e81204.
Sentio University (2025). Survey: ChatGPT maybe the largest provider of mental health support in the United States. Practice Innovations.
APA Annual Meeting (2025). Human Therapists Surpass ChatGPT in Delivering Cognitive Behavioral Therapy. Psychiatry.org.
PMC (2025). “Shaping ChatGPT into my Digital Therapist”: A thematic analysis of social media discourse on using generative AI for mental health.
Journal of Public Health (2026). Spontaneous use of ChatGPT for mental health support: an exploratory study. Springer Nature.
Fiche mise à jour : février 2026