Éthique Pratique clinique

Consentement éclairé et IA

En bref : Le consentement éclairé exige que le patient comprenne ce à quoi il consent et puisse choisir librement. Appliqué à l'IA en santé mentale, ce principe familier se heurte à des défis inédits : opacité algorithmique, collecte invisible de données, et illusion de relation.

Pourquoi ce concept est utile

En tant que psychologue clinicien, le consentement éclairé est une pratique quotidienne : vous informez le patient sur le cadre thérapeutique, la méthode, la confidentialité, les limites. Vous vous assurez qu'il comprend et qu'il choisit librement.

Mais quand un patient utilise un chatbot thérapeutique, un outil de transcription de séances ou une app de suivi de l'humeur, les conditions du consentement éclairé changent radicalement. Le patient comprend-il réellement ce qui se passe avec ses données ? Peut-il évaluer les risques d'un outil dont le fonctionnement est opaque ? Le « clic pour accepter » les CGU constitue-t-il un consentement au sens clinique ?

Ce concept vous permet de transposer votre expertise du consentement thérapeutique au contexte numérique — et de poser les bonnes questions.

Les 3 conditions du consentement et leurs défis IA

1. Information complète et compréhensible

En thérapie : vous expliquez la méthode, le cadre, les objectifs, les risques et les alternatives.

Défi IA :

Comment informer un patient sur le fonctionnement d'un LLM quand même les ingénieurs ne comprennent pas entièrement pourquoi il produit telle ou telle réponse ? L'opacité algorithmique rend l'information structurellement incomplète. Le patient ne peut pas comprendre ce qu'on ne sait pas soi-même expliquer.

2. Capacité de discernement

En thérapie : vous évaluez que le patient peut comprendre l'information et peser les conséquences de sa décision.

Défi IA :

Un patient en épisode dépressif majeur qui télécharge une app de « soutien émotionnel » à 3h du matin est-il en mesure de discerner les implications de son consentement ? Le moment de la souffrance aiguë est précisément celui où le discernement est le plus fragile — et où la tentation d'utiliser un outil numérique est la plus forte.

3. Liberté de choix (absence de contrainte)

En thérapie : le patient peut refuser ou interrompre le traitement à tout moment sans conséquence négative.

Défi IA :

Le patient peut-il supprimer ses données ? Peut-il quitter l'app sans perdre l'historique de son suivi ? Quand une app de santé mentale utilise des mécanismes de rétention (notifications push, gamification, streaks), la liberté de choix est-elle réelle ? La contrainte ici n'est pas physique mais architecturale.

Ce que l'IA change au consentement

Dimension Thérapie classique Outil IA
Nature de l'interlocuteur Humain, identifié, diplômé Machine, souvent non identifiée comme telle
Transparence Méthode explicable Fonctionnement opaque (« boîte noire »)
Données Notes cliniques, cadre RGPD clair Collecte continue, usages multiples, tiers invisibles
Évolution Méthode stable, prévisible Modèle mis à jour sans préavis, comportement variable
Renouvellement Dialogue continu CGU acceptées une fois, jamais relues

Cas clinique illustratif

Thomas, 45 ans, en suivi pour un trouble anxieux généralisé, vous informe qu'il utilise ChatGPT pour « analyser » ses angoisses entre les séances. Il copie-colle des passages entiers de son journal intime et demande à l'IA de les interpréter.

Thomas pense que ses conversations sont « privées ». Il ne sait pas que le contenu peut être utilisé pour l'entraînement du modèle (sauf opt-out explicite), que les conversations sont stockées sur des serveurs américains, et que les équipes d'OpenAI peuvent y accéder pour des raisons de sécurité.

Questions pour le clinicien : Thomas a-t-il donné un consentement éclairé au sens clinique du terme ? Il a cliqué « Accepter » sur les CGU — mais comprend-il les implications pour la confidentialité de son matériel psychique le plus intime ? Comment aborder ce sujet en séance sans culpabiliser ni infantiliser ?

En pratique pour le clinicien

  • Intégrez le numérique dans votre contrat thérapeutique : demandez à vos patients s'ils utilisent des outils IA et faites-en un sujet de dialogue, pas de jugement.
  • Aidez au discernement : votre rôle n'est pas d'interdire mais d'aider le patient à comprendre ce qu'il confie à l'outil, où vont ses données, et quelles sont les limites de l'IA.
  • Évaluez les outils vous-même : avant de recommander ou de commenter, testez l'outil. Lisez les CGU. Vérifiez la politique de données. C'est un acte de care.
  • Documentez : si un patient utilise un outil IA dans le cadre de son suivi, notez-le dans le dossier clinique. Cela fait partie du cadre thérapeutique.

Points de vigilance

Populations particulièrement concernées :

  • Patients en crise : discernement altéré au moment où le recours à l'IA est le plus probable
  • Adolescents : capacité de consentement réduite, vulnérabilité aux mécanismes d'engagement
  • Personnes âgées : littératie numérique parfois insuffisante pour évaluer les enjeux
  • Patients sous injonction de soin : la liberté de choix est-elle réelle quand l'outil est prescrit ?

Pièges fréquents :

  • Consentement par défaut : l'opt-out (décocher une case) n'est pas un consentement éclairé
  • Consentement évolutif : un modèle IA mis à jour change de comportement — le consentement initial couvre-t-il cette évolution ?
  • Illusion de confidentialité : beaucoup de patients pensent que leurs conversations IA sont privées alors qu'elles ne le sont pas

Pour aller plus loin

  • Référence fondatrice : Beauchamp, T. L. & Childress, J. F. (1979). Principles of Biomedical Ethics. Oxford University Press.
  • Application IA : APA Task Force (2023-2025). Artificial Intelligence: Guidance for Psychologists. American Psychological Association.
  • Cadre européen : Règlement Général sur la Protection des Données (RGPD, 2018), articles 13-14 (droit à l'information) et 7 (conditions du consentement).
Tous les concepts

Fiche mise à jour : février 2026