Veille IA

ChatGPT Santé : quand l'IA s'invite dans votre dossier médical

| IA et Psychotherapie

OpenAI lance une version dédiée de ChatGPT pour la santé. Entre promesse d'empowerment patient et concentration inédite de données sensibles, cette annonce mérite un examen critique.

Les faits

Ce qu’annonce OpenAI

OpenAI lance ChatGPT Santé, une expérience dédiée au sein de ChatGPT permettant aux utilisateurs de connecter leurs données de santé pour obtenir des réponses personnalisées.

Un usage massif préexistant

Selon OpenAI, plus de 230 millions de personnes posent déjà chaque semaine des questions liées à la santé et au bien-être sur ChatGPT. ChatGPT Santé vise à formaliser et sécuriser cet usage existant.

Fonctionnalités principales

  • Connexion de données médicales : dossiers médicaux électroniques (EHR), résultats d’analyses, comptes rendus de consultation
  • Intégration d’applications de bien-être : Apple Santé, Function, MyFitnessPal, Weight Watchers, Peloton, AllTrails, Instacart
  • Cas d’usage annoncés : comprendre des résultats d’analyses, préparer des rendez-vous médicaux, suivre son alimentation et son activité physique, comparer des options d’assurance santé

Architecture et confidentialité

OpenAI met en avant plusieurs protections :

  • Espace isolé : les conversations de santé sont séparées des autres chats
  • Chiffrement dédié et isolation renforcée
  • Non-utilisation pour l’entraînement : les conversations ne servent pas à entraîner les modèles fondamentaux
  • Mémoires cloisonnées : le contexte santé ne “fuite” pas vers les conversations classiques

Développement et évaluation

  • 260 médecins de 60 pays consultés pendant plus de 2 ans
  • 600 000 retours sur les réponses du modèle
  • HealthBench : un cadre d’évaluation clinique propriétaire développé avec des praticiens

Limitations explicites

OpenAI précise que ChatGPT Santé :

  • N’établit pas de diagnostic
  • Ne propose pas de traitement
  • Vise à “soutenir, et non remplacer, les professionnels de santé”

Disponibilité

  • Lancement en accès limité (liste d’attente)
  • Intégrations EHR et certaines applications réservées aux États-Unis
  • Connexion Apple Santé nécessite iOS

Implications et questions ouvertes

La santé mentale, grande absente

Le communiqué d’OpenAI parle abondamment de “santé et bien-être”, de résultats d’analyses sanguines, de nutrition, d’activité physique. Mais aucune mention de la santé mentale, de la psychothérapie ou de l’accompagnement psychologique.

Ce silence est-il une prudence légitime face à la complexité du psychisme humain ? Ou l’aveu implicite que l’IA n’est pas prête pour ce terrain ? Pourtant, parmi les 230 millions de questions hebdomadaires, combien concernent l’anxiété, la dépression, les difficultés relationnelles ?

Question pour les psys : Faut-il se réjouir de cette exclusion apparente du champ psy, ou s’inquiéter qu’elle soit contournée de fait par les utilisateurs ?

Le paradoxe de la confidentialité

OpenAI promet une protection renforcée des données de santé : chiffrement dédié, isolation, non-utilisation pour l’entraînement. Pourtant, le modèle économique repose sur une concentration sans précédent de données médicales sensibles chez un acteur privé américain.

Les utilisateurs sont invités à connecter :

  • Leurs dossiers médicaux complets
  • Leurs résultats d’analyses biologiques
  • Leurs données de sommeil, d’activité, de nutrition
  • Leur historique de consultations

Cette centralisation crée un point de vulnérabilité unique. En cas de faille de sécurité, les conséquences seraient considérables. Et même sans faille, la question de la gouvernance de ces données à long terme reste entière.

Question pour le débat : Peut-on confier ses données de santé les plus intimes à une entreprise dont le modèle économique et la juridiction (USA, hors RGPD) échappent largement au contrôle des patients européens ?

”Soutenir, pas remplacer” : une rhétorique à interroger

Cette formule, répétée par OpenAI, est devenue le mantra de toutes les entreprises tech entrant dans le domaine médical. Elle mérite un examen critique.

La substitution de fait existe déjà. Avec 230 millions de personnes posant des questions santé chaque semaine, ChatGPT est déjà un acteur majeur de l’information médicale — bien avant cette annonce. La formalisation via ChatGPT Santé ne fait qu’officialiser et amplifier un phénomène existant.

L’empowerment peut devenir dépendance. Le patient “mieux informé” qui “prépare ses questions” avec l’IA arrive au cabinet avec un cadrage déjà constitué. Cela modifie profondément la dynamique de la consultation : le soignant devient-il un simple validateur des hypothèses de l’IA ?

Question pour les professionnels de santé : Comment accueillir un patient qui arrive avec une synthèse ChatGPT de son dossier médical ? Doit-on s’en réjouir comme d’un gain de temps, ou s’inquiéter d’un biais de confirmation préinstallé ?

La médicalisation permanente du quotidien

ChatGPT Santé encourage la connexion continue de données : sommeil, activité physique, nutrition, analyses biologiques. Cette surveillance de soi permanente pose question.

Le quantified self, poussé à l’extrême, peut générer :

  • Une anxiété de la performance (ai-je assez dormi ? assez marché ?)
  • Une pathologisation de variations normales (mon rythme cardiaque a varié de 3 bpm, est-ce grave ?)
  • Une dépendance à la validation externe (que dit l’IA de mes données ?)

Pour les psychologues cliniciens, ce phénomène n’est pas nouveau — mais son industrialisation par un outil aussi accessible que ChatGPT lui donne une ampleur inédite.

Question clinique : Comment accompagner des patients dont l’anxiété est alimentée par une surveillance de santé assistée par IA ?

L’ironie de la psychose IA

Il est frappant qu’OpenAI lance un outil de santé au moment même où les médias relatent des cas de “psychose induite par l’IA” — des personnes développant des relations pathologiques avec des chatbots, voire des épisodes délirants nourris par ces interactions.

ChatGPT Santé ne mentionne aucun garde-fou spécifique pour détecter ou prévenir ces dérives. Pourtant, un outil qui invite les utilisateurs à partager leur intimité médicale et à “personnaliser leur expérience” crée les conditions d’un attachement potentiellement problématique.

Question éthique : Quelle responsabilité pour OpenAI si un utilisateur développe une dépendance pathologique à son “compagnon santé” ?

L’asymétrie d’accès

Les fonctionnalités les plus avancées (connexion aux dossiers médicaux, certaines applications) sont réservées aux États-Unis. Cette asymétrie pose la question de l’équité en santé numérique.

Les patients européens auront accès à une version “dégradée” — mais seront-ils protégés par le RGPD pour autant ? La localisation des serveurs, la juridiction applicable, le droit à l’effacement : autant de zones grises.

Question de politique de santé : Faut-il attendre un “ChatGPT Santé européen” conforme au RGPD, ou accepter une dépendance aux standards américains ?

Ce qui devrait être débattu

À la lumière de cette annonce, plusieurs questions mériteraient un débat approfondi entre professionnels de santé, psychologues, éthiciens et régulateurs :

  1. Formation des soignants : Comment préparer les professionnels de santé à interagir avec des patients “augmentés” par l’IA ?

  2. Responsabilité médicale : Qui est responsable si un patient prend une mauvaise décision basée sur une interprétation de ChatGPT Santé ?

  3. Inégalités d’accès : L’IA santé va-t-elle creuser les inégalités entre patients “connectés” et les autres ?

  4. Place de la relation humaine : Que devient le soin quand une partie du travail d’écoute, d’information et de préparation est déléguée à une machine ?

  5. Régulation spécifique : Les outils d’IA santé grand public doivent-ils être soumis aux mêmes régulations que les dispositifs médicaux ?

  6. Santé mentale et IA : Faut-il interdire, encadrer ou accompagner l’usage de ChatGPT pour des questions de santé psychique ?


Notre position

Chez IA et Psychothérapie, nous ne sommes ni technophiles béats ni technophobes réflexes. ChatGPT Santé représente une évolution significative qui mérite attention et vigilance.

Ce qui nous semble positif :

  • La reconnaissance par OpenAI que la santé nécessite des protections spécifiques
  • L’implication de médecins dans le développement
  • La transparence (relative) sur les limitations de l’outil

Ce qui nous inquiète :

  • L’absence totale de la dimension psychologique
  • La concentration de données sensibles chez un acteur privé
  • Le risque d’une médicalisation anxiogène du quotidien
  • L’absence de garde-fous contre les usages pathologiques

Ce que nous appelons de nos vœux :

  • Un débat public impliquant les professionnels de santé mentale
  • Une régulation européenne spécifique
  • Des recherches indépendantes sur l’impact psychologique de ces outils
  • Une formation des psys à accompagner les patients utilisateurs d’IA santé

Cet article inaugure notre section Actualités, dédiée à l’analyse critique des nouvelles concernant l’IA et la santé. Notre objectif : exposer les biais, apporter des nuances, et réouvrir le débat.

Mots-clés

OpenAI ChatGPT santé numérique données de santé éthique