Glossaire IA & Psychologie

Comprendre les termes et concepts liés à l'Intelligence Artificielle et à la pratique clinique.

Ce glossaire vise à faciliter la lecture de nos articles pour les cliniciens peu familiers avec les technologies d'intelligence artificielle. Les définitions sont volontairement orientées vers les implications cliniques plutôt que vers l'exhaustivité technique.

Intelligence Artificielle (IA)

Discipline informatique visant à créer des systèmes capables d'effectuer des tâches nécessitant habituellement l'intelligence humaine : compréhension du langage, raisonnement, apprentissage, résolution de problèmes. L'IA recouvre un vaste champ de techniques, des systèmes experts des années 1980 aux réseaux de neurones actuels.

Large Language Model (LLM)

Type spécifique d'IA entraîné sur d'immenses corpus textuels (plusieurs téraoctets de texte) pour prédire et générer du langage. Les LLM actuels comprennent des centaines de milliards de paramètres ajustés durant l'entraînement. Contrairement aux chatbots des générations précédentes qui fonctionnaient par règles prédéfinies, les LLM génèrent des réponses de manière probabiliste, ce qui leur confère une fluidité conversationnelle remarquable mais aussi une imprévisibilité inhérente.

Chatbot / Agent conversationnel

Interface permettant à un utilisateur de dialoguer avec un système informatique en langage naturel. Les chatbots modernes sont généralement basés sur des LLM, mais le terme englobe aussi des systèmes plus anciens fonctionnant par arbres de décision ou reconnaissance de mots-clés. Dans ce contexte, « chatbot » et « agent conversationnel » sont utilisés comme synonymes pour désigner les interfaces grand public permettant de converser avec un LLM.

App de santé mentale

Application numérique conçue pour le bien-être psychologique, l'accompagnement thérapeutique ou le suivi de la santé mentale. Certaines utilisent des LLM (Woebot, Wysa, Replika), d'autres fonctionnent par arbres de décision, journaux d'humeur ou exercices guidés sans IA. L'expression recouvre des réalités techniques et cliniques très diverses, ce qui rend les généralisations problématiques : une étude sur Replika (conçue pour créer de l'attachement) ne peut pas être étendue à Woebot (conçue pour délivrer des exercices TCC).

Implication clinique : Face à un patient utilisant une « app de santé mentale », la première question clinique est : de quel type d'app s'agit-il ? Chatbot conversationnel, journal d'humeur, exercices guidés, ou combinaison ? La réponse change radicalement l'analyse des bénéfices et des risques.

Modèle prédictif (IA en santé)

Un modèle prédictif clinique est un algorithme qui, à partir de données d'un patient (âge, antécédents, résultats d'examens, scores à des échelles), estime la probabilité d'un événement de santé — par exemple le risque de récidive dépressive à six mois ou la probabilité d'une hospitalisation. Ces modèles existent depuis des décennies sous forme de formules statistiques (régression logistique) et sont désormais également développés avec des techniques d'apprentissage automatique (réseaux de neurones, forêts aléatoires). Les deux approches poursuivent le même objectif mais diffèrent par leur transparence : une formule à cinq variables est lisible et interprétable, tandis qu'un réseau de neurones à des millions de paramètres fonctionne comme une boîte noire dont on observe les résultats sans pouvoir comprendre le raisonnement.

Implication clinique : Contrairement aux chatbots conversationnels (ChatGPT, Claude), les modèles prédictifs ne dialoguent pas avec le patient : ils calculent un score de risque à destination du clinicien. La question clé face à un tel outil n'est pas « est-il précis ? » mais « a-t-il été validé sur des patients comparables aux miens, et ses probabilités correspondent-elles à la réalité observée (calibration) ? » L'outil PROBAST+AI (2025) fournit une grille de 34 questions pour évaluer la qualité de ces modèles.

Prompt

Ce que le LLM « voit » lorsqu'il génère une réponse n'est pas simplement la question de l'utilisateur. Il reçoit en réalité une combinaison de plusieurs couches d'information, généralement invisibles pour l'utilisateur final.

System Prompt

Instructions fondamentales définies par l'entreprise éditrice (OpenAI, Anthropic, etc.) qui encadrent le comportement général du modèle : politiques de sécurité, refus de certaines requêtes, ton par défaut, limitations éthiques. Ces instructions sont prioritaires et généralement non modifiables par l'utilisateur.

Instructions de projet

Certaines interfaces permettent de créer des « projets » ou « espaces » au sein desquels les conversations partagent un contexte commun. Le créateur du projet peut y définir un prompt projet (instructions spécifiques) et des documents de référence que le LLM peut consulter.

Implication clinique : C'est à ce niveau que le thérapeute peut configurer un LLM pour adopter une posture cliniquement informée, en lui fournissant le profil schématique du patient, les déclencheurs identifiés, et les consignes de posture.

Fenêtre de contexte

Quantité maximale de texte que le modèle peut traiter simultanément, mesurée en tokens (unités d'environ 4 caractères). Les modèles actuels ont des fenêtres de 8 000 à 200 000 tokens (environ 6 000 à 150 000 mots). Lorsque la somme des couches d'information dépasse cette limite, les éléments les plus anciens sont tronqués.

Implication clinique : Une fenêtre limitée signifie que le LLM peut « oublier » le début d'une longue conversation ou les documents annexés, perdant ainsi des éléments contextuels importants pour l'analyse clinique.

Voir aussi : Token, Prompt

Token

Unité de base utilisée par les LLM pour traiter le texte. Un token correspond approximativement à 4 caractères ou 0,75 mot en anglais. Les modèles ont une limite de tokens qu'ils peuvent traiter en une fois (fenêtre de contexte) et facturent souvent leur utilisation au token.

Mémoire persistante

Capacité de certains LLM à conserver des informations d'une session à l'autre. Par défaut, chaque nouvelle conversation démarre « à zéro ». Certaines implémentations permettent de stocker des éléments (préférences, faits importants, décisions) qui seront automatiquement réinjectés dans les conversations futures.

Implication clinique : L'absence de mémoire persistante peut être perçue comme rassurante (« il ne garde pas trace ») ou frustrante (« je dois tout réexpliquer »). Sa présence soulève des questions de confidentialité et de consentement.

RAG (Retrieval-Augmented Generation)

Certains systèmes avancés utilisent la Retrieval-Augmented Generation (RAG) : le LLM peut rechercher automatiquement, dans une base documentaire, les informations pertinentes pour répondre à une question donnée. Cette recherche s'effectue en temps réel, le contexte étant « augmenté » dynamiquement selon les besoins.

Implication clinique : Un système RAG pourrait, par exemple, rechercher automatiquement dans l'historique des conversations passées les moments où le patient a mentionné un thème similaire, enrichissant ainsi l'analyse.

Artéfact

Document structuré produit par le LLM à la demande de l'utilisateur ou automatiquement : résumé, tableau, code, rapport, plan d'action. Certaines interfaces (comme Claude) distinguent visuellement les artéfacts du flux conversationnel, permettant de les modifier et exporter séparément.

Implication clinique : Dans un usage encadré, les artéfacts peuvent inclure des rapports structurés destinés au thérapeute.

API (Interface de programmation)

Interface de Programmation Applicative : mécanisme standardisé permettant à un logiciel d'envoyer des requêtes à un LLM et d'en recevoir des réponses, sans interface conversationnelle visible. C'est par une API qu'une app de santé mentale se connecte à un LLM : l'app gère l'interface utilisateur, la personnalisation et les données patient, tandis que le LLM fournit les capacités de génération de texte.

Implication clinique : Quand un patient utilise une app de santé mentale « propulsée par l'IA », il interagit rarement directement avec le LLM : l'app ajoute ses propres instructions, filtre les réponses, et peut transmettre des données de contexte via l'API — souvent sans transparence pour l'utilisateur.

Temps d'inférence / Thinking

Temps de calcul alloué au LLM pour générer sa réponse. Certains modèles récents (comme Claude 3.5 avec « extended thinking » ou les modèles de la série o1 d'OpenAI) peuvent consacrer un temps significativement plus long à « réfléchir » avant de répondre, améliorant la qualité des réponses sur des tâches complexes.

Implication clinique : Pour des analyses cliniques complexes, l'utilisation de modes « thinking » ou « extended thinking » peut améliorer substantiellement la qualité et la nuance des analyses produites.

Approche Multi-step (agentic)

La tâche est décomposée en sous-étapes, le LLM traitant chacune séquentiellement, avec possibilité de révision et d'itération. Particulièrement pertinent pour les tâches complexes nécessitant planification, analyse de documents longs, ou raisonnement en plusieurs temps.

Implication clinique : L'analyse d'une conversation patient-LLM selon une grille en plusieurs étapes se prête naturellement à une approche multi-step, chaque étape pouvant faire l'objet d'une génération distincte, améliorant la rigueur et la traçabilité de l'analyse.

Température

La température est un paramètre technique qui influe sur la manière dont une IA générative opère son choix parmi les tokens les plus probables. Une température basse (proche de 0) sélectionne toujours le token le plus probable, produisant des réponses déterministes et analytiques. Une température haute (proche de 1) introduit plus de variabilité, permettant des réponses plus créatives mais potentiellement moins précises.

Implication clinique : Pour l'analyse clinique, une température basse est généralement préférable (rigueur, reproductibilité). Une température plus haute peut être utile pour du brainstorming thérapeutique ou l'exploration d'hypothèses alternatives.

Multimodal

Se dit d'un modèle d'IA capable de traiter et de générer plusieurs types de données (ou « modalités ») : texte, images, audio, vidéo. Les LLM récents comme GPT-4o, Claude 4.5 ou Gemini 3.0 intègrent ces capacités multimodales, permettant par exemple d'analyser une image ou une transcription audio.

Implication clinique : Les capacités multimodales ouvrent des perspectives pour l'analyse du non-verbal en séance vidéo : concordances ou discordances entre le discours et le langage corporel. Attention : ces modalités sont très gourmandes en tokens.

Recherche approfondie (Deep Search / Deep Research)

Mode de fonctionnement avancé proposé par certains chatbots (ChatGPT, Gemini, Perplexity, Claude) qui, au lieu de répondre uniquement à partir de ses connaissances internes, lance une recherche web étendue : il consulte des dizaines voire des centaines de sources, les analyse, les croise et produit une synthèse structurée avec références traçables. Ce mode est particulièrement utile pour des revues de littérature préliminaires, des états de l'art ou des veilles thématiques. Limites importantes : l'IA n'accède qu'aux contenus publiquement disponibles (pas de publications derrière paywall ni de bases de données spécialisées), la méthodologie de sélection et de hiérarchisation des sources n'est pas transparente, et la qualité de la synthèse dépend fortement de la formulation de la requête initiale.

Implication clinique : Utile pour une veille scientifique rapide ou un premier repérage bibliographique sur un sujet clinique. Ne remplace pas une recherche systématique sur des bases spécialisées (PubMed, PsycINFO) pour un travail académique rigoureux : les sources accessibles sont limitées au web ouvert, et les critères de sélection restent opaques.

Réseau de neurones artificiels

Modèle mathématique composé de couches de « neurones » artificiels — des unités de calcul simples — reliés entre eux par des connexions pondérées (les paramètres ou « weights »). Lors de l'entraînement, le réseau ajuste progressivement ces poids pour améliorer ses prédictions. Les LLM sont des réseaux de neurones d'une taille considérable, organisés selon une architecture dite « Transformer » qui excelle dans le traitement du langage. Malgré l'analogie avec le cerveau, le fonctionnement réel de ces réseaux est fondamentalement différent de celui des neurones biologiques.

Nombre de paramètres

Les paramètres — aussi appelés « weights » (poids) dans le jargon technique — sont les valeurs numériques internes d'un réseau de neurones, ajustées durant l'entraînement pour optimiser les prédictions du modèle. C'est ce terme qui donne son sens à l'expression « open weights ». Un LLM comme GPT-4 compte plusieurs centaines de milliards de paramètres. Plus un modèle a de paramètres, plus il peut en théorie capturer des nuances linguistiques complexes — mais aussi plus il nécessite de ressources de calcul et de données d'entraînement.

Implication clinique : Le nombre de paramètres est souvent invoqué comme indicateur de « puissance », mais ne détermine pas à lui seul la qualité des réponses cliniques. Un modèle plus petit, bien entraîné sur des données pertinentes, peut surpasser un modèle plus grand sur des tâches spécifiques.

Données d'entraînement

Ensemble des textes sur lesquels un LLM est entraîné : pages web, livres, articles scientifiques, forums, code informatique. Les LLM actuels sont entraînés sur plusieurs téraoctets de texte. La composition de ces données détermine les connaissances, les biais et les lacunes du modèle. Paradoxalement, la plupart des éditeurs — y compris ceux proposant des modèles « open source » — ne divulguent pas le détail de leurs données d'entraînement.

Implication clinique : Si un LLM a été entraîné majoritairement sur des textes anglophones et des sources occidentales, ses analyses cliniques peuvent refléter des biais culturels systématiques. L'opacité sur les données d'entraînement empêche de vérifier cette hypothèse.

Données synthétiques

Données créées artificiellement — souvent par un LLM plus puissant — pour compléter ou remplacer des données réelles lors de l'entraînement d'un modèle. Cette technique permet de produire rapidement de grands volumes de données dans des domaines où les données réelles sont rares, sensibles ou coûteuses à collecter. Elle soulève cependant la question de la circularité : un modèle entraîné sur des données générées par un autre modèle peut hériter et amplifier ses biais.

Implication clinique : En santé mentale, les données cliniques authentiques sont rares et protégées. Le recours à des données synthétiques pour entraîner des modèles spécialisés pose la question de la validité clinique de ces simulations et du risque de reproduire des stéréotypes diagnostiques.

RLHF (Reinforcement Learning from Human Feedback)

Étape d'entraînement complémentaire au pré-entraînement, durant laquelle des évaluateurs humains comparent et classent les réponses du modèle. Ces préférences humaines servent à entraîner un « modèle de récompense » qui oriente ensuite le LLM vers des réponses jugées plus pertinentes, moins nocives et mieux alignées avec les intentions des utilisateurs. C'est le RLHF qui explique en grande partie pourquoi les LLM actuels sont polis, prudents et refusent certaines requêtes.

Implication clinique : Le RLHF peut conduire les LLM à privilégier des réponses rassurantes ou consensuelles plutôt que des analyses cliniquement rigoureuses. Un modèle trop « aligné » peut minimiser des signes cliniques préoccupants pour éviter de paraître alarmiste — un biais dit de « sycophantie ».

Fine-tuning (ajustement fin)

Technique consistant à reprendre un LLM déjà entraîné (dit « pré-entraîné ») et à poursuivre son entraînement sur un corpus de données plus restreint et spécialisé. Le modèle conserve ses capacités linguistiques générales tout en développant une expertise dans le domaine ciblé. Le fine-tuning modifie les paramètres internes du modèle, contrairement au RAG qui se contente de lui fournir des informations complémentaires au moment de la requête.

Implication clinique : Un LLM fine-tuné sur des données cliniques peut mieux reconnaître des patterns thérapeutiques, mais la qualité dépend entièrement du corpus d'entraînement. Le clinicien doit pouvoir savoir si l'IA qu'il utilise a été fine-tunée, sur quelles données, et avec quels objectifs.

Open Source / Open Weights

Deux niveaux d'ouverture distincts souvent confondus. « Open source » signifie que le code du modèle est public et librement réutilisable. « Open weights » signifie que les paramètres entraînés du modèle sont téléchargeables, permettant de l'exécuter et de le modifier localement. En revanche, même les modèles dits « open source » ne divulguent généralement pas leurs données d'entraînement, rendant impossible un audit complet des biais incorporés. LLaMA (Meta) et Mistral sont des exemples de modèles open weights ; GPT et Claude sont propriétaires.

Implication clinique : L'ouverture d'un modèle permet en théorie un audit indépendant par des chercheurs et des cliniciens. Cependant, sans accès aux données d'entraînement, cet audit reste partiel. Pour un clinicien, la question clé n'est pas « le modèle est-il open source ? » mais « puis-je vérifier sur quoi il a été entraîné et comment il a été évalué ? ».

Hallucination

Terme consacré par l'usage — bien que contestable — désignant la tendance des LLM à générer des informations plausibles mais factuellement fausses. Le LLM peut inventer des citations, des références bibliographiques inexistantes, des détails biographiques fictifs, tout en les présentant avec une apparente assurance. Ce phénomène n'est pas un « bug » mais une propriété émergente : les LLM génèrent le texte le plus probable statistiquement, pas nécessairement le plus vrai.

Implication clinique : Dans le contexte de l'analyse clinique, une « hallucination » pourrait consister à attribuer au patient des propos qu'il n'a pas tenus ou à citer des verbatims inexistants. C'est pourquoi un ancrage systématique dans les verbatims réels est essentiel.

Anthropomorphisation

Tendance à attribuer des caractéristiques humaines (conscience, émotions, intentions) aux systèmes d'IA. Les LLM ne « comprennent » pas au sens cognitif, n'ont pas de conscience ni d'émotions. Ils génèrent des séquences de tokens statistiquement probables qui évoquent ces qualités humaines.

Implication clinique : Pour l'analyse clinique, c'est la perception du patient — et ses effets — qui prime, indépendamment du statut ontologique du système.

Boîte noire (opacité algorithmique)

Métaphore désignant un système dont on observe les entrées et les sorties sans pouvoir comprendre le processus intermédiaire. Appliqué à l'IA, le terme décrit l'impossibilité pratique d'expliquer pourquoi un modèle complexe (réseau de neurones profond, LLM) produit une réponse donnée. Un réseau de neurones à des milliards de paramètres ne raisonne pas de manière traçable : il transforme des données en résultats via des opérations mathématiques dont la signification globale échappe à l'analyse humaine. L'opacité n'est pas un défaut technique corrigible mais une propriété structurelle de certaines architectures.

Implication clinique : En pratique clinique, le problème de la boîte noire signifie qu'un clinicien ne peut pas savoir pourquoi un outil IA lui recommande tel diagnostic ou tel score de risque. Cette impossibilité de vérifier le raisonnement sous-jacent est incompatible avec l'exigence de jugement clinique éclairé — et c'est l'un des principaux obstacles à une adoption responsable.

Explicabilité (XAI)

L'explicabilité (Explainable AI, XAI) désigne l'ensemble des méthodes visant à rendre les décisions d'un système d'IA compréhensibles pour un être humain : identification des variables les plus influentes dans une prédiction, visualisation des régions d'une image ayant déclenché un diagnostic, justification en langage naturel. L'explicabilité est un continuum, pas un état binaire : un système peut être partiellement explicable (on identifie les facteurs principaux) sans être transparent (on ne comprend pas le mécanisme complet). Les techniques les plus courantes (SHAP, LIME, attention maps) fournissent des approximations post hoc — elles expliquent le résultat après coup, sans garantir que l'explication reflète le processus réel du modèle.

Implication clinique : En santé mentale, l'explicabilité est une exigence éthique et clinique : un clinicien doit pouvoir comprendre pourquoi un outil lui suggère tel diagnostic ou tel niveau de risque pour exercer son jugement. Cependant, les méthodes actuelles offrent des approximations, pas des certitudes — ce qui ne dispense pas de les exiger, mais interdit de s'y fier aveuglément.

Biais algorithmique

Distorsion systématique dans les résultats d'un système d'IA, héritée des données d'entraînement, des choix de conception, ou du processus d'évaluation humaine (RLHF). Un biais algorithmique n'est pas une « erreur » ponctuelle mais une propriété structurelle : si les données d'entraînement surreprésentent certaines populations ou sous-représentent certaines pathologies, le modèle reproduira ces déséquilibres de manière consistante et souvent invisible.

Implication clinique : Les biais algorithmiques en santé mentale peuvent se manifester par des analyses culturellement inadaptées, une sous-détection de certaines pathologies chez des populations minoritaires, ou une normalisation de symptômes selon des référentiels occidentaux. Le clinicien doit considérer l'IA comme un collègue porteur de biais culturels spécifiques, non comme un outil neutre.

Mistral (Large, Medium)

LLM français (Mistral AI) avec modèles open-source et souveraineté européenne. Version actuelle : Mistral Large (janvier 2026).

Principisme (bioéthique)

Approche éthique formalisée par Beauchamp et Childress (1979) dans « Principles of Biomedical Ethics ». Le principisme structure la réflexion éthique autour de quatre principes : respect de l'autonomie du patient, bienfaisance (agir pour son bien), non-malfaisance (ne pas nuire) et justice (équité dans l'accès et le traitement). C'est le cadre le plus utilisé dans les chartes éthiques IA, souvent complété par la transparence et la responsabilité. Sa force est sa clarté ; sa limite est son abstraction — il dit quoi respecter, pas comment le faire concrètement dans un algorithme.

Implication clinique : Le principisme est le cadre implicite de la plupart des recommandations éthiques sur l'IA en santé (APA, OMS, EU AI Act). En tant que clinicien, vous l'utilisez déjà sans le nommer — consentement éclairé (autonomie), primum non nocere (non-malfaisance), bénéfice clinique (bienfaisance). La question est : ce cadre suffit-il pour des outils relationnels comme les chatbots ?

Éthique du care

Courant de philosophie morale développé par Carol Gilligan (1982) et formalisé par Joan Tronto (1993). Contrairement au principisme qui raisonne en principes universels abstraits, l'éthique du care place la relation de soin au centre : attention aux besoins de l'autre (caring about), prise en charge (taking care of), compétence dans le soin effectif (care-giving) et vérification que le besoin a été satisfait du point de vue du bénéficiaire (care-receiving). Ce cadre est particulièrement pertinent pour évaluer les outils IA en santé mentale, où la qualité de la relation est le principal facteur thérapeutique.

Implication clinique : L'éthique du care permet de poser des questions que le principisme ignore : le chatbot détecte-t-il la souffrance accrue ? Qui vérifie qu'il n'aggrave pas l'isolement ? A-t-on demandé aux patients eux-mêmes si l'outil leur fait du bien ? En psychothérapie — où la relation est le soin — ce cadre devrait être systématiquement mobilisé.

Consentement éclairé (IA)

Principe éthique et juridique exigeant que le patient reçoive une information complète, compréhensible et loyale avant toute intervention, et qu'il puisse choisir librement d'y consentir ou non. Appliqué à l'IA en santé mentale, le consentement éclairé pose des défis spécifiques : le patient sait-il qu'il interagit avec une machine ? Comprend-il comment ses données sont utilisées ? Peut-il évaluer les risques d'un outil dont le fonctionnement est opaque ? Le consentement « un clic pour accepter les CGU » ne constitue pas un consentement éclairé au sens clinique du terme.

Implication clinique : En tant que clinicien, vous êtes formé au consentement éclairé thérapeutique. Ce savoir-faire est directement transférable : quand vous évaluez un outil IA pour votre pratique, demandez-vous si votre patient pourrait véritablement comprendre ce à quoi il consent — pas seulement juridiquement, mais cliniquement.

Ethics washing

Stratégie, délibérée ou non, par laquelle une organisation affiche des engagements éthiques (chartes, comités, labels) sans que ces engagements se traduisent par des changements concrets dans ses pratiques. En IA, l'ethics washing peut prendre la forme de chartes éthiques non contraignantes, de comités d'éthique sans pouvoir décisionnel, ou d'éthiciens intégrés sans droit de veto. Le terme est un calque d'« ethics » et « whitewashing » (blanchiment), sur le modèle du greenwashing environnemental.

Implication clinique : Quand un éditeur d'app de santé mentale met en avant son « comité éthique » ou son « éthicien intégré », posez la question de la structure de pouvoir : l'éthicien peut-il bloquer une mise en production ? Publier ses conclusions ? Ou est-ce un rôle décoratif ?

Capture cognitive

Phénomène par lequel un individu, à force de travailler au sein d'un groupe ou d'une organisation, finit par adopter les cadres de pensée, les priorités et les valeurs de ce groupe, perdant progressivement sa capacité de regard critique indépendant. En éthique de l'IA, c'est le risque principal de l'embedded ethics : l'éthicien intégré dans une équipe de développement peut, au fil du temps, normaliser des pratiques qu'il aurait initialement questionnées. Le parallèle avec la supervision clinique est direct : c'est précisément pour prévenir ce phénomène que la supervision est obligatoire en psychothérapie.

Implication clinique : Vous connaissez ce mécanisme sous le nom de contre-transfert institutionnel : quand le clinicien adopte inconsciemment les normes de l'institution au détriment du patient. La capture cognitive de l'éthicien intégré est le même phénomène dans un autre contexte.

Value-Sensitive Design (VSD)

Approche méthodologique développée par Batya Friedman (Université de Washington) depuis les années 1990. Le VSD propose d'intégrer les valeurs humaines (vie privée, autonomie, confiance, équité) dans la conception technologique via trois types d'investigation : conceptuelle (identifier les valeurs et les parties prenantes), empirique (étudier comment les utilisateurs perçoivent ces valeurs) et technique (traduire les valeurs en choix de design). Alternative structurée à l'embedded ethics, le VSD fournit une méthodologie complète là où l'embedded ethics propose un modèle organisationnel.

Implication clinique : Le VSD est l'approche la plus méthodique pour intégrer les préoccupations cliniques dans le design d'outils IA. Si vous êtes consulté par un développeur d'app de santé mentale, c'est le cadre à recommander.

Équité algorithmique

L'équité algorithmique désigne l'exigence que les décisions ou prédictions produites par un algorithme ne discriminent pas injustement certains groupes de personnes. En santé, cela signifie qu'un modèle de prédiction ou un outil d'aide à la décision ne doit pas produire des résultats systématiquement moins fiables pour certaines populations (par exemple selon l'origine ethnique, le genre ou le niveau socio-économique). Cependant, les mathématiques ont démontré un résultat troublant : les différentes façons de définir cette équité — traiter tous les groupes proportionnellement, offrir les mêmes chances à chacun, produire des prédictions de même fiabilité pour tous — ne peuvent pas être satisfaites simultanément (théorèmes d'impossibilité de Chouldechova 2017, Kleinberg et al. 2016). Un algorithme juste selon un critère sera nécessairement injuste selon un autre, ce qui fait de l'équité algorithmique une question autant politique et éthique que technique.

Implication clinique : En pratique clinique, un modèle de prédiction du risque suicidaire entraîné principalement sur des données de patients caucasiens pourrait sous-estimer le risque chez des patients d'autres origines. PROBAST+AI (2025) est le premier outil d'évaluation méthodologique à intégrer cette dimension dans ses critères, en demandant systématiquement si les prédictions bénéficient ou désavantagent certains groupes sans justification.

Alliance thérapeutique

Qualité de la relation collaborative entre thérapeute et patient, incluant l'accord sur les objectifs, les tâches et le lien émotionnel. Concept central en psychothérapie, reconnu comme facteur prédictif majeur de l'efficacité thérapeutique.

Implication clinique : La question de l'« alliance » qu'un patient peut développer avec un chatbot soulève des interrogations fondamentales sur la nature de la relation thérapeutique.

Transfert

En psychanalyse et psychothérapie, désigne le report sur le thérapeute de sentiments, désirs ou modes relationnels initialement dirigés vers des figures significatives du passé. Phénomène central dans de nombreuses approches thérapeutiques.

Implication clinique : Les patients peuvent développer des formes de transfert envers les chatbots IA, projetant sur eux des attentes relationnelles qui méritent exploration clinique.

Cadre thérapeutique

Ensemble des règles, limites et conditions qui structurent l'espace thérapeutique : lieu, durée, fréquence, honoraires, règles de confidentialité. Le cadre garantit un espace sécurisé pour le travail thérapeutique.

Implication clinique : L'utilisation d'IA conversationnelle par les patients pose la question de l'intégration de ces outils dans le cadre thérapeutique ou de leur impact sur celui-ci.

Quantified Self

Mouvement né dans les années 2000 promouvant l'auto-mesure de paramètres personnels (activité physique, sommeil, humeur, alimentation) via des outils numériques. Repose sur l'idée que la connaissance de soi passe par la quantification objective.

Implication clinique : Le quantified self appliqué à la santé mentale soulève des questions sur la réduction de l'expérience subjective à des métriques et sur l'impact de cette auto-surveillance sur le rapport à soi.

Evidence-Based Practice (EBP)

Pratique fondée sur les preuves : approche de la décision clinique qui articule trois piliers — les données de la recherche scientifique, l'expertise et le jugement clinique du praticien, et les valeurs et préférences du patient. En santé mentale numérique, l'EBP est le troisième niveau d'évaluation du Modèle APA : l'app dispose-t-elle de preuves cliniques de son efficacité (essais contrôlés randomisés, méta-analyses) ?

Implication clinique : La plupart des apps de santé mentale revendiquent être « basées sur les preuves » en s'appuyant sur la TCC comme cadre théorique. Cela ne suffit pas : l'EBP exige que l'implémentation spécifique (pas seulement le cadre théorique) ait été évaluée cliniquement.

EHR (Electronic Health Record)

Electronic Health Record (Dossier Médical Électronique) : système numérique centralisant l'ensemble des informations de santé d'un patient (antécédents, traitements, résultats d'analyses, comptes rendus de consultation). Permet le partage d'informations entre professionnels de santé et, de plus en plus, l'accès par le patient lui-même.

Implication clinique : La connexion d'un EHR à une IA conversationnelle soulève des questions majeures de confidentialité et de consentement éclairé. Le patient comprend-il réellement ce qu'implique le partage de son dossier médical complet ?

RGPD

Règlement Général sur la Protection des Données : cadre juridique européen (2018) régissant la collecte, le traitement et le stockage des données personnelles. Impose des obligations strictes aux organisations (consentement explicite, droit à l'effacement, portabilité) et prévoit des sanctions significatives en cas de manquement.

Implication clinique : Les données de santé sont considérées comme « sensibles » par le RGPD et bénéficient d'une protection renforcée. L'utilisation d'outils IA américains pour traiter ces données pose des questions de conformité juridique.

HIPAA

Health Insurance Portability and Accountability Act : loi fédérale américaine (1996) établissant des normes nationales pour la protection des informations de santé. Définit les « entités couvertes » (prestataires de santé, assureurs) et leurs obligations en matière de confidentialité, sécurité et notification de violations.

Implication clinique : Les entreprises tech proposant des outils IA santé aux États-Unis doivent généralement se conformer à HIPAA. Cependant, les applications grand public utilisées directement par les patients échappent souvent à ce cadre, créant une zone grise réglementaire.

Point de vulnérabilité unique

En sécurité informatique, désigne une situation où des données critiques sont centralisées en un seul endroit, créant une cible privilégiée pour les cyberattaques. En cas de compromission, l'impact est démultiplié par rapport à une architecture distribuée.

Implication clinique : La concentration de données médicales, de bien-être et conversationnelles chez un seul acteur privé (comme OpenAI avec ChatGPT Santé) crée un point de vulnérabilité unique. Une fuite de données aurait des conséquences considérables pour les millions d'utilisateurs concernés.

CNEDiMTS

Commission Nationale d'Évaluation des Dispositifs Médicaux et des Technologies de Santé : commission spécialisée de la HAS chargée d'évaluer les dispositifs médicaux en vue de leur remboursement par l'Assurance Maladie. Elle émet des avis sur le service attendu (SA) et l'amélioration du service attendu (ASA) des dispositifs. En santé mentale numérique, c'est la CNEDiMTS qui a rendu des avis défavorables sur Deprexis (dépression, 2021) et HelloBetter (insomnie, 2024).

Implication clinique : C'est la CNEDiMTS qui décide si une thérapie numérique sera remboursée en France. Ses critères, conçus pour les dispositifs médicaux classiques, sont un enjeu majeur pour l'avenir des outils numériques en santé mentale.

PECAN

Prise en Charge Anticipée Numérique : dispositif réglementaire français permettant le remboursement temporaire d'un dispositif médical numérique (DMN) innovant avant son évaluation définitive par la CNEDiMTS. Le fabricant doit démontrer une « présomption d'innovation » en termes de bénéfice clinique ou d'organisation des soins. La PECAN est le principal mécanisme d'accès au marché remboursé pour les thérapies numériques en France.

Implication clinique : La PECAN est le parcours emprunté par Deprexis et HelloBetter — les deux ont reçu un avis défavorable. Le standard de « présomption d'innovation » s'est révélé très exigeant pour les thérapies numériques en santé mentale.

DTx (thérapie numérique)

Digital Therapeutics (thérapie numérique) : intervention thérapeutique basée sur un logiciel, validée cliniquement, qui vise à prévenir, gérer ou traiter une pathologie. Contrairement à une simple app de bien-être, une DTx suit un processus d'évaluation clinique rigoureux (essais contrôlés) et vise un remboursement par les systèmes de santé. Exemples en santé mentale : Deprexis (TCC numérique pour la dépression), HelloBetter (TCC numérique pour l'insomnie).

Implication clinique : La distinction entre une DTx et une app de bien-être est cruciale : une DTx revendique un effet thérapeutique mesurable et doit le prouver. Zéro DTx en santé mentale n'est remboursée en France (contre 30+ en Allemagne via le système DiGA).

DiGA

Digitale Gesundheitsanwendungen (Applications de santé numériques) : cadre réglementaire allemand, instauré en 2019 par le Digital Healthcare Act (DVG), permettant le remboursement des applications de santé numériques via l'assurance maladie. Le processus est de type « fast-track » : inscription provisoire sur 12 mois avec collecte de données en vie réelle, puis évaluation définitive. Ce modèle, unique en Europe, a permis le remboursement de dizaines d'applications, dont plusieurs en santé mentale.

Implication clinique : Le modèle DiGA allemand est le principal contre-exemple opposé au modèle français lors des débats sur l'évaluation des thérapies numériques. Sa philosophie « remboursez pour prouver en vie réelle » s'oppose au « prouvez d'abord, remboursez ensuite » français.

DM (dispositif médical)

Dispositif Médical : tout instrument, appareil, logiciel ou autre article destiné par le fabricant à être utilisé à des fins médicales de diagnostic, prévention, contrôle, traitement ou atténuation d'une maladie. Les DM sont réglementés au niveau européen (Règlement 2017/745) et doivent obtenir un marquage CE avant mise sur le marché. En France, leur remboursement est évalué par la CNEDiMTS.

Implication clinique : Un logiciel d'IA utilisé en contexte clinique peut être qualifié de dispositif médical, avec les obligations réglementaires que cela implique (marquage CE, évaluation clinique, vigilance). Cette qualification est un enjeu stratégique pour les outils d'IA en santé mentale.

DMN (dispositif médical numérique)

Dispositif Médical Numérique : sous-catégorie de dispositif médical dont la fonction principale est assurée par un logiciel. Comprend les applications mobiles à visée thérapeutique, les outils de télésurveillance, les logiciels d'aide à la décision clinique. En France, le programme France 2030 a financé spécifiquement un appel à projets « DMN en santé mentale » (3 lauréats : Theremia, Emobot, Edra PRO).

Implication clinique : La catégorie DMN est stratégique car elle ouvre l'accès au remboursement via la PECAN. Un outil numérique non qualifié de DMN (une simple app de bien-être) ne peut pas prétendre au remboursement.

LFSS

Loi de Financement de la Sécurité Sociale : loi votée chaque année par le Parlement, fixant les objectifs de dépenses de l'Assurance Maladie et les modalités de prise en charge des soins et dispositifs. La LFSS 2026 (article 84) confie notamment à la HAS la création de « référentiels de pertinence » pour le financement public des systèmes d'aide à la décision en santé — un cadre déterminant pour l'avenir des outils IA en santé mentale.

Implication clinique : La LFSS est le levier législatif par lequel les outils d'IA en santé accèdent (ou non) au remboursement. L'article 84 de la LFSS 2026 est à surveiller : il dessinera les contours de l'évaluation des outils d'aide à la décision clinique.

A.V.E.C. (framework HAS)

Apprendre, Vérifier, Estimer, Communiquer : acronyme mnémonique du premier guide de la HAS sur l'usage de l'IA générative en santé (octobre 2025). « Le bon usage de l'IA générative en santé se fait AVEC le professionnel. » Les quatre piliers structurent une approche prudente : s'informer sur le fonctionnement de l'IA, vérifier systématiquement ses productions, estimer la pertinence de l'usage, et communiquer de manière transparente avec les patients et les collègues.

Implication clinique : Le framework A.V.E.C. est conçu pour l'usage professionnel en médecine somatique. Il ne couvre pas les spécificités de la santé mentale : usage par les patients eux-mêmes, risque de transfert, confidentialité renforcée des données psychologiques, impact sur l'alliance thérapeutique.

Marquage CE

Conformité Européenne : certification attestant qu'un dispositif médical est conforme aux exigences essentielles de sécurité et de performance définies par la réglementation européenne (Règlement 2017/745 pour les DM). Le marquage CE est un prérequis à la mise sur le marché dans l'Espace Économique Européen et, en France, à toute demande de remboursement auprès de la CNEDiMTS. Pour les logiciels à visée médicale (dont les outils IA), l'obtention du marquage CE nécessite des essais cliniques et une documentation technique substantielle.

Implication clinique : Un outil d'IA sans marquage CE n'est pas un dispositif médical au sens réglementaire — il ne peut revendiquer de finalité médicale ni prétendre au remboursement. C'est le cas de ChatGPT, Replika ou Character.AI, qui ne sont pas des DM. Les projets France 2030 (Theremia, Emobot, Edra PRO) visent explicitement ce marquage.

Ce glossaire est régulièrement mis à jour pour refléter l'évolution rapide du domaine de l'IA. Dernière mise à jour : 30 janvier 2026.