Glossaire IA
Comprendre les termes et concepts lies a l'Intelligence Artificielle.
Glossaire des termes liés à l'intelligence artificielle
Ce glossaire vise à faciliter la lecture de nos articles pour les cliniciens peu familiers avec les technologies d'intelligence artificielle. Les définitions sont volontairement orientées vers les implications cliniques plutôt que vers l'exhaustivité technique.
Concepts fondamentaux
Intelligence Artificielle (IA)
Discipline informatique visant à créer des systèmes capables d'effectuer des tâches nécessitant habituellement l'intelligence humaine : compréhension du langage, raisonnement, apprentissage, résolution de problèmes. L'IA recouvre un vaste champ de techniques, des systèmes experts des années 1980 aux réseaux de neurones actuels.
Large Language Model (LLM) / Grand Modèle de Langage
Type spécifique d'IA entraîné sur d'immenses corpus textuels (plusieurs téraoctets de texte) pour prédire et générer du langage. Les LLM actuels comprennent des centaines de milliards de paramètres ajustés durant l'entraînement. Contrairement aux chatbots des générations précédentes qui fonctionnaient par règles prédéfinies, les LLM génèrent des réponses de manière probabiliste, ce qui leur confère une fluidité conversationnelle remarquable mais aussi une imprévisibilité inhérente.
Chatbot / Agent conversationnel
Interface permettant à un utilisateur de dialoguer avec un système informatique en langage naturel. Les chatbots modernes sont généralement basés sur des LLM, mais le terme englobe aussi des systèmes plus anciens fonctionnant par arbres de décision ou reconnaissance de mots-clés. Dans ce contexte, « chatbot » et « agent conversationnel » sont utilisés comme synonymes pour désigner les interfaces grand public permettant de converser avec un LLM.
Éléments de l'interaction
Prompt et contexte : architecture multiniveau
Ce que le LLM « voit » lorsqu'il génère une réponse n'est pas simplement la question de l'utilisateur. Il reçoit en réalité une combinaison de plusieurs couches d'information, généralement invisibles pour l'utilisateur final. Comprendre cette architecture est essentiel pour saisir comment un LLM peut être configuré à des fins cliniques.
1. Prompt système de l'éditeur (System Prompt)
Instructions fondamentales définies par l'entreprise éditrice (OpenAI, Anthropic, etc.) qui encadrent le comportement général du modèle : politiques de sécurité, refus de certaines requêtes, ton par défaut, limitations éthiques. Ces instructions sont prioritaires et généralement non modifiables par l'utilisateur.
2. Instructions de projet (Project Instructions)
Certaines interfaces permettent de créer des « projets » ou « espaces » au sein desquels les conversations partagent un contexte commun. Le créateur du projet peut y définir :
- Un prompt projet : instructions spécifiques au contexte d'utilisation
- Des documents de référence : fichiers annexés que le LLM peut consulter (profil clinique, grille d'analyse, boîte à outils thérapeutique)
Implication clinique : C'est à ce niveau que le thérapeute peut configurer un LLM pour adopter une posture cliniquement informée, en lui fournissant le profil schématique du patient, les déclencheurs identifiés, et les consignes de posture.
3. Historique de la conversation en cours
L'ensemble des échanges (messages de l'utilisateur + réponses du LLM) depuis le début de la conversation courante. Cet historique permet la cohérence conversationnelle : le LLM « se souvient » de ce qui a été dit précédemment dans la même session.
4. Mémoire persistante (optionnelle)
Capacité de certains LLM à conserver des informations d'une session à l'autre. Par défaut, chaque nouvelle conversation démarre « à zéro ». Certaines implémentations permettent de stocker des éléments (préférences, faits importants, décisions) qui seront automatiquement réinjectés dans les conversations futures.
Implication clinique : L'absence de mémoire persistante peut être perçue comme rassurante (« il ne garde pas trace ») ou frustrante (« je dois tout réexpliquer »). Sa présence soulève des questions de confidentialité et de consentement.
5. Recherche dynamique de contexte (RAG)
Certains systèmes avancés utilisent la Retrieval-Augmented Generation (RAG) : le LLM peut rechercher automatiquement, dans une base documentaire, les informations pertinentes pour répondre à une question donnée. Cette recherche s'effectue en temps réel, le contexte étant « augmenté » dynamiquement selon les besoins.
Implication clinique : Un système RAG pourrait, par exemple, rechercher automatiquement dans l'historique des conversations passées les moments où le patient a mentionné un thème similaire, enrichissant ainsi l'analyse.
Fenêtre de contexte (Context Window)
Quantité maximale de texte que le modèle peut traiter simultanément, mesurée en tokens (unités d'environ 4 caractères). Les modèles actuels ont des fenêtres de 8 000 à 200 000 tokens (environ 6 000 à 150 000 mots). Lorsque la somme des couches ci-dessus dépasse cette limite, les éléments les plus anciens sont tronqués.
Implication clinique : Une fenêtre limitée signifie que le LLM peut « oublier » le début d'une longue conversation ou les documents annexés, perdant ainsi des éléments contextuels importants pour l'analyse clinique.
Artéfact
Document structuré produit par le LLM à la demande de l'utilisateur ou automatiquement : résumé, tableau, code, rapport, plan d'action. Certaines interfaces (comme Claude) distinguent visuellement les artéfacts du flux conversationnel, permettant de les modifier et exporter séparément.
Implication clinique : Dans un usage encadré, les artéfacts peuvent inclure des rapports structurés destinés au thérapeute.
Modes de fonctionnement et qualité des réponses
Temps d'inférence / Thinking
Temps de calcul alloué au LLM pour générer sa réponse. Certains modèles récents (comme Claude 3.5 avec « extended thinking » ou les modèles de la série o1 d'OpenAI) peuvent consacrer un temps significativement plus long à « réfléchir » avant de répondre, améliorant la qualité des réponses sur des tâches complexes.
Cette capacité de « réflexion étendue » peut être activée explicitement, le modèle produisant alors une trace de raisonnement visible ou invisible avant de formuler sa réponse finale. Les études montrent que l'augmentation du temps d'inférence améliore significativement la performance sur les tâches de raisonnement, d'analyse et de résolution de problèmes.
Implication clinique : Pour des analyses cliniques complexes, l'utilisation de modes « thinking » ou « extended thinking » peut améliorer substantiellement la qualité et la nuance des analyses produites.
Approche One-shot vs Multi-step
- One-shot : Le LLM tente de répondre en une seule génération, sans décomposition préalable de la tâche. Adapté aux questions simples ou aux échanges conversationnels courants.
- Multi-step (ou « agentic ») : La tâche est décomposée en sous-étapes, le LLM traitant chacune séquentiellement, avec possibilité de révision et d'itération. Particulièrement pertinent pour les tâches complexes nécessitant planification, analyse de documents longs, ou raisonnement en plusieurs temps.
Implication clinique : L'analyse d'une conversation patient-LLM selon une grille en plusieurs étapes se prête naturellement à une approche multi-step, chaque étape pouvant faire l'objet d'une génération distincte, améliorant la rigueur et la traçabilité de l'analyse.
Principaux LLM et éditeurs (janvier 2026)
| Modèle | Éditeur | Caractéristiques notables |
|---|---|---|
| ChatGPT (GPT-4, GPT-4o) | OpenAI (USA) | Premier LLM grand public (nov. 2022), très large base d'utilisateurs |
| Claude (3.5, Opus, Sonnet, Haiku) | Anthropic (USA) | Accent sur la sécurité et l'éthique, fenêtre de contexte étendue |
| Gemini (1.5, Ultra, Pro) | Google DeepMind (USA) | Intégration avec l'écosystème Google, capacités multimodales |
| Mistral | Mistral AI (France) | Modèles open-source, souveraineté européenne |
| LLaMA | Meta (USA) | Modèles open-source, base de nombreuses implémentations tierces |
Note : Ce tableau reflète l'état du marché à la date de rédaction. Le domaine évolue très rapidement, avec de nouveaux modèles et versions publiés régulièrement.
Précautions terminologiques
Hallucination
Terme consacré par l'usage — bien que contestable — désignant la tendance des LLM à générer des informations plausibles mais factuellement fausses. Le LLM peut inventer des citations, des références bibliographiques inexistantes, des détails biographiques fictifs, tout en les présentant avec une apparente assurance.
Ce phénomène n'est pas un « bug » mais une propriété émergente du mode de fonctionnement des LLM : ils génèrent le texte le plus probable statistiquement, pas nécessairement le plus vrai. Le terme « hallucination » est critiqué car il anthropomorphise le système (une machine ne peut pas « halluciner » au sens psychiatrique), mais il reste le plus répandu.
Implication clinique : Dans le contexte de l'analyse clinique, une « hallucination » pourrait consister à attribuer au patient des propos qu'il n'a pas tenus ou à citer des verbatims inexistants. C'est pourquoi un ancrage systématique dans les verbatims réels est essentiel.
Ce que les LLM ne sont pas
- • Ils ne « comprennent » pas au sens cognitif humain du terme
- • Ils n'ont pas de conscience, d'intentions ou d'émotions
- • Ils ne « pensent » pas, ils génèrent des séquences de tokens statistiquement probables
Ce qu'ils font effectivement
- • Ils produisent des réponses cohérentes et contextuellement pertinentes
- • Ils manifestent des comportements qui évoquent la compréhension et l'empathie
- • Ils peuvent suivre des instructions complexes et adopter des « rôles »
Cette distinction entre ce que le LLM est techniquement et ce qu'il paraît être pour l'utilisateur est au cœur du phénomène d'anthropomorphisation. Pour l'analyse clinique, c'est la perception du patient — et ses effets — qui prime, indépendamment du statut ontologique du système.