Hallucinations et confabulations IA
En bref : Les grands modèles de langage (LLM) génèrent parfois des informations fausses mais plausibles — ce qu'on appelle des « hallucinations ». Ce phénomène n'est pas un bug mais le fonctionnement normal d'un système probabiliste. Le vrai problème : nous attendons de ces IA qu'elles fonctionnent comme des calculatrices ou des bases de données, ce qu'elles ne sont pas.
Pourquoi ce concept est utile
Si un patient vous montre un échange avec ChatGPT où l'IA cite un article scientifique qui n'existe pas, ou si un collègue s'inquiète que « l'IA ment », il s'agit probablement d'une hallucination. Ce terme prête à confusion car il suggère une pathologie — or il s'agit du fonctionnement normal d'un algorithme probabiliste.
Comprendre ce mécanisme permet au clinicien de dédramatiser le phénomène (ce n'est pas de la tromperie), de contextualiser les limites des outils IA utilisés par les patients, et surtout de s'appuyer sur un parallèle riche avec la cognition humaine : nous aussi, nous « hallucinons » — la perception et la mémoire humaines sont des reconstructions probabilistes, pas des enregistrements fidèles.
Un décalage fondamental d'attentes
Le problème central n'est pas tant que les LLM hallucinent — c'est intrinsèque à leur fonctionnement — mais que nous projetons sur eux des attentes issues de nos logiciels classiques. Nous traitons les IA conversationnelles comme si elles appartenaient à l'une de ces trois catégories familières :
Attente « calculatrice »
On attend des réponses exactes et reproductibles. « Combien font 347 x 29 ? » Une calculatrice donne toujours la même réponse. Un LLM peut se tromper — et donner une réponse différente à chaque fois.
Attente « base de données »
On attend une restitution fidèle d'informations stockées. « Quel est le numéro de téléphone de ce service ? » Un LLM ne « stocke » pas d'informations au sens classique — il reconstitue des réponses plausibles à partir de patterns statistiques.
Attente « système expert »
On attend des raisonnements logiques vérifiables. « Quels sont les critères diagnostiques du TSPT ? » Un système expert applique des règles formelles ; un LLM produit du texte qui ressemble à un raisonnement logique, sans en appliquer réellement les règles.
Point clé : Un LLM est un modèle statistique de langage qui prédit le token (mot ou fragment de mot) suivant le plus probable dans une séquence. Quand il « invente » une référence bibliographique plausible, il fait exactement ce pour quoi il a été conçu : générer du texte cohérent et vraisemblable. Le terme « hallucination » est d'ailleurs trompeur : il pathologise un comportement qui est le mode de fonctionnement normal de ces algorithmes.
Le parallèle avec la confabulation humaine
Ce parallèle est particulièrement éclairant pour des psychologues cliniciens : la « confabulation » — terme emprunté à la neuropsychologie — décrit mieux que « hallucination » ce que font réellement les LLM.
La confabulation en neuropsychologie
Dans le syndrome de Korsakoff ou certaines lésions frontales, le patient « remplit les trous » de sa mémoire avec des informations plausibles mais fausses. Il ne ment pas délibérément — il génère une représentation cohérente à partir d'informations incomplètes. C'est un mécanisme adaptatif poussé à l'extrême pathologique.
Le mécanisme cognitif normal
- 1. Nos souvenirs sont des reconstructions, pas des enregistrements. Elizabeth Loftus a démontré que les faux souvenirs peuvent être implantés par de simples questions suggestives.
- 2. Nous complétons les informations manquantes par des prototypes et des schémas. Frederic Bartlett a montré dès 1932 que la mémoire reconstruit les récits en les conformant à nos attentes culturelles.
- 3. La perception elle-même est une « hallucination contrôlée » selon Anil Seth : le cerveau génère en permanence des prédictions perceptives qu'il compare aux signaux sensoriels entrants.
- 4. Les heuristiques cognitives (Kahneman & Tversky) sont des raccourcis qui génèrent des réponses rapides, plausibles — mais parfois erronées.
LLM et cerveau humain : convergences et divergences
| Aspect | LLM | Cerveau humain |
|---|---|---|
| Mécanisme | Prédit le token suivant le plus probable | Génère la perception/mémoire la plus probable |
| Priorité | Cohérence textuelle et plausibilité | Cohérence narrative et plausibilité |
| Vulnérabilité | Informations statistiquement fréquentes | Informations prototypiques et culturellement attendues |
| Vérification | Pas de mécanisme natif | Métacognition, confrontation au réel, dialogue social |
Mécanismes de réduction et analogies humaines
Plusieurs techniques permettent de réduire les hallucinations des LLM. Chacune a un parallèle intéressant avec les stratégies humaines de fiabilisation cognitive.
RAG (Retrieval-Augmented Generation)
Ancrer les réponses dans des documents vérifiés, consultés en temps réel.
Analogie humaine
Vérifier ses souvenirs en consultant ses notes, un livre ou un collègue.
Chain-of-thought (CoT)
Forcer le raisonnement explicite étape par étape avant la conclusion.
Analogie humaine
Mobiliser le Système 2 (Kahneman) : ralentir, raisonner explicitement au lieu de répondre « au feeling ».
Grounding (ancrage factuel)
Connecter le LLM à des sources de données factuelles en temps réel.
Analogie humaine
Confronter ses impressions à la réalité observable (testing en TCC, supervision clinique).
Temperature basse
Réduire la variabilité des réponses pour favoriser les réponses les plus probables.
Analogie humaine
S'en tenir aux faits établis plutôt que spéculer. Inhiber les associations libres en contexte factuel.
Calibration (« je ne sais pas »)
Entraîner le modèle à reconnaître les limites de ses connaissances.
Analogie humaine
Métacognition : savoir qu'on ne sait pas. Une compétence clinique fondamentale.
Cas clinique illustratif
Nadia, 45 ans, enseignante, consulte pour anxiété généralisée. En séance, elle mentionne avoir « vérifié ses symptômes » avec ChatGPT. L'IA lui a fourni une réponse détaillée citant un article de The Lancet sur le lien entre ses symptômes et une pathologie rare. Nadia est très inquiète.
En vérifiant, l'article cité n'existe pas. Le titre, les auteurs et le journal sont plausibles mais entièrement fabriqués par le LLM. Nadia est déstabilisée : « Mais c'était tellement précis, avec des noms d'auteurs et tout... »
Lecture clinique : Ce cas illustre parfaitement le décalage d'attentes. Nadia a traité ChatGPT comme une base de données médicale (attente de restitution fidèle) alors qu'il s'agit d'un générateur de texte probable. La forme « article scientifique » — avec titre, auteurs, revue — est un pattern extrêmement fréquent dans les données d'entraînement, ce qui rend l'hallucination particulièrement convaincante. Le clinicien peut ici utiliser cette expérience pour travailler sur le rapport de Nadia à l'incertitude et à la recherche de réassurance (axe pertinent dans son TAG).
En pratique pour le clinicien
- Recadrer le terme : l'« hallucination » IA n'est pas comparable à l'hallucination psychiatrique. Préférer « confabulation » ou « génération d'informations non vérifiées » pour éviter la confusion diagnostique.
- Nommer le décalage : quand un patient se dit « trompé » par une IA, explorer ses attentes implicites. Attendait-il d'un chatbot qu'il fonctionne comme Google, comme un médecin, comme un livre ? Ce décalage est souvent le vrai problème.
- Utiliser le parallèle humain : rappeler que nous aussi « confabulons » — faux souvenirs, biais de confirmation, interprétations hâtives. Cela dédramatise les limites de l'IA tout en ouvrant un travail sur nos propres mécanismes cognitifs.
- Éduquer à la vérification : un LLM qui confabule n'est pas inutile — un clinicien aussi fait parfois des interprétations hâtives ou des projections théoriques. La question n'est pas l'infaillibilité mais la conscience de la limite et les mécanismes de vérification.
Points de vigilance
Contextes à risque élevé :
- Recherche de diagnostic : des patients anxieux utilisant l'IA pour auto-diagnostiquer peuvent prendre pour argent comptant des informations médicales hallucinées
- Références scientifiques : les LLM sont particulièrement « convaincants » quand ils inventent des citations — titres, auteurs, revues — car ce format est très fréquent dans leurs données
- Confiance excessive : la fluidité et l'assurance du texte généré ne sont pas des indicateurs de fiabilité
Limites du parallèle humain :
- Le parallèle confabulation humaine/IA est pédagogique, pas ontologique : les mécanismes sous-jacents sont fondamentalement différents
- L'humain dispose de la métacognition (capacité de douter de ses propres productions) ; le LLM n'a pas cette capacité nativement
- Ne pas utiliser ce parallèle pour minimiser les risques : « les humains aussi se trompent » ne justifie pas de s'appuyer aveuglément sur une IA
Ce concept dans nos fiches outils
Les hallucinations et confabulations de l'IA sont abordées dans nos fiches outils sous l'angle des risques concrets pour les patients et des stratégies de vérification.
Génération fluide de fausses références — risque amplifié par la confiance des utilisateurs
Calibrage plus prudent mais confabulations toujours présentes dans les domaines spécialisés
Accès web en temps réel réduit mais n'élimine pas les hallucinations factuelles
Architecture par règles qui évite les hallucinations — contrepartie : rigidité des réponses
Pour aller plus loin
- Confabulation humaine : Loftus, E. F. & Palmer, J. C. (1974). Reconstruction of automobile destruction. Journal of Verbal Learning and Verbal Behavior, 13(5), 585-589.
- Mémoire reconstructive : Bartlett, F. C. (1932). Remembering: A Study in Experimental and Social Psychology. Cambridge University Press.
- Hallucination contrôlée : Seth, A. (2021). Being You: A New Science of Consciousness. Faber & Faber.
- Heuristiques et biais : Kahneman, D. (2011). Thinking, Fast and Slow. Farrar, Straus and Giroux.
- Perroquets stochastiques : Bender, E. M., Gebru, T., McMillan-Major, A. & Mitchell, M. (2021). On the Dangers of Stochastic Parrots. FAccT 2021, pp. 610-623.
Voir aussi : Test de Turing, Anthropomorphisme, Glossaire IA
Fiche mise à jour : janvier 2026