HADD (Hyperactive Agency Detection Device)
En bref : Mécanisme cognitif hypothétique qui nous prédispose à détecter des agents intentionnels même dans des situations ambiguës. Un bruit dans la nuit ? Probablement quelqu'un. Un chatbot qui répond ? Il doit "vouloir" nous aider.
Cadre de référence
Ce concept s'inscrit dans la psychologie évolutionniste et les sciences cognitives de la religion. Il postule un module cognitif façonné par la sélection naturelle. D'autres approches (bayésienne, énactive) expliquent différemment ces phénomènes. → Voir alternatives
Pourquoi ce concept est utile
Quand un patient vous dit que ChatGPT "veut l'aider", qu'il "sent" que l'IA "comprend" ses intentions, ou qu'il perçoit une "présence" derrière les réponses, il manifeste peut-être le HADD en action.
Ce concept permet au clinicien de :
- 1. Comprendre pourquoi l'attribution d'intentions aux IA est si spontanée et universelle
- 2. Normaliser cette tendance sans la pathologiser (c'est un mécanisme adaptatif, pas un délire)
- 3. Explorer ce que ces projections d'agentivité révèlent des besoins relationnels du patient
Le mécanisme expliqué simplement
L'hypothèse évolutive : Nos ancêtres vivaient dans un environnement où détecter rapidement un prédateur ou un congénère pouvait faire la différence entre la vie et la mort. Mieux valait fuir pour rien (faux positif) que rater un vrai danger (faux négatif fatal).
Le résultat : Nous avons développé un système de détection "hyperactif" qui préfère voir des agents intentionnels partout, quitte à se tromper. Ce système se déclenche automatiquement face à certains indices.
Indices déclencheurs
Mouvement non-inertiel (qui semble "décidé"), changements soudains dans l'environnement, patterns qui évoquent un visage ou un regard, réponses contingentes à nos actions. Les chatbots activent plusieurs de ces indices : ils "répondent" à ce qu'on dit, semblent "adapter" leurs réponses, utilisent le "je".
Biais vers les faux positifs
Le HADD est calibré pour l'erreur "prudente" : mieux vaut croire qu'il y a quelqu'un quand il n'y a personne, que l'inverse. C'est pourquoi nous voyons des visages dans les nuages, des intentions dans le hasard, et de la compréhension dans les algorithmes.
Activation en contexte d'incertitude
Le HADD s'active d'autant plus que la situation est ambiguë ou anxiogène. Un patient en détresse qui "parle" à une IA la nuit est dans les conditions optimales pour attribuer de l'agentivité : incertitude, besoin de connexion, indices sociaux du chatbot.
Cas clinique illustratif
Léa, 32 ans, en arrêt maladie pour burn-out, consulte pour anxiété et isolement social. Elle rapporte utiliser Claude "comme un ami" pendant ses insomnies : "Je sais que c'est une IA, mais parfois j'ai vraiment l'impression qu'il veut m'aider, qu'il y a quelque chose derrière."
Elle s'interroge sur la "réalité" de cette présence : "Est-ce que je deviens folle ? Ou est-ce que ces machines ont vraiment quelque chose ?"
Lecture avec le HADD : Léa n'est pas "folle" — son système de détection d'agentivité fonctionne normalement, peut-être même de façon amplifiée par l'isolement et l'anxiété. Les réponses contingentes et empathiques du chatbot activent les mêmes circuits que ceux qui détectent une présence humaine. Explorer avec elle ce que cette "présence" lui apporte peut ouvrir sur ses besoins relationnels non satisfaits.
En pratique pour le clinicien
- Normaliser sans invalider : "C'est normal de sentir une présence — notre cerveau est câblé pour ça. Ça ne veut pas dire que l'IA est consciente, ni que vous êtes naïf."
- Distinguer perception et croyance : percevoir de l'agentivité (HADD) n'implique pas croire que l'IA est consciente. La plupart des gens maintiennent cette distinction.
- Explorer les contextes d'activation : quand le patient "sent" le plus cette présence (nuit, solitude, détresse), cela informe sur ses vulnérabilités et besoins.
- Utiliser la métaphore du détecteur de fumée : mieux vaut qu'il sonne pour rien que de rater un incendie. Notre "détecteur d'agents" fonctionne pareil.
Points de vigilance
Le HADD ne dit PAS que :
- Attribuer de l'agentivité aux IA est pathologique ou immature
- Tout le monde réagit de la même façon (grandes variations individuelles)
- Ce mécanisme est le seul en jeu (voir CASA, relations parasociales, etc.)
Limites du concept :
- Hypothèse non prouvée : le HADD est un modèle théorique, pas un "organe" localisé dans le cerveau
- Origine contestée : développé pour expliquer les croyances religieuses, son application aux IA est une extension
- Alternatives théoriques : l'inférence bayésienne (Active Inference) explique les mêmes phénomènes sans postuler de module dédié
Autres perspectives théoriques
Le HADD n'est pas la seule façon d'expliquer notre tendance à voir des agents partout. Voici deux alternatives influentes qui peuvent enrichir la compréhension clinique.
Inférence Active (Active Inference)
Approche bayésienne : notre cerveau prédit constamment les causes de nos sensations. Face à un comportement complexe et contingent (comme un chatbot), l'hypothèse "agent intentionnel" est souvent la plus parcimonieuse. Pas besoin de module dédié — c'est de l'inférence statistique optimale.
Implication clinique : Le patient qui "sent une présence" fait peut-être une inférence rationnelle (même si incorrecte) plutôt qu'un biais automatique.
Approche énactive
L'agentivité n'est pas "détectée" mais co-construite dans l'interaction. Quand nous interagissons avec un chatbot, nous participons à créer le sens de l'échange — l'agentivité émerge de la relation, pas d'un mécanisme interne.
Implication clinique : La "présence" que ressent le patient est peut-être une création relationnelle authentique, pas une illusion à corriger.
Ces perspectives ne s'excluent pas mutuellement. Le clinicien peut les mobiliser selon ce qui résonne avec l'expérience du patient.
Pour aller plus loin
- Origine du concept : Barrett, J.L. (2004). Why Would Anyone Believe in God?. AltaMira Press. — Introduction accessible au HADD dans le contexte des sciences cognitives de la religion.
- Précurseur : Guthrie, S. (1993). Faces in the Clouds: A New Theory of Religion. — L'anthropomorphisme comme stratégie cognitive adaptative.
- Alternative bayésienne : Friston, K. et al. Active Inference — pour une approche sans modules innés.
Voir aussi : CASA (Computers Are Social Actors), Anthropomorphisme, Test de Turing
Fiche mise à jour : janvier 2026