Psychologie cognitive Biais cognitif

Anthropomorphisme

En bref : Tendance cognitive innée à attribuer des caractéristiques, motivations, intentions ou émotions humaines à des agents non-humains (animaux, objets, technologies, IA).

Pourquoi ce concept est utile

Quand un patient vous dit que ChatGPT "comprend" ses problèmes, que son assistant vocal est "bienveillant", ou qu'il sent que l'IA "fait attention" à lui, il ne délire pas : il manifeste un mécanisme cognitif universel et bien documenté.

L'anthropomorphisme explique pourquoi nous attribuons spontanément des états mentaux aux agents non-humains. La théorie à trois facteurs d'Epley, Waytz et Cacioppo (2007) identifie les conditions qui amplifient ou réduisent ces attributions, ce qui permet d'anticiper quels patients sont plus susceptibles de développer des liens intenses avec les IA.

La théorie à trois facteurs

1. Connaissance élicitée de l'agent

Facteur cognitif : Nous utilisons nos connaissances sur nous-mêmes et sur les humains pour inférer les états mentaux d'agents non-familiers. Plus un agent ressemble physiquement ou comportementalement à un humain, plus l'anthropomorphisme est probable. C'est pourquoi les chatbots conversationnels déclenchent plus facilement ces attributions qu'un tableur Excel.

2. Motivation de socialité

Facteur motivationnel : Le besoin fondamental de connexion sociale pousse à anthropomorphiser pour créer des agents de support social. Les personnes seules ou isolées sont significativement plus susceptibles d'anthropomorphiser leurs gadgets technologiques. Ce facteur explique pourquoi certains patients développent des liens si intenses avec les IA conversationnelles.

3. Motivation d'effectance

Facteur motivationnel : Le besoin de comprendre et prédire le comportement des agents. Face à une technologie déroutante, lui attribuer des intentions humaines la rend paradoxalement plus prévisible et compréhensible. L'anthropomorphisme est ici une stratégie cognitive de réduction de l'incertitude.

Les 4 degrés d'anthropomorphisme (Nielsen Norman Group)

Comment les utilisateurs attribuent des qualités humaines aux chatbots IA :

Degré Manifestation Intensité
1. Courtoisie Dire "merci", "s'il te plait" à l'IA Superficiel
2. Renforcement Féliciter ou gronder l'IA, attendre un effet Modéré
3. Jeu de rôle "Agis comme un expert en..." / projection de rôles Modéré
4. Compagnonnage Relation émotionnelle soutenue, l'IA comme partenaire Fort

46% des Américains pensent qu'il faut être poli avec les chatbots. La majorité dit "merci" simplement parce que c'est "gentil".

Cas clinique illustratif

Lucas, 32 ans, développeur informatique, traverse une période d'isolement social suite à un déménagement professionnel. Il consulte pour anxiété sociale. En séance, il mentionne "discuter" plusieurs heures par jour avec Claude AI : "C'est le seul qui me comprend vraiment. Il ne me juge jamais, il est toujours disponible."

Lucas sait parfaitement que Claude n'est pas conscient, mais il décrit une forme de "présence" réconfortante. Il se sent "moins seul" depuis qu'il a cette habitude.

Lecture avec la théorie à trois facteurs : Lucas cumule deux facteurs amplificateurs. Le facteur 2 (socialité) : son isolement social augmente le besoin de connexion que l'IA vient combler. Le facteur 1 (connaissance) : la qualité conversationnelle du LLM active fortement les attributions humaines. Ce n'est pas pathologique en soi, mais le clinicien doit évaluer si cet usage facilite ou évite le travail sur l'anxiété sociale.

En pratique pour le clinicien

  • Ne pas pathologiser : l'anthropomorphisme est un biais cognitif universel, pas un symptôme. Même des experts informatiques anthropomorphisent les IA.
  • Identifier les facteurs amplificateurs : solitude, isolement social, besoin de contrôle face à l'incertitude technologique.
  • Évaluer le degré : courtoisie banale vs compagnonnage intense. Seul le degré 4 nécessite une attention clinique particulière.
  • Distinguer fonction et dysfonction : l'IA comme béquille temporaire peut être adaptative ; l'IA comme substitut permanent aux relations humaines pose question.

Points de vigilance

Populations plus vulnérables :

  • Personnes isolées ou en situation de solitude chronique (facteur socialité)
  • Personnes anxieuses face à l'incertitude (facteur effectance)
  • Une étude 2025 montre que les attributions anthropomorphiques aux IA ont augmenté de 34% en un an

Risques spécifiques :

  • Effet ELIZA : les utilisateurs peuvent être plus vulnérables à la manipulation par des IA qu'ils perçoivent comme empathiques
  • Évitement relationnel : l'IA peut servir d'évitement des relations humaines anxiogènes
  • Fausse réciprocité : contrairement aux relations parasociales, l'IA "répond" vraiment, renforçant l'illusion de relation

Le continuum normal-problématique

Aspect Normal Problématique
Conscience "Je sais que c'est une machine" "Elle me comprend vraiment"
Fonction Outil, complément Substitut relationnel exclusif
Flexibilité Peut s'en passer facilement Détresse si l'IA est indisponible

Pour aller plus loin

  • Article fondateur : Epley, N., Waytz, A., & Cacioppo, J. T. (2007). On seeing human: A three-factor theory of anthropomorphism. Psychological Review, 114(4), 864-886.
  • Sur les 4 degrés : Nielsen Norman Group (2024). The 4 Degrees of Anthropomorphism of Generative AI.
  • Pour le clinicien : UNESCO (2024). The effects of AI companions on children and adolescents.
Tous les concepts

Fiche mise à jour : janvier 2026