Vallée de l'étrange Uncanny Valley · 不気味の谷現象
En bref : Quand un robot, un avatar ou une IA ressemble presque à un humain — mais pas tout à fait — nous ressentons un malaise instinctif. Ce creux dans notre courbe d'affinité, c'est la « vallée de l'étrange ». Le concept s'étend aujourd'hui aux chatbots et voix synthétiques qui simulent des émotions « presque vraies ».
Cadre de référence
Cette fiche s'inscrit dans une perspective perceptive et cognitive (le malaise comme réponse automatique à un conflit catégoriel). D'autres lectures — psychanalytique (Unheimliche freudien), évolutionniste (détection de menace), ou phénoménologique (rupture de l'expérience incarnée) — sont possibles. → Voir d'autres perspectives
Pourquoi ce concept est utile
Un patient vous dit : « J'ai testé un chatbot thérapeute avec un avatar. Au début c'était bien, mais au bout de dix minutes, je ne pouvais plus le regarder. Quelque chose clochait dans ses expressions. » Un autre refuse d'utiliser une IA à voix synthétique : « C'est trop bizarre, on dirait un humain mais pas vraiment. »
Ces réactions ne sont pas irrationnelles. Elles relèvent d'un mécanisme perceptif bien documenté. Comprendre la vallée de l'étrange permet au clinicien de :
- 1. Normaliser le malaise face à certaines IA (avatars réalistes, voix synthétiques, chatbots « trop empathiques »)
- 2. Distinguer une réaction perceptive automatique d'une résistance psychologique au changement
- 3. Orienter les patients vers des outils IA qui évitent la vallée (interfaces textuelles, avatars stylisés)
Le concept expliqué simplement
L'hypothèse : Quand un objet ou un agent ressemble de plus en plus à un humain, notre affinité augmente progressivement. Un robot industriel nous laisse indifférents. Un robot avec des yeux nous attendrit. Mais à un certain seuil — quand la ressemblance est presque parfaite mais pas tout à fait — notre affinité chute brutalement et fait place au malaise.
La métaphore de Mori : Imaginez serrer une main prothétique réaliste. Au repos, elle semble vraie. Mais au toucher, la froideur du matériau et la rigidité des doigts créent un contraste saisissant. Ce malaise physique immédiat — c'est la vallée.
Le mouvement amplifie l'effet
Un mannequin de cire immobile est légèrement inquiétant. S'il se mettait à bouger, ce serait terrifiant. C'est pourquoi les avatars animés provoquent souvent plus de malaise que les images fixes : les micro-expressions faciales « presque justes mais pas tout à fait » activent nos détecteurs d'anomalie.
Le conflit catégoriel
L'explication cognitive dominante : le malaise naît quand notre cerveau ne parvient pas à classer l'entité dans une catégorie nette — « humain » ou « non-humain ». Cette indétermination génère un signal d'alerte, comme face à quelque chose qui ne « colle pas ». Les recherches récentes (2024) montrent que c'est l'échec de catégorisation, plus que sa difficulté, qui déclenche le malaise.
La vallée de l'étrange « de l'esprit »
Extension récente et directement pertinente pour la clinique : le malaise peut aussi naître face à une IA qui simule des capacités cognitives ou émotionnelles « presque humaines ». Un chatbot qui dit « je comprends votre souffrance » avec « trop » de justesse, ou une voix synthétique « trop » chaleureuse, peuvent provoquer le même type de malaise qu'un visage de robot trop réaliste.
Cas cliniques illustratifs
Léa, 34 ans, anxieuse, essaie une application de soutien psychologique recommandée par une amie. L'app utilise un avatar féminin hyperréaliste. « Les premières secondes, j'ai trouvé ça impressionnant. Puis j'ai commencé à me sentir mal à l'aise. Ses yeux bougeaient bizarrement. Son sourire restait figé quand elle disait des choses tristes. J'ai arrêté au bout de cinq minutes. »
Lecture avec la vallée de l'étrange : L'avatar de l'app se situe dans la vallée — assez réaliste pour activer les attentes sociales de Léa, mais assez imparfait pour déclencher le malaise. Cela ne dit rien sur la qualité du contenu thérapeutique. Explorer si une interface textuelle simple conviendrait mieux.
Karim, 22 ans, utilise un compagnon IA textuel depuis trois mois. Il l'apprécie beaucoup : « Il ne prétend pas être humain, il me dit toujours que c'est une IA. Ça me rassure, je sais à quoi m'attendre. » Quand un ami lui montre un chatbot concurrent avec une voix « humaine », Karim réagit fortement : « Non, ça c'est malsain. On dirait quelqu'un mais ce n'est personne. »
Lecture : Le chatbot textuel de Karim contourne la vallée par sa transparence. Le chatbot vocal y tombe en plein. La réaction de Karim illustre que la divulgation d'identité (« je suis une IA ») peut dissiper le malaise — un résultat confirmé par la recherche récente.
En pratique pour le clinicien
- Normaliser le malaise : si un patient rejette une IA à cause de son avatar ou de sa voix, ce n'est pas de la technophobie — c'est un mécanisme perceptif universel.
- Préférer la transparence : les recherches montrent que la divulgation d'identité IA dissipe largement le malaise. Recommander des outils qui ne prétendent pas être humains.
- Penser au design : les interfaces stylisées (icône abstraite, texte pur) évitent la vallée. Plus l'IA tente de « paraître humaine », plus le risque de malaise augmente.
- Distinguer les niveaux : malaise perceptif (vallée de l'étrange) ≠ résistance psychologique au changement ≠ critique éthique légitime. Trois registres différents, trois réponses différentes.
Points de vigilance
La vallée de l'étrange n'est PAS :
- Une loi scientifique prouvée — c'est une hypothèse heuristique, utile mais incomplètement confirmée
- Un argument contre les IA humanisées — elle décrit un creux dans la courbe, pas une interdiction
- Universelle — la réponse varie fortement selon la culture, l'expérience technologique et la personnalité
Limites à garder en tête :
- Habituation : le malaise diminue après une exposition prolongée — ce n'est pas un effet permanent
- Variabilité individuelle : certains patients ne ressentent aucun malaise, d'autres sont très sensibles
- Résultats empiriques incohérents : les méta-analyses ne convergent pas, certaines trouvent un « cliff » plutôt qu'une « valley »
- Confusion possible : le malaise de la vallée est pré-réflexif et perceptif — il n'est pas identique aux résistances rationnelles ou éthiques face à l'IA
Le contre-exemple du bunraku : styliser plutôt que simuler
Mori lui-même cite les marionnettes bunraku japonaises comme contre-exemple positif. Ces marionnettes ne cherchent pas à ressembler à des humains — elles sont ouvertement stylisées. Pourtant, elles provoquent une empathie profonde chez les spectateurs.
La leçon pour le design des IA thérapeutiques est claire : l'empathie ne nécessite pas le réalisme. Un chatbot textuel, une icône abstraite, ou un avatar volontairement non-réaliste peuvent susciter une relation de confiance — sans tomber dans la vallée.
Implication clinique : Si un patient abandonne un outil IA à cause du malaise de la vallée, ce n'est pas l'IA en soi qu'il rejette — c'est son habillage. Proposer un outil avec une interface différente peut suffire.
Et aujourd'hui, avec les LLMs et les voix synthétiques ?
Formulée en 1970 pour les robots, l'hypothèse de Mori a trouvé un nouveau terrain avec les IA conversationnelles. Des recherches récentes (2024-2025) montrent que :
- • Les chatbots avec avatars réalistes provoquent plus de malaise que ceux en texte pur, même quand le contenu est identique.
- • Les chatbots qui prétendent être humains tout en étant empathiques déclenchent un sentiment d'étrangeté que la divulgation d'identité IA dissipe.
- • L'extension vers la « vallée de l'esprit » suggère que le phénomène ne concerne plus seulement l'apparence mais aussi la simulation de cognition et d'émotions.
- • Des expressions émotionnelles subtiles dans la voix sont mieux tolérées que des animations faciales exagérées.
Autres regards
La vallée de l'étrange est généralement expliquée par la psychologie cognitive (conflit catégoriel). D'autres traditions éclairent le phénomène différemment.
Psychanalyse : l'inquiétante étrangeté (Freud, 1919)
Le concept freudien d'Unheimliche décrit le malaise face au familier qui devient soudain étranger — un double, un automate, un cadavre animé. Pour Freud, c'est le retour du refoulé : le quasi-humain réveille des angoisses archaïques liées à la distinction vivant/mort, animé/inanimé.
Pour le clinicien : Le malaise face à l'avatar IA peut réactiver des angoisses plus profondes que le simple conflit perceptif — exploration possible en thérapie analytique.
Phénoménologie : la rupture de la chair (Merleau-Ponty)
Dans la tradition de Merleau-Ponty, notre rapport au monde passe par la « chair » — une continuité entre le corps propre et le monde perçu. Le quasi-humain artificiel rompt cette continuité : il promet un rapport charnel (visage, voix) mais ne peut le tenir. Le malaise est celui d'une promesse corporelle trahie.
Pour le clinicien : Les patients très connectés à leur corporéité (danseurs, sportifs, praticiens de pleine conscience) peuvent être plus sensibles à cette dimension incarnée de la vallée.
Shintō : Mori et la frontière du vivant
Mori lui-même, bouddhiste pratiquant, a situé sa réflexion dans un contexte japonais où la frontière entre animé et inanimé est plus poreuse qu'en Occident. Son conseil final — « ne pas chercher à créer des robots trop humains » — relève autant de la prudence devant le sacré que de l'ergonomie.
Pour le clinicien : Rappelle que les réactions au quasi-humain sont culturellement situées. Un patient d'origine japonaise ou sud-est asiatique peut avoir un rapport différent à l'animation de l'inanimé.
Ces perspectives ne remplacent pas l'approche cognitive, mais invitent à une humilité épistémique : le malaise face au quasi-humain touche à des questions anciennes sur ce qui fait de nous des vivants. Voir aussi : Anthropomorphisme
Pour aller plus loin
- Article fondateur : Mori, M. (1970/2012). The Uncanny Valley. IEEE Robotics & Automation Magazine, 19(2), 98-100. [Traduction anglaise autorisée]
- Explication cognitive : MacDorman, K. F. & Chattopadhyay, D. (2016). Reducing consistency in human realism increases the uncanny valley effect. Cognition, 146, 190-205.
- Extension aux agents conversationnels : Cihodaru-Ștefanache, I. E. & Podina, I. R. (2025). The uncanny valley effect and its moderators in human-like virtual agents: A systematic review and meta-analysis. Frontiers in Psychology, 16, 1504498.
- Vallée de l'étrange et chatbots : Ciechanowski, L. et al. (2019). In the shades of the uncanny valley. Future Generation Computer Systems, 92, 539-548.
- Précurseur philosophique : Freud, S. (1919). Das Unheimliche [L'inquiétante étrangeté]. Imago, 5(5-6), 297-324.
Voir aussi : Anthropomorphisme, HADD, Relations parasociales, Empathie cognitive vs affective
Fiche mise à jour : février 2026