Psychologie sociale HCI

CASA (Computers Are Social Actors)

En bref : Les humains répondent automatiquement aux ordinateurs comme s'ils étaient des personnes, même face à des indices sociaux minimaux (une voix, un nom, un texte conversationnel).

Pourquoi ce concept est utile

Quand un patient vous dit qu'il "discute" avec ChatGPT, qu'il trouve son assistant vocal "sympathique" ou qu'il se sent "jugé" par une IA, il ne délire pas : il manifeste des réponses sociales automatiques que nous avons tous.

CASA explique pourquoi même des personnes rationnelles et informées appliquent spontanément des règles sociales (politesse, réciprocité, attribution de personnalité) aux machines. C'est un réflexe, pas une croyance.

Les 4 mécanismes clés

1. Anthropomorphisme automatique

Nous attribuons spontanément des caractéristiques humaines (intentions, émotions, personnalité) aux machines dès qu'elles présentent des indices sociaux minimaux. Ce n'est pas une décision consciente, c'est un réflexe cognitif.

2. L'ordinateur comme représentant

Nous percevons parfois l'ordinateur comme le "porte-parole" d'un humain (le programmeur, l'entreprise). Nous répondons socialement car nous sentons une présence humaine derrière la machine.

3. Réponses "sans réfléchir" (mindlessness)

Face à des indices humanoïdes (voix, langage naturel), nous appliquons automatiquement nos scripts sociaux habituels sans réflexion consciente. C'est pourquoi même savoir qu'on parle à une machine ne supprime pas le réflexe.

4. Médias = Vie réelle (Media Equation)

Notre cerveau traite les médias et technologies avec les mêmes règles que la vie réelle. Nous appliquons aux écrans les mêmes attentes sociales qu'aux interactions en face-à-face.

Cas clinique illustratif

Marie, 45 ans, cadre supérieure, rapporte en séance qu'elle se sent "mal à l'aise" de demander certaines choses à son assistant vocal : "Je sais que c'est ridicule, mais j'ai l'impression d'être impolie quand je lui donne un ordre sec."

Elle ajoute qu'elle a tendance à dire "merci" après chaque réponse, même si elle sait parfaitement que c'est une machine.

Lecture avec CASA : Marie manifeste le mécanisme de "mindlessness". Ses scripts sociaux de politesse s'activent automatiquement face aux indices vocaux humanoïdes, indépendamment de sa connaissance rationnelle de la situation. Ce n'est ni une croyance irrationnelle, ni un symptôme : c'est un fonctionnement cognitif normal.

En pratique pour le clinicien

  • Normaliser les réponses sociales aux IA : ce n'est pas pathologique de "discuter" avec ChatGPT ou de trouver Alexa "agaçante".
  • Distinguer réflexe automatique et croyance : répondre socialement à une IA ne signifie pas croire qu'elle est consciente.
  • Explorer ce que révèlent ces réponses : les projections sur l'IA peuvent éclairer des patterns relationnels du patient.
  • Nuancer selon les apps : toutes les IA ne suscitent pas les mêmes réponses (voir ci-dessous).

Points de vigilance

CASA ne dit PAS que :

  • Les patients croient que l'IA est consciente ou vivante
  • Ces réponses mènent nécessairement à des relations profondes
  • Ces réflexes sont bénéfiques ou souhaitables

Limites du concept :

  • Crise de réplication : certains effets CASA ne se reproduisent pas avec les utilisateurs contemporains, plus habitués aux technologies
  • Contexte daté : les études originales (années 1990) utilisaient des interfaces très différentes des LLM actuels
  • Différences individuelles : CASA décrit une tendance moyenne, pas un effet universel

Attention aux généralisations

Toutes les apps d'IA ne sont pas équivalentes. Certaines sont conçues explicitement pour maximiser les réponses CASA (personnalisation, avatar, mémoire, ton empathique), d'autres sont purement utilitaires.

Type d'app Exemples Design CASA
Compagnon IA Replika, Character.AI, Pi Intentionnel et fort
Assistant généraliste ChatGPT, Claude, Gemini Modéré (conversationnel)
Outil spécialisé Perplexity, GitHub Copilot Faible (utilitaire)

Une étude sur Replika (conçue pour l'attachement) ne peut pas être généralisée à tous les chatbots.

Pour aller plus loin

  • Ouvrage fondateur : Nass, C. & Reeves, B. (1996). The Media Equation: How People Treat Computers, Television, and New Media Like Real People and Places. Cambridge University Press.
  • Sur la crise de réplication : Les revues récentes suggèrent que certains effets CASA sont moins robustes qu'initialement pensé avec les digital natives.
Tous les concepts

Fiche mise à jour : janvier 2026