Psychologie cognitive Sciences de la décision Relation humain-IA

Appréciation algorithmique

En bref : Contrairement à l'idée reçue d'une méfiance généralisée envers les algorithmes, les recherches montrent que les non-experts préfèrent souvent les recommandations d'un algorithme à celles d'un humain. Formalisée par Logg, Minson & Moore (2019), l'appréciation algorithmique est le miroir de l'aversion algorithmique : les deux coexistent sur un continuum, modulé par le contexte, l'expertise et la nature de la décision.

Pourquoi ce concept est utile

On parle beaucoup de la méfiance envers l'IA, mais on sous-estime un phénomène tout aussi problématique : la confiance excessive. Certains de vos patients accordent aux réponses de ChatGPT ou d'autres LLMs un crédit qu'ils n'accorderaient jamais à un ami, un collègue, ni même à un professionnel de santé.

Ce concept vous permet de comprendre pourquoi un patient peut préférer l'avis d'un chatbot au vôtre — non pas parce que le chatbot est meilleur, mais parce qu'il est perçu comme plus objectif, plus neutre, plus "scientifique". Nommer ce mécanisme ouvre un espace de travail clinique sur le rapport à l'autorité, à l'expertise et à la prise de décision.

L'erreur à éviter : pathologiser la confiance dans l'IA

Il serait tentant de voir toute préférence pour un conseil algorithmique comme un manque de discernement ou une naïveté technologique. Ce serait une erreur.

L'appréciation algorithmique repose en partie sur une intuition correcte : dans de nombreux domaines (prévision, estimation, diagnostic sur données quantitatives), les algorithmes surpassent effectivement le jugement humain. Le problème n'est pas que les gens fassent confiance aux algorithmes, mais qu'ils ne calibrent pas toujours cette confiance au bon niveau, dans le bon contexte.

Un patient qui fait davantage confiance à un LLM qu'à son entourage n'est pas forcément "aliéné par la technologie". Il exprime peut-être une méfiance rationnelle envers des conseils humains biaisés (jugement, morale, intérêts personnels) — et une préférence pour ce qui lui semble plus neutre.

Les 5 mécanismes de l'appréciation algorithmique

1. Un effet qui dépasse les tâches "techniques"

On pourrait penser que la préférence pour les algorithmes se limite aux tâches perçues comme calculatoires ou objectives. En réalité, Logg et al. ont démontré l'effet dans des domaines variés et parfois surprenants : estimation de quantités visuelles, prédiction du succès d'une chanson, et même prédiction d'attraction romantique — un domaine où l'on s'attendrait à ce que le jugement humain soit préféré. Cette étendue inattendue suggère que la confiance dans les algorithmes ne repose pas sur une évaluation rationnelle de leurs compétences, mais sur une perception d'objectivité attribuée par défaut.

2. La distance psychologique comme modulateur

L'appréciation algorithmique est plus forte pour les décisions concernant autrui et diminue pour les décisions personnelles. Autrement dit, on fait davantage confiance à un algorithme pour conseiller quelqu'un d'autre que pour se conseiller soi-même. En clinique, cela signifie qu'un patient peut trouver les recommandations d'un LLM très pertinentes pour "les gens en général" tout en les jugeant inadaptées à sa propre situation.

3. L'expertise comme frein

Les experts d'un domaine montrent significativement moins d'appréciation algorithmique. Ce n'est pas surprenant : disposant d'une confiance calibrée en leur propre jugement, ils sont moins enclins à le déléguer. Implication clinique : en tant que psychologue, vous êtes naturellement moins susceptible de sur-valoriser un outil IA dans votre domaine d'expertise — mais vos patients, eux, ne disposent pas de ce garde-fou.

4. La numératie comme facilitateur

Les individus avec de fortes compétences mathématiques montrent une appréciation algorithmique plus marquée. Ils perçoivent plus facilement la supériorité statistique des algorithmes sur le jugement humain intuitif. En clinique, ce profil correspond souvent aux patients issus de filières scientifiques ou techniques, qui peuvent être particulièrement réceptifs aux arguments "data-driven" des LLMs.

5. Le continuum aversion-appréciation

L'aversion et l'appréciation ne sont pas deux types de personnes, mais deux pôles d'un même continuum. Une même personne peut osciller entre les deux selon le domaine, l'enjeu et le moment. C'est le contexte qui détermine la réponse, pas la personnalité.

Quand l'appréciation devient problématique

L'appréciation algorithmique devient cliniquement préoccupante lorsqu'elle se transforme en automation bias (biais d'automatisation) : une sur-confiance systématique qui conduit à suspendre le jugement critique face aux recommandations algorithmiques.

L'IA comme "source de vérité"

Quand un patient dit "ChatGPT m'a dit que j'avais probablement un TDAH" avec le même ton qu'il dirait "mon psychiatre pense que j'ai un TDAH", l'appréciation algorithmique a dépassé le stade de la préférence pour devenir une attribution d'autorité épistémique. Le LLM n'est plus perçu comme un outil qui génère des hypothèses, mais comme une entité qui pose des diagnostics.

L'illusion de neutralité

L'appréciation algorithmique repose en partie sur la perception que l'algorithme est "objectif" et "sans biais" — ce qui est factuellement inexact. Les LLMs portent les biais de leurs données d'entraînement, leur ton empathique est un artefact de design, et leur assurance apparente ne reflète pas un degré réel de certitude.

La dévalorisation de l'expertise humaine

Dans les cas extrêmes, l'appréciation algorithmique peut conduire à dévaloriser le travail thérapeutique : "Pourquoi payer un psy quand ChatGPT me comprend mieux ?" Cette question, de plus en plus fréquente, mérite d'être accueillie sans réaction défensive — et explorée comme révélatrice du rapport du patient à l'aide et à la vulnérabilité.

Point essentiel : l'appréciation algorithmique non calibrée n'est pas un nouveau trouble. C'est un biais cognitif normal, amplifié par un contexte où les IA conversationnelles sont conçues pour paraître fiables, empathiques et compétentes.

Cas clinique illustratif

Nadia, 35 ans, cadre dans le secteur technologique, consulte pour des difficultés conjugales. En séance, elle mentionne qu'elle soumet régulièrement ses dilemmes relationnels à Claude (Anthropic) avant d'en discuter avec son thérapeute ou ses proches.

"Je préfère demander à l'IA d'abord. Elle ne me juge pas, elle analyse la situation de façon logique, elle ne prend pas parti. Mon mari pense que c'est bizarre, mais je trouve ses réponses plus objectives que celles de mes amies qui ont forcément leur propre vision."

En explorant davantage, le thérapeute note que Nadia valorise particulièrement la dimension "sans affect" des réponses du LLM. Elle reconnaît que les conseils de ses proches sont parfois pertinents, mais dit être "parasitée" par le ton émotionnel avec lequel ils sont délivrés.

Lecture avec l'appréciation algorithmique : Nadia illustre plusieurs mécanismes classiques : la perception de neutralité du LLM, la préférence pour un conseil perçu comme dépourvu d'intérêt personnel, et la valorisation du registre analytique. Plutôt que de confronter cette préférence ("l'IA ne vous comprend pas vraiment"), le clinicien peut l'explorer comme matériau : qu'est-ce que Nadia cherche à éviter dans le conseil humain ? Que dit cette préférence de son rapport au jugement d'autrui, à l'intimité, à la vulnérabilité que suppose de demander de l'aide à un humain ?

En pratique pour le clinicien

  • Explorer sans invalider : quand un patient préfère l'avis d'un LLM au vôtre, résistez à la tentation de disqualifier l'IA. Explorez plutôt ce que cette préférence révèle : besoin de neutralité ? Difficulté avec le jugement humain ? Recherche de contrôle sur le cadre de la relation d'aide ?
  • Déconstruire l'illusion de neutralité : aidez le patient à comprendre que le LLM n'est pas neutre — il est conçu pour paraître agréable, validant et compétent. Son absence d'affect n'est pas de l'objectivité, c'est un choix de design.
  • Distinguer les domaines : l'appréciation algorithmique est parfois justifiée (recherche d'informations factuelles, structuration d'idées) et parfois problématique (autodiagnostic, décisions relationnelles). Aidez le patient à identifier où le conseil algorithmique est utile et où il atteint ses limites.
  • Utiliser le continuum comme outil psychoéducatif : expliquer au patient que l'aversion et l'appréciation sont deux réponses normales à l'algorithme, modulées par le contexte, peut l'aider à prendre du recul sur sa propre position et à la calibrer de façon plus consciente.

Le continuum aversion-appréciation

L'appréciation algorithmique ne s'oppose pas à l'aversion algorithmique : les deux forment un continuum. La position d'un individu sur ce continuum dépend de trois facteurs principaux.

La nature de la tâche

Tâche quantitative et objectivable (calcul, prédiction statistique) → appréciation. Tâche qualitative et subjective (jugement moral, accompagnement émotionnel) → aversion.

Le niveau d'expertise

Non-expert → appréciation (manque de référence interne pour juger). Expert → aversion (confiance calibrée en son propre jugement).

La distance personnelle

Décision pour autrui → appréciation (enjeu émotionnel faible). Décision pour soi → aversion (besoin de contrôle accru).

En psychothérapie, vos patients se situent au croisement de ces trois facteurs : non-experts du domaine psy (favorise l'appréciation), mais confrontés à des enjeux personnels intimes (favorise l'aversion), sur des tâches profondément subjectives (favorise l'aversion). Ce positionnement complexe explique pourquoi un même patient peut à la fois sur-valoriser et rejeter l'IA selon les moments.

Points de vigilance

L'appréciation algorithmique ne dit PAS que :

  • Les gens font aveuglément confiance aux algorithmes — l'effet est modulé par le contexte et l'expertise
  • L'appréciation est toujours irrationnelle — dans de nombreux domaines, les algorithmes surpassent effectivement le jugement humain
  • Il faut décourager toute confiance dans les outils IA — l'objectif est de la calibrer, pas de l'éliminer

Limites du concept :

  • Biais d'échantillon : les résultats de Logg et al. (2019) proviennent d'échantillons majoritairement WEIRD. La transposabilité interculturelle reste à démontrer.
  • Sensibilité au framing : la façon dont un algorithme est présenté (nom, interface, contexte) influence fortement l'appréciation ou l'aversion observée. Les résultats expérimentaux sont donc partiellement artefactuels.
  • Évolution rapide : avec la diffusion massive des LLMs depuis 2023, les attitudes envers les algorithmes évoluent vite. Les résultats de 2019 ne reflètent pas nécessairement les dynamiques actuelles.

Pour aller plus loin

  • Article fondateur : Logg, J. M., Minson, J. A., & Moore, D. A. (2019). Algorithm Appreciation: People Prefer Algorithmic to Human Judgment. Organizational Behavior and Human Decision Processes, 151, 90-103.
  • Synthèse intégrative : MIS Quarterly (2023). An Integrative Perspective on Algorithm Aversion and Appreciation in Decision-Making.
  • Effets modérateurs : CHI 2023. Algorithmic Appreciation or Aversion? The Moderating Effects of Uncertainty on Algorithmic Decision Making.
  • Le concept miroir : Dietvorst, B. J., Simmons, J. P., & Massey, C. (2015). Algorithm Aversion: People Erroneously Avoid Algorithms after Seeing Them Err. Journal of Experimental Psychology: General, 144(1), 114-126.
Tous les concepts

Fiche mise à jour : février 2026