Psychologie cognitive Sciences de la décision Relation humain-IA

Aversion algorithmique

En bref : Nous pardonnons plus facilement une erreur humaine qu'une erreur algorithmique de même ampleur. Après avoir vu un algorithme se tromper une seule fois, nous avons tendance à le rejeter — même quand ses performances globales surpassent systématiquement le jugement humain. Ce biais, formalisé par Dietvorst, Simmons & Massey (2015), joue un rôle central dans l'adoption (ou le rejet) des outils IA en santé mentale.

Pourquoi ce concept est utile

En tant que clinicien, vous êtes confronté à deux versants de l'aversion algorithmique. D'un côté, vos patients peuvent rejeter en bloc un outil IA après une réponse inadéquate, alors qu'ils auraient toléré la même erreur d'un professionnel humain. De l'autre, vous-même n'êtes pas à l'abri de ce biais lorsque vous évaluez un outil d'aide à la décision clinique.

Comprendre ce mécanisme permet de distinguer le scepticisme rationnel (tout à fait souhaitable face à des outils imparfaits) de la méfiance disproportionnée qui conduit à rejeter des ressources potentiellement utiles sur la base d'un seul incident.

L'erreur à éviter : confondre aversion et prudence

Il serait tentant d'utiliser ce concept pour délégitimer toute réticence face aux outils IA : "Vous êtes simplement victime d'aversion algorithmique." Ce serait un contresens dangereux.

L'aversion algorithmique décrit un biais spécifique : une réaction disproportionnée à l'erreur, pas une réaction injustifiée. En santé mentale, la prudence face aux outils IA est souvent parfaitement rationnelle — les enjeux sont élevés, les données d'efficacité limitées, et les risques éthiques réels.

Le concept ne dit pas "faites confiance aux algorithmes". Il dit : évaluez vos réactions face aux erreurs avec la même rigueur, qu'elles viennent d'un humain ou d'une machine.

Les 4 mécanismes de l'aversion algorithmique

1. Asymétrie de pardon

Une erreur algorithmique est jugée plus sévèrement qu'une erreur humaine de même ampleur. L'algorithme est tenu à un standard de perfection implicite : on tolère que l'humain se trompe ("c'est humain"), mais on considère l'erreur de la machine comme une défaillance fondamentale. Cette asymétrie s'amplifie quand l'erreur est directement observable.

2. Besoin de contrôle et d'agentivité

Déléguer une décision à un algorithme implique de renoncer à une part de contrôle. Ce renoncement est psychologiquement coûteux, surtout dans des domaines perçus comme relevant de l'expertise humaine. Les recherches montrent que le simple fait de pouvoir modifier légèrement les recommandations d'un algorithme — même de façon triviale — suffit à réduire significativement l'aversion.

3. Croyance en l'expertise humaine unique

La conviction que les humains possèdent une intuition, un "sens clinique" ou une compréhension contextuelle inaccessible aux algorithmes. Cette croyance est parfois justifiée (la singularité du vécu échappe effectivement aux modèles statistiques), parfois surestimée (les études montrent que le jugement clinique est lui aussi sujet à de nombreux biais cognitifs).

4. Sensibilité au contexte

L'aversion n'est pas uniforme. Elle est plus forte quand le domaine est perçu comme subjectif (psychothérapie vs finance), quand l'enjeu personnel est élevé (ma santé vs un calcul abstrait), et quand les erreurs sont visibles plutôt que statistiques. La santé mentale cumule ces trois facteurs — ce qui en fait un terrain particulièrement propice à l'aversion algorithmique.

Ce que montrent les études

L'aversion algorithmique est l'un des biais les mieux documentés dans les interactions humain-IA. Voici trois résultats particulièrement éclairants pour la pratique clinique.

En radiologie : l'IA seule fait mieux que l'humain assisté par l'IA

Agarwal, Rajpurkar et al. (2023) ont montré que des radiologues assistés par IA ne faisaient pas mieux que des radiologues sans assistance — et que les deux faisaient moins bien que l'IA seule. Les praticiens écartaient systématiquement les suggestions de l'IA qui contredisaient leur premier jugement.

En médecine : les patients ignorent les bonnes suggestions du LLM

Bean et al. (2025) ont observé que des LLMs suggéraient des conditions médicales pertinentes dans 65 à 73% des cas, mais que les participants ne les intégraient généralement pas dans leur raisonnement après avoir observé une erreur. L'un d'eux a résumé : "the AI seemed pretty confident" — une confiance excessive lors d'une erreur suffit à disqualifier toutes les réponses suivantes.

L'expérience fondatrice : une seule erreur suffit

Dans l'expérience originale de Dietvorst et al. (2015), les participants qui avaient vu un algorithme imparfait commettre une erreur de prédiction basculaient massivement vers un prévisionniste humain — même quand celui-ci avait un taux d'erreur objectivement plus élevé.

Point essentiel : l'aversion n'est pas proportionnelle à la gravité de l'erreur. C'est l'existence même de l'erreur — rendue visible — qui déclenche le rejet.

Cas clinique illustratif

Yacine, 28 ans, ingénieur, consulte pour une anxiété généralisée. Son thérapeute lui suggère d'utiliser une application de TCC entre les séances pour pratiquer la restructuration cognitive. Yacine essaie l'outil pendant une semaine.

Lors de la séance suivante, Yacine rapporte : "L'appli m'a proposé un exercice sur la peur du rejet alors que je lui parlais d'une situation de surcharge au travail. C'était complètement à côté de la plaque. Du coup je n'ai plus confiance." Il a désinstallé l'application après cet unique incident.

En creusant, le thérapeute note que Yacine a par ailleurs consulté trois médecins pour son anxiété avant de trouver le bon — sans jamais remettre en cause "la médecine" en tant que discipline après chaque déconvenue.

Lecture avec l'aversion algorithmique : Yacine applique un double standard classique : une erreur d'un humain est une erreur individuelle (ce médecin n'était pas le bon), tandis qu'une erreur de l'IA est une erreur systémique (cette technologie ne marche pas). Le clinicien peut explorer cette asymétrie sans imposer l'outil : "Qu'est-ce qui fait que tu donnerais une deuxième chance à un médecin mais pas à l'application ?" Cette question ouvre sur les attentes implicites et le rapport à la technologie, sans invalider le ressenti du patient.

En pratique pour le clinicien

  • Identifier le double standard : quand un patient rejette un outil IA après un incident, explorez s'il appliquerait le même critère à un professionnel humain. L'objectif n'est pas de défendre l'IA, mais de rendre visible une asymétrie de jugement.
  • Redonner du contrôle : les recherches montrent que permettre à l'utilisateur de modifier (même légèrement) les recommandations algorithmiques réduit fortement l'aversion. Quand vous recommandez un outil IA, insistez sur le fait qu'il s'agit d'une suggestion à adapter, pas d'une prescription.
  • Préparer à l'imperfection : informer le patient avant qu'un outil IA fera des erreurs (et que c'est normal) réduit l'impact du choc de la première erreur. L'aversion se déclenche surtout quand l'erreur est inattendue.
  • S'examiner soi-même : en tant que clinicien, vous êtes aussi sujet à ce biais. Si un outil d'aide à la décision vous a donné un résultat absurde, interrogez-vous : est-ce que vous le rejetez sur la base de cette erreur, ou sur la base d'une évaluation globale de ses performances ?

L'autre face : l'appréciation algorithmique

Logg, Minson & Moore (2019) ont identifié un phénomène inverse : dans certains contextes, les gens préfèrent les recommandations algorithmiques aux conseils humains. C'est l'appréciation algorithmique.

Les deux phénomènes coexistent et dépendent du contexte. Schématiquement :

Aversion (rejet de l'IA)

  • • Domaines subjectifs (émotions, relations)
  • • Enjeux personnels élevés
  • • Erreur directement observable
  • • Expertise perçue comme intuitive

Appréciation (préférence pour l'IA)

  • • Domaines objectifs (calcul, prédiction)
  • • Enjeux impersonnels
  • • Résultats mesurables rapidement
  • • Expertise perçue comme technique

La psychothérapie se situe à l'extrême du spectre "aversion" : domaine perçu comme profondément subjectif, enjeux intimes, et expertise vue comme irréductiblement humaine. Ce positionnement explique pourquoi l'adoption d'outils IA y est particulièrement lente — et pourquoi cette lenteur n'est pas qu'irrationnelle.

Points de vigilance

L'aversion algorithmique ne dit PAS que :

  • Toute méfiance envers l'IA est irrationnelle — le scepticisme critique est sain
  • Les algorithmes sont toujours supérieurs au jugement humain — c'est contextuel
  • Il faut "surmonter" l'aversion pour adopter l'IA — l'objectif est de calibrer, pas d'éliminer

Ce que ce concept ne couvre PAS :

  • L'automation bias (biais d'automatisation) : le phénomène inverse, où l'on fait trop confiance à l'algorithme. Les deux biais peuvent coexister chez une même personne.
  • Les critiques systémiques de l'IA (surveillance, vie privée, biais de données) qui relèvent d'analyses structurelles, pas de biais cognitifs individuels.
  • La résistance au changement en général — l'aversion algorithmique est un mécanisme spécifique, pas un synonyme de conservatisme technologique.
  • La question de l'imputabilité : une part de la préférence pour le jugement humain tient au fait qu'on peut demander des explications à un humain, le questionner, et engager sa responsabilité (éthique, juridique, déontologique). Face à un algorithme, cette possibilité de dialogue et de recours s'efface — ce qui alimente une méfiance qui n'est pas qu'un biais cognitif.

Pour aller plus loin

  • Article fondateur : Dietvorst, B. J., Simmons, J. P., & Massey, C. (2015). Algorithm Aversion: People Erroneously Avoid Algorithms after Seeing Them Err. Journal of Experimental Psychology: General, 144(1), 114-126.
  • Stratégie de mitigation : Dietvorst, B. J., Simmons, J. P., & Massey, C. (2016). Overcoming Algorithm Aversion: People Will Use Imperfect Algorithms If They Can (Even Slightly) Modify Them. Management Science, 64(3), 1155-1170.
  • Résultat contrastant : Logg, J. M., Minson, J. A., & Moore, D. A. (2019). Algorithm Appreciation: People Prefer Algorithmic to Human Judgment. Organizational Behavior and Human Decision Processes, 151, 90-103.
  • Application radiologie : Agarwal, N., Rajpurkar, P. et al. (2023). Combining Human Expertise with Artificial Intelligence: Experimental Evidence from Radiology. NBER Working Paper 31422.
Tous les concepts

Fiche mise à jour : février 2026