Éthique du care
En bref : Courant de philosophie morale qui place la relation de soin au centre de la réflexion éthique, plutôt que des principes abstraits. Développé par Carol Gilligan (1982) et formalisé par Joan Tronto (1993).
Pourquoi ce concept est utile
Quand vous évaluez un outil IA pour votre pratique, les grilles d'évaluation disponibles (modèle APA, EU AI Act) s'appuient essentiellement sur le principisme : l'outil respecte-t-il l'autonomie du patient ? Est-il bénéfique ? Non nuisible ? Équitable ?
Ces questions sont nécessaires mais insuffisantes. Elles évaluent l'outil comme un objet technique isolé. Or, en psychothérapie, ce qui soigne n'est pas un objet — c'est une relation. L'éthique du care fournit un cadre qui prend cette réalité au sérieux.
En tant que clinicien, vous pratiquez déjà l'éthique du care sans le savoir : l'attention à la souffrance du patient, la responsabilité du cadre, la compétence technique au service de la relation, la vérification que le patient se sent effectivement aidé. Ce cadre rend explicite ce que vous faites implicitement — et permet de l'appliquer à l'évaluation des outils IA.
Les 4 phases du care (Joan Tronto, 1993)
1. Attention (caring about)
Reconnaître qu'un besoin existe. Être attentif à la vulnérabilité de l'autre, percevoir sa souffrance avant même qu'il ne la formule explicitement.
Pour l'IA :
Le chatbot détecte-t-il quand l'utilisateur est en souffrance accrue ? Adapte-t-il sa réponse en conséquence ? Ou applique-t-il le même script que l'utilisateur aille bien ou soit en crise ?
2. Prise en charge (taking care of)
Assumer la responsabilité de répondre au besoin identifié. Ce n'est pas seulement voir — c'est décider d'agir.
Pour l'IA :
Qui prend la responsabilité de vérifier que l'outil n'aggrave pas l'isolement du patient ? Qui décide de l'escalade vers un humain quand la situation le requiert ? Si la réponse est « personne », c'est un problème éthique majeur.
3. Soin effectif (care-giving)
La compétence concrète dans l'acte de soin. L'intention ne suffit pas — le soin doit être effectivement compétent, adapté, et efficace.
Pour l'IA :
L'outil est-il réellement compétent pour ce type de souffrance, ou donne-t-il des réponses génériques ? Un chatbot entraîné sur des données générales qui répond à un patient borderline comme à quelqu'un qui cherche des conseils de productivité échoue à cette phase.
4. Réception du soin (care-receiving)
Vérifier que le besoin a été satisfait du point de vue du bénéficiaire. C'est la phase la plus souvent négligée — et la plus importante.
Pour l'IA :
A-t-on demandé aux patients eux-mêmes si l'outil leur fait du bien ? Non pas via un score NPS ou une note sur le store, mais via une évaluation clinique : le patient se sent-il mieux, ou se sent-il simplement moins seul ? La différence est cruciale.
Principisme vs éthique du care : deux regards complémentaires
| Dimension | Principisme | Éthique du care |
|---|---|---|
| Question centrale | Quels principes s'appliquent ? | De quoi cette personne a-t-elle besoin ? |
| Agent moral | Individu autonome et rationnel | Être en relation, interdépendant |
| Critère de qualité | Conformité aux principes | Qualité de la relation de soin |
| Évaluation d'un outil IA | Checklist : autonomie, bienfaisance, justice... | L'outil améliore-t-il la relation de soin ? |
| Angle mort | La qualité relationnelle | Les droits individuels formels |
Les deux approches ne s'opposent pas — elles se complètent. Le principisme fixe un socle de droits ; l'éthique du care y ajoute l'exigence de qualité relationnelle.
Cas clinique illustratif
Sarah, 28 ans, en suivi pour dépression modérée, utilise un chatbot thérapeutique entre les séances. Elle rapporte que le chatbot est « toujours là pour elle » et qu'il lui « pose les bonnes questions ».
Évaluation principiste : Le consentement est éclairé (Sarah sait que c'est une machine). Les données sont protégées (RGPD). L'outil est basé sur des protocoles TCC validés. Les principes sont respectés. Feu vert.
Évaluation care : Quand Sarah mentionne « je n'ai plus envie de rien » un dimanche soir, le chatbot répond par un exercice de restructuration cognitive. C'est techniquement correct, mais relationnellement inadéquat : Sarah avait besoin d'être entendue, pas redirigée. Le chatbot n'a pas détecté l'aggravation (phase 1 : attention). Personne ne vérifie si Sarah ne substitue pas le chatbot à ses relations humaines (phase 2 : prise en charge). Et Sarah n'a jamais été interrogée sur ce que l'outil lui apporte réellement vs. ce qu'il lui fait croire qu'il lui apporte (phase 4 : réception). Points de vigilance.
Le principisme donne un feu vert que l'éthique du care nuance. Les deux regards sont nécessaires — le second est actuellement absent de la plupart des évaluations d'outils IA en santé mentale.
En pratique pour le clinicien
- Appliquez les 4 phases comme grille d'évaluation : pour chaque outil IA que vos patients utilisent, demandez-vous s'il remplit les critères d'attention, de prise en charge, de compétence et de réception.
- Demandez au patient ce qu'il reçoit réellement : non pas « est-ce que l'app vous plaît ? » mais « qu'est-ce que ça change concrètement pour vous ? » (phase 4 : réception du soin).
- Complétez le principisme, ne le remplacez pas : les questions de consentement, de protection des données et d'équité restent essentielles. L'éthique du care y ajoute une dimension relationnelle.
- Votre expertise est directement mobilisable : la formation clinique à la relation, au transfert, à la supervision et à l'auto-observation constitue une expertise du care que les éthiciens professionnels n'ont pas nécessairement.
Limites de l'éthique du care
Risques de l'approche :
- Paternalisme : décider « pour le bien du patient » sans respecter son autonomie — le principisme est un garde-fou nécessaire
- Charge du soin : l'éthique du care peut invisibiliser l'épuisement des soignants en naturalisant le soin comme une vocation
- Difficulté d'opérationnalisation : « prendre soin » est plus difficile à traduire en critères mesurables que « respecter l'autonomie »
- Critiques féministes internes : le risque d'assigner le care aux femmes et de reproduire des inégalités de genre
Pour aller plus loin
- Ouvrage fondateur : Gilligan, C. (1982). In a Different Voice: Psychological Theory and Women's Development. Harvard University Press.
- Formalisation philosophique : Tronto, J. (1993). Moral Boundaries: A Political Argument for an Ethic of Care. Routledge.
- Application à l'IA : Vallor, S. (2016). Technology and the Virtues: A Philosophical Guide to a Future Worth Wanting. Oxford University Press.
- Critique du principisme : Held, V. (2006). The Ethics of Care: Personal, Political, and Global. Oxford University Press.
Fiche mise à jour : février 2026