Veille IA

Embedded ethics : et si des éthiciens rejoignaient les équipes qui développent vos outils IA ?

| Matthieu Ferry ⇄ IA

Une équipe de Munich propose d'intégrer des éthiciens directement dans les équipes de développement d'IA médicale. L'idée est séduisante — mais est-elle suffisante ? Décryptage d'une approche qui concerne directement les futurs outils de psychothérapie assistée par IA.

Le problème de départ

Depuis 2018, plus de 84 chartes éthiques pour l’IA ont été publiées par des organisations publiques et privées dans le monde. Toutes convergent vers des principes familiers issus de la bioéthique médicale (Beauchamp & Childress, 1979). Mais que signifient concrètement ces principes ?

B

Bienfaisance

Agir activement pour le bien du patient. Pour l’IA en santé mentale : l’outil doit produire un bénéfice clinique démontré, pas seulement « ne pas nuire ». Un chatbot thérapeutique qui occupe le patient sans améliorer son état ne remplit pas ce critère, même s’il ne cause pas de dommage.

N

Non-malfaisance

Ne pas nuireprimum non nocere. En IA : éviter les biais discriminatoires, les erreurs de diagnostic, les faux négatifs sur le risque suicidaire. Plus subtilement : ne pas créer de dépendance à l’outil, ne pas retarder l’accès à un vrai thérapeute. La nuisance peut être indirecte et invisible.

T

Transparence

Rendre visibles et compréhensibles les mécanismes de décision. Pour l’IA : le patient sait-il qu’il interagit avec une machine ? Comment l’algorithme détermine-t-il ses réponses ? Sur quelles données a-t-il été entraîné ? La transparence est le socle du consentement éclairé — sans elle, le patient ne peut pas choisir.

J

Justice

Assurer un accès équitable et une absence de discrimination. Pour l’IA : l’outil fonctionne-t-il aussi bien pour les populations sous-représentées dans les données d’entraînement ? Un algorithme de scoring de risque suicidaire entraîné principalement sur des populations blanches anglophones discrimine structurellement les minorités.

R

Responsabilité

Pouvoir identifier qui répond des conséquences. Pour l’IA : quand un chatbot donne un conseil inadapté à un patient en crise, qui est responsable ? Le développeur ? L’entreprise ? Le clinicien qui a recommandé l’app ? L’absence de chaîne de responsabilité claire est l’un des points aveugles les plus préoccupants.

Le problème ? Ces principes restent lettre morte dans les équipes de développement.

Les développeurs d’IA ne sont pas formés à l’éthique. Les éthiciens ne travaillent pas dans les entreprises tech. Et quand des lignes directrices existent, personne ne sait concrètement comment les appliquer dans le code, dans l’interface, dans les choix d’architecture. Brent Mittelstadt, chercheur à Oxford, a résumé le problème en 2019 : le développement IA n’a ni objectifs partagés, ni normes professionnelles, ni méthodes de traduction des principes en pratique, ni mécanismes de responsabilité.

Résultat : les patients deviennent parfois des « cobayes involontaires », comme l’a montré le cas d’un algorithme utilisé sur des millions de patients américains et qui s’est révélé porteur d’un biais racial significatif (Obermeyer et al., 2019).

C’est dans ce contexte qu’une équipe interdisciplinaire de la Technical University of Munich (TUM) propose une solution concrète : l’embedded ethics.


L’embedded ethics en 3 minutes

Le concept

L’embedded ethics (« éthique intégrée ») consiste à placer un ou plusieurs éthiciens directement dans l’équipe de développement, dès le début du projet et jusqu’à son déploiement. L’éthicien n’intervient pas ponctuellement, en comité d’éthique, après coup. Il participe aux réunions d’équipe, co-rédige les protocoles, analyse les choix de design au fil de l’eau.

Ce n’est pas un audit. C’est une collaboration continue.

Ce que ce n’est pas

ApprocheQuand ?Qui ?Limite
Chartes éthiquesAvant le projetDirection / politiqueTrop abstrait pour le développeur
Comité d’éthiqueAprès le designExperts externesTrop tard pour changer le produit
Formation éthiquePendant les étudesEnseignantsInsuffisant pour l’expertise requise
Embedded ethicsTout au long du projetÉthicien dans l’équipeDépend des rapports de pouvoir

Les 9 recommandations concrètes

L’article propose une table de guidance que tout développeur d’outil de santé mentale devrait connaître :

Objectifs

1

Anticiper, identifier et adresser les enjeux éthiques à chaque phase du développement

2

Travailler de manière collaborative et itérative avec l’équipe technique

Intégration

3

Organiser des échanges réguliers, formels ou informels, entre éthiciens et développeurs

Pratique

4

Rendre explicites les cadres théoriques éthiques utilisés dans les analyses

5

Justifier les positions éthiques en lien avec les objectifs spécifiques du projet

6

Établir clairement la structure de prise de décision dès le début

7

Rendre transparentes les analyses éthiques, dans les limites de la confidentialité

Expertise et formation

8

L’éthicien intégré doit avoir une expertise en analyse éthique ET une compréhension de base de la technologie

9

Créer des opportunités de formation croisée avant et pendant le projet


Un cas concret qui existe déjà

L’approche n’est pas purement théorique. Depuis 2006, la bioéthicienne Jeantine Lunshof est intégrée à temps plein dans le laboratoire de George Church au Wyss Institute de Harvard (génomique, biologie synthétique). Elle participe aux réunions de labo, co-signe des publications, contribue à la rédaction des protocoles de recherche.

Ce modèle a été adapté pour l’enseignement : le programme Embedded EthiCS de Harvard intègre des philosophes dans les cours d’informatique — pas comme intervenants ponctuels, mais comme co-enseignants tout au long du semestre.

Le cas Anthropic. L’entreprise qui développe Claude (l’IA que nous utilisons pour ce site) emploie depuis 2021 Amanda Askell, philosophe titulaire d’un PhD de NYU en éthique, pour diriger l’équipe « personality alignment ». Son rôle : définir le caractère, les valeurs et les limites morales du modèle — non pas après coup, mais dès la conception. C’est une forme d’embedded ethics appliquée au développement d’IA conversationnelle. Askell a été nommée dans le TIME100 AI (2024) et profilée par le Wall Street Journal Magazine (février 2026) pour ce travail. Preuve que le modèle est pris au sérieux — au moins par certains acteurs.

La question clé : ces modèles, développés en génomique, en enseignement et chez certains développeurs d’IA, peuvent-ils se généraliser au développement d’IA médicale — un environnement soumis à une pression commerciale intense et où les enjeux pour les patients sont directs ?


Ce que ça change pour la psychothérapie

Pourquoi ça nous concerne directement

Les outils d’IA en santé mentale se multiplient : chatbots thérapeutiques, transcription de séances, analyse de sentiment, scoring de risque suicidaire, applications de suivi inter-séances. Chacun de ces outils est développé par des équipes techniques qui, le plus souvent, n’ont aucun psychologue clinicien dans leur équipe de développement, et encore moins d’éthicien.

Les décisions prises au stade du design déterminent le produit final :

Décision techniqueEnjeu éthique invisibleConséquence clinique
Choisir les données d’entraînementQuelles populations sont représentées ?Biais dans la détection de la souffrance chez certaines cultures
Définir les seuils d’alerte suicideSensibilité vs. spécificitéFaux positifs anxiogènes ou faux négatifs dangereux
Concevoir l’interface du chatbotNiveau de « chaleur » artificielleRisque d’attachement problématique
Stocker les transcriptionsDurée, localisation, accèsConfidentialité du contenu thérapeutique

Chacune de ces décisions est prise avant que le premier patient n’utilise l’outil. C’est exactement le moment où un éthicien intégré pourrait intervenir.

Le modèle idéal pour un outil IA-Psy

Si l’on appliquait l’embedded ethics au développement d’un outil d’IA pour la psychothérapie, l’équipe ressemblerait à ceci :

Equipe de developpement ideale integrant embedded ethics : developpeurs IA/ML, psychologue clinicien, ethicien integre et representant patients/usagers, avec echanges reguliers du planning au deploiement

Dans ce modèle, l’éthicien n’est pas là pour bloquer ou valider. Il est là pour rendre visibles les enjeux que personne d’autre ne voit — parce que les développeurs n’ont pas la formation pour les repérer, et que les cliniciens n’ont pas accès au processus de développement.


Ce qui est solide dans cette proposition

1

Le diagnostic est juste

Les principes éthiques abstraits ne se traduisent pas spontanément en pratiques de développement. Ce constat est largement partagé dans la littérature académique.

2

Un cadre opérationnalisable

Les 9 recommandations sont concrètes, applicables et adaptables à différents contextes de développement.

3

Honnêteté intellectuelle

Les auteurs discutent eux-mêmes le risque d’ethics washing, les rapports de pouvoir, et la nécessité de mesures contraignantes. C’est rare dans ce type de littérature.

4

L’équipe exemplifie ce qu’elle prône

6 co-auteurs de disciplines différentes (éthique médicale, anthropologie, philosophie, sociologie des sciences, robotique). Ce n’est pas un éthicien qui parle seul — c’est une équipe interdisciplinaire qui a pratiqué ce qu’elle recommande.


Les limites — et pourquoi elles comptent

1

Aucune preuve que ça marche

C’est le point le plus gênant. L’article est une proposition, pas une évaluation. Aucune donnée empirique ne montre que l’embedded ethics produit de meilleurs outils, moins de dommages, ou de meilleures décisions éthiques. Le seul cas cité (Lunshof/Harvard) concerne la génomique, pas l’IA médicale.

Analogie clinique : c’est comme si un collègue proposait une nouvelle approche thérapeutique en disant « voici le protocole, mais nous n’avons aucune donnée d’efficacité ». On l’écouterait — mais on n’adopterait pas l’approche sans évaluation.

2

Le problème des rapports de pouvoir

Les auteurs eux-mêmes mentionnent le cas de Timnit Gebru, chercheuse en éthique de l’IA licenciée par Google après avoir publié des résultats critiques. Mais ils n’en tirent pas les conséquences pour leur propre proposition.

La question inconfortable : Que se passe-t-il quand l’éthicien intégré identifie un problème qui coûterait des millions à résoudre — ou qui remettrait en cause le produit lui-même ? A-t-il un droit de veto ? Peut-il publier ses conclusions ? Peut-il démissionner sans clause de non-divulgation ?

Sans mécanismes structurels de protection, l’éthicien intégré risque la capture cognitive : à force de travailler avec l’équipe, il finit par adopter sa culture et perdre son regard critique. Tout clinicien connaît ce phénomène — c’est exactement pourquoi la supervision est obligatoire en psychothérapie.

3

L’éthique importée plutôt qu’émergente

Le modèle repose sur l’idée que la compétence éthique est un savoir spécialisé détenu par des experts et qu’il faut l’importer dans les équipes techniques.

On peut concevoir les choses autrement. Si l’on pensait en termes d’écosystème — développeurs, cliniciens, patients, régulateurs en interaction constante — la compétence éthique pourrait émerger de ces interactions plutôt que d’être importée par un spécialiste. C’est la différence entre ajouter un ingrédient à une recette et créer les conditions pour qu’une saveur se développe d’elle-même.

4

L’angle mort de l’éthique du care

C’est peut-être l’absence la plus surprenante. Dans un article sur l’éthique de l’IA médicale, l’éthique du care n’est jamais mentionnée. Qu’est-ce que c’est ? Développée par Carol Gilligan (1982) puis formalisée par la philosophe politique Joan Tronto (1993), l’éthique du care est un courant moral qui place la relation de soin — et non les principes abstraits — au centre de la réflexion éthique. Là où le principisme (Beauchamp & Childress) demande « quels principes s’appliquent ici ? », l’éthique du care demande « de quoi cette personne vulnérable a-t-elle besoin, et comment y répondre de manière attentive et compétente ? »

Tronto identifie quatre phases du care : l’attention (caring about — reconnaître qu’un besoin existe), la prise en charge (taking care of — assumer la responsabilité d’y répondre), le soin effectif (care-giving — la compétence concrète dans l’acte) et la réception du soin (care-receiving — vérifier que le besoin a bien été satisfait, du point de vue du bénéficiaire). Ce cadre est directement pertinent pour le design d’outils IA en santé mentale.

Exemple concret :

Imaginons un chatbot de suivi inter-séances pour patients dépressifs. Avec une approche principiste, l’évaluation éthique vérifiera : le consentement est-il éclairé ? Les données sont-elles protégées ? L’outil est-il équitable ? Avec une approche care, on demandera en plus : le chatbot détecte-t-il quand l’utilisateur est en souffrance accrue et adapte-t-il sa réponse ? (attention). Qui prend la responsabilité de vérifier que le chatbot n’aggrave pas l’isolement du patient ? (prise en charge). Le chatbot est-il réellement compétent pour ce type de souffrance, ou donne-t-il des réponses génériques ? (soin effectif). Et surtout : a-t-on demandé aux patients eux-mêmes si l’outil leur fait du bien — ou s’il leur donne simplement l’impression de ne pas être seuls ? (réception du soin).

Pour la psychothérapie — où la relation est le soin — cette perspective semble incontournable. Le principisme pense l’agent moral comme un individu autonome face à des principes universels. L’éthique du care le pense comme un être en relation, dont la responsabilité émerge du lien avec autrui. Ne pas intégrer cette dimension dans le design d’outils de santé mentale, c’est construire un pont en ne calculant que la résistance des matériaux, sans se demander qui va le traverser et dans quel état.


Trois approches alternatives à connaître

L’embedded ethics n’est pas la seule réponse au problème. Voici trois approches complémentaires que tout professionnel intéressé par l’IA en psychothérapie devrait connaître :

1

Value-Sensitive Design (Batya Friedman)

Intégrer les valeurs humaines dans le design par des investigations conceptuelles, empiriques et techniques. Méthodologie très structurée, développée depuis 30 ans.

Force : rigueur méthodologiqueLimite : risque de technicisation des valeurs
2

Éthique des vertus technologiques (Shannon Vallor)

Développer les bonnes dispositions morales (prudence, justice, courage) chez les développeurs eux-mêmes, plutôt que de se fier uniquement aux processus.

Force : focus sur le caractèreLimite : long terme, difficile à opérationnaliser
3

Régulation contraignante (EU AI Act)

Imposer des obligations légales de transparence, d’évaluation et de responsabilité. Seule approche ayant force de loi.

Force : contraignant et universelLimite : peut retarder l’innovation

Aucune de ces approches n’est suffisante seule. C’est probablement une combinaison — embedded ethics + régulation + formation aux vertus + design participatif incluant les patients — qui produira les meilleurs résultats.


Questions ouvertes pour la recherche

L’article de McLennan et al. ouvre plus de questions qu’il n’en résout. Voici celles qui nous semblent les plus urgentes pour le champ de la psychothérapie :

Sur l’efficacité
  • L’embedded ethics produit-elle des outils IA mesurablement plus sûrs ou plus éthiques ? Quels indicateurs utiliser ?
  • Comment évaluer la « qualité éthique » d’un outil de santé mentale — au-delà de la conformité réglementaire ?
Sur la dynamique de pouvoir
  • Quels mécanismes institutionnels protègent l’éthicien intégré contre la pression commerciale ? Le modèle de la supervision clinique est-il transposable ?
  • L’éthicien intégré développe-t-il une « capture cognitive » comparable au contre-transfert institutionnel ?
Sur la spécificité psy
  • L’éthique du care offre-t-elle un cadre plus adapté que le principisme pour le design d’outils de psychothérapie IA ?
  • Comment intégrer la voix des patients — et pas seulement celle d’experts éthiciens — dans le processus de développement ?
  • Les psychologues cliniciens ont-ils un rôle spécifique à jouer dans l’embedded ethics, distinct de celui des éthiciens professionnels ?
Sur le cadre français
  • Qui devrait porter une initiative d’embedded ethics pour les outils de santé mentale en France ? Les organisations professionnelles (FFPP, SNP) ? Les universités ? La HAS ?
  • Comment articuler l’approche avec le cadre réglementaire européen (EU AI Act, RGPD) ?

Notre position

L’embedded ethics est une avancée réelle dans la réflexion sur l’intégration de l’éthique dans le développement technologique. Le diagnostic est juste : les principes seuls ne suffisent pas, et le comité d’éthique qui intervient après le design est trop tardif. La proposition de placer des éthiciens dans les équipes, dès le début, est concrète et applicable.

Mais l’approche reste insuffisante si elle est la seule ligne de défense. Les rapports de pouvoir, la pression commerciale et le risque de capture cognitive ne se résolvent pas par la bonne volonté interdisciplinaire. Des mécanismes structurels — régulation, audits indépendants, inclusion des usagers — sont indispensables.

Pour la psychothérapie assistée par IA, nous retenons trois enseignements :

1

Exigez la transparence sur le processus de développement

Quand vous évaluez un outil IA pour votre pratique, demandez si des cliniciens et/ou des éthiciens ont participé à son développement — pas seulement à son marketing.

2

La compétence éthique n’est pas réservée aux éthiciens

En tant que psychologue clinicien, votre formation à la relation, au consentement éclairé, à la gestion des vulnérabilités et à l’auto-observation (supervision) vous donne une expertise éthique directement mobilisable pour évaluer ces outils.

3

Ne déléguez pas votre jugement

Ni aux principes éthiques abstraits, ni aux comités lointains, ni aux éthiciens intégrés que vous ne verrez jamais. La responsabilité éthique reste la vôtre — c’est à la fois une charge et une compétence.


Référence analysée : McLennan, S., Fiske, A., Tigard, D., Müller, R., Haddadin, S., & Buyx, A. (2022). Embedded ethics: a proposal for integrating ethics into the development of medical AI. BMC Medical Ethics, 23(6). https://doi.org/10.1186/s12910-022-00746-3

Lectures complémentaires :

  • Mittelstadt, B. (2019). Principles alone cannot guarantee ethical AI. Nature Machine Intelligence, 1, 501-507. https://doi.org/10.1038/s42256-019-0114-4
  • McLennan, S. et al. (2024). Embedded Ethics in Practice: A Toolbox for Integrating the Analysis of Ethical and Social Issues into Healthcare AI Research. Science and Engineering Ethics. https://doi.org/10.1007/s11948-024-00523-y
  • Vallor, S. (2016). Technology and the Virtues: A Philosophical Guide to a Future Worth Wanting. Oxford University Press.
  • Obermeyer, Z. et al. (2019). Dissecting racial bias in an algorithm used to manage the health of populations. Science, 366(6464), 447-453. https://doi.org/10.1126/science.aax2342

Mots-clés

éthique embedded ethics développement IA interdisciplinarité IA médicale bioéthique