Guide éthique APA : ce que les psychologues français doivent retenir
L'APA publie un guide éthique pour l'usage de l'IA en pratique psychologique. 71% des psys américains n'ont jamais utilisé l'IA : quelles leçons tirer pour la France ?
Source analysée
https://www.apa.org/topics/artificial-intelligence-machine-learning/ethical-guidance-ai-professional-practiceLes faits
Un terrain encore peu investi
Selon le Practitioner Pulse Survey 2024 de l’APA, 71% des psychologues américains n’ont jamais utilisé l’IA dans leur pratique clinique. Parmi ceux qui l’utilisent, environ 1 sur 10 s’en sert au moins mensuellement, principalement pour la prise de notes et les tâches administratives.
Ces chiffres révèlent un écart significatif entre le battage médiatique autour de l’IA et son adoption réelle par les professionnels de santé mentale.
Un guide éthique dédié
En juin 2025, l’APA a publié le document Ethical Guidance for AI in the Professional Practice of Health Service Psychology — une première du genre. Ce guide s’adresse spécifiquement aux psychologues cliniciens souhaitant intégrer l’IA à leur pratique de manière éthique et responsable.
Six axes principaux
Le guide s’articule autour de six considérations majeures :
-
Transparence et consentement éclairé : L’usage d’outils IA doit être explicitement communiqué aux patients, aux autres professionnels impliqués, et à tout tiers concerné (tribunal, assurance). Le consentement doit être obtenu de manière culturellement appropriée.
-
Biais et équité : Les systèmes IA peuvent perpétuer ou amplifier les disparités existantes en santé. Les psychologues sont invités à évaluer activement les biais potentiels des outils qu’ils utilisent.
-
Protection des données : Toute solution IA manipulant des données sensibles doit être conforme à HIPAA et aux réglementations de confidentialité applicables. Le guide insiste sur l’importance d’une cybersécurité robuste.
-
Précision et risque de désinformation : Les outils IA doivent être rigoureusement validés avant utilisation clinique. Le psychologue reste responsable de vérifier les contenus générés et d’interrompre l’usage d’un outil si des problèmes d’hallucination apparaissent.
-
Supervision humaine : L’IA doit augmenter et non remplacer le jugement clinique. Le psychologue demeure responsable de toutes les décisions finales.
-
Responsabilité juridique : Le cadre légal est encore émergent. Les psychologues sont encouragés à anticiper les risques de responsabilité liés à la sélection et à l’usage des outils IA.
Outils mentionnés par les experts
L’article d’accompagnement dans APA Monitor cite plusieurs solutions IA pour la pratique :
- Documentation : Mentalyc, Upheal, Zanda Health — outils de transcription et génération de notes cliniques
- Insights cliniques : Blueprint — mesure basée sur les preuves, suggestions de traitement
- Évaluation : Assessment Assistant — support pour les rapports d’évaluation
- IA généraliste sécurisée : BastionGPT — alternative à ChatGPT entraînée sur des sources médicales fiables
Transposition au contexte français
RGPD vs HIPAA : des exigences comparables mais distinctes
Le guide APA est pensé pour le contexte américain et la conformité HIPAA. En France et en Europe, c’est le RGPD qui s’applique, avec des exigences parfois plus strictes, notamment sur :
- Le consentement explicite pour le traitement de données de santé
- Le droit à l’effacement et à la portabilité
- Les transferts hors UE — particulièrement problématiques pour les outils américains
Pour les psychologues français : L’utilisation d’outils IA américains (ChatGPT, Claude, etc.) pour traiter des données patient pose des questions de conformité RGPD qui dépassent le cadre du guide APA.
L’absence de guide français
Contrairement à l’APA, les organisations professionnelles françaises (FFPP, SNP, SFP) n’ont pas encore publié de guide éthique spécifique à l’IA en pratique psychologique. Le code de déontologie des psychologues (2021) offre un cadre général mais ne mentionne pas explicitement les technologies d’IA.
Ce vide réglementaire laisse les praticiens français sans repères institutionnels clairs.
Recommandations transposables
Malgré les différences de contexte, plusieurs recommandations APA sont directement applicables :
1. Transparence systématique
Si vous utilisez un outil IA pour préparer vos séances, générer des notes ou analyser des données patient, informez-en explicitement vos patients. Cette transparence est à la fois une exigence éthique et une protection juridique.
2. Vérification des contenus
Ne jamais utiliser une production IA (résumé de séance, hypothèse diagnostique, piste d’intervention) sans vérification critique. Les LLM peuvent produire des contenus plausibles mais erronés.
3. Maintien de la supervision humaine
L’IA peut informer votre réflexion clinique, jamais la remplacer. La responsabilité des décisions thérapeutiques reste entièrement humaine.
4. Évaluation des biais
Avant d’adopter un outil, interrogez-vous : sur quelles données a-t-il été entraîné ? Quelles populations sont sous-représentées ? Quels biais culturels ou diagnostiques peut-il véhiculer ?
Questions pour la réflexion
Pour les praticiens
- Mes patients savent-ils quand j’utilise des outils IA dans leur prise en charge ?
- Ai-je vérifié la conformité RGPD des outils que j’utilise ?
- Mon usage de l’IA améliore-t-il réellement ma pratique ou répond-il surtout à une pression de productivité ?
Pour la profession
- Qui devrait rédiger un guide éthique français sur l’IA en psychologie ?
- Les formations de psychologue intègrent-elles ces nouvelles compétences ?
- Comment articuler autonomie du praticien et protection des patients dans ce nouveau contexte ?
Pour le débat public
- Peut-on accepter que les psychologues français utilisent massivement des outils américains sans cadre réglementaire adapté ?
- Quelle place pour la souveraineté numérique européenne en santé mentale ?
Notre position
Ce guide APA constitue une avancée significative — et un signal d’alarme. Significative, car il reconnaît que l’IA transforme déjà la pratique psychologique et nécessite un encadrement éthique spécifique. Signal d’alarme, car il révèle le retard français et européen sur ces questions.
Ce que nous retenons :
- 71% de non-utilisateurs : le terrain est encore largement vierge, c’est le moment de poser les bonnes bases plutôt que de rattraper des dérives
- Transparence et consentement : le minimum éthique non négociable
- L’IA augmente, ne remplace pas : cette formule doit devenir un réflexe professionnel
Ce que nous appelons de nos vœux :
- Un guide éthique français élaboré par les organisations professionnelles
- Des formations continues intégrant les enjeux IA
- Un dialogue entre praticiens, juristes et développeurs pour anticiper les évolutions
Sources : APA Ethical Guidance, Practitioner Pulse Survey 2024, APA Monitor article
Mots-clés