Décryptages

Veille IA

Analyses critiques de l'actualité IA et santé mentale. Notre objectif : exposer les biais, apporter des nuances, et rouvrir le débat.

Décryptages

Quand l'IA fait l'actualité dans le domaine de la santé, nous analysons, questionnons et ouvrons la réflexion.

Tribune

Décryptages

Décryptage
Source externe

CONSORT 2025 et SPIRIT 2025 : Open Science oui, Intelligence Artificielle non

En avril 2025, CONSORT et SPIRIT publient leur première mise à jour coordonnée depuis 2010 et 2013. Avancée majeure : l'Open Science est intégré dans les standards de base. Mais l'intelligence artificielle ? Absente. Alors que CONSORT-AI existe depuis 2020, les nouvelles guidelines ne mentionnent ni l'IA, ni les extensions existantes, ni les enjeux de transparence algorithmique.

reporting guideline essai clinique open science transparence méthodologique fragmentation normative
Décryptage
Source externe

Moins de 40 % des études sur les chatbots en santé rapportent leur stratégie de requête : le CHART Statement

Sur 137 études publiées dans l'année suivant le lancement de ChatGPT, moins de 40 % rapportent les éléments clés de leur stratégie de requête. Un consortium international de 531 experts propose 12 critères pour y remédier — et changer la manière dont nous lisons ces études.

reporting guideline chatbot transparence méthodologique reproductibilité évaluation IA
Décryptage
Source externe

Seules 3 revues sur 52 exigent la transparence des essais cliniques IA : le cas CONSORT-AI

Publié en 2020, CONSORT-AI impose 14 critères de transparence pour les essais cliniques testant des interventions IA. Cinq ans plus tard, l'adhérence décline et la plupart des revues ignorent ces standards. Ce que ça révèle — et ce que ça change pour la lecture critique des études.

reporting guideline essai clinique transparence méthodologique reproductibilité évaluation IA
Décryptage
Source externe

77 % des études sur les LLM en santé mentale ne dépassent pas le stade du test technique : le framework de Hua

Sur 160 études analysées, les LLM représentent 77 % des tests techniques mais seulement 16 % des essais cliniques. Une équipe de Harvard propose un cadre à trois niveaux pour situer ce que les études prouvent réellement — et ce qu'elles ne prouvent pas.

validité écologique évaluation IA chatbot santé mentale LLM méthodologie
Décryptage
Pourquoi une IA qui « surpasse les médecins » en labo peut échouer en cabinet : le cadre de Choudhury
Source externe

Pourquoi une IA qui « surpasse les médecins » en labo peut échouer en cabinet : le cadre de Choudhury

Une IA qui obtient 95 % de précision sur des cas standardisés peut échouer en pratique clinique. Un chercheur en facteurs humains de West Virginia University explique pourquoi — et propose un cadre à trois niveaux que tout clinicien devrait connaître avant de se fier à une étude sur l'IA en santé.

validité écologique facteurs humains évaluation IA confiance adoption clinique accountability
Décryptage
Embedded ethics : et si des éthiciens rejoignaient les équipes qui développent vos outils IA ?
Source externe

Embedded ethics : et si des éthiciens rejoignaient les équipes qui développent vos outils IA ?

Une équipe de Munich propose d'intégrer des éthiciens directement dans les équipes de développement d'IA médicale. L'idée est séduisante — mais est-elle suffisante ? Décryptage d'une approche qui concerne directement les futurs outils de psychothérapie assistée par IA.

éthique embedded ethics développement IA interdisciplinarité IA médicale bioéthique
Décryptage
Quand la menace existentielle perçue biaise l'analyse concernant l'IA : lecture critique d'Allen Frances

Quand la menace existentielle perçue biaise l'analyse concernant l'IA : lecture critique d'Allen Frances

Un éminent psychiatre publie un cri d'alarme sur les chatbots thérapeutiques dans le British Journal of Psychiatry. Son analyse est lucide sur certains risques, mais tombe dans des pièges cognitifs que tout clinicien devrait savoir repérer — chez les auteurs et chez soi-même.

biais cognitifs lecture critique psychothérapie IA double standard analyse de risque épistémologie
Décryptage
IA, chatbot, LLM, app : pourquoi il faut arrêter de tout confondre

IA, chatbot, LLM, app : pourquoi il faut arrêter de tout confondre

Quand une étude parle de 'chatbot thérapeutique', parle-t-on d'un arbre de décision scripté ou d'un GPT-4 fine-tuné ? Ce flou terminologique n'est pas anodin : il rend les études incomparables et le débat public inintelligible.

terminologie chatbot LLM apps santé mentale épistémologie recherche
Décryptage

Le Modèle APA : un cadre pour évaluer les apps de santé mentale

Plus de 10 000 apps de santé mentale sur les stores, mais seulement 15% avec des preuves cliniques. Le modèle APA propose un cadre en 5 niveaux pour aider les cliniciens à s'y retrouver.

APA apps santé mentale évaluation éthique guide pratique
Décryptage
Source externe

Guide éthique APA : ce que les psychologues français doivent retenir

L'APA publie un guide éthique pour l'usage de l'IA en pratique psychologique. 71% des psys américains n'ont jamais utilisé l'IA : quelles leçons tirer pour la France ?

APA éthique guide pratique réglementation IA en pratique
Décryptage
Source externe

ChatGPT Santé : quand l'IA s'invite dans votre dossier médical

OpenAI lance une version dédiée de ChatGPT pour la santé. Entre promesse d'empowerment patient et concentration inédite de données sensibles, cette annonce mérite un examen critique.

OpenAI ChatGPT santé numérique données de santé éthique

Tribunes précédentes

Éditorial
Ce que dit (et ne dit pas) la HAS sur l'IA en santé mentale

Ce que dit (et ne dit pas) la HAS sur l'IA en santé mentale

La HAS a publié ses premières recommandations sur l'IA en santé et lancé un programme ambitieux en psychiatrie. Mais ces deux chantiers avancent en parallèle, sans se croiser. Cartographie d'un angle mort institutionnel qui concerne directement les psychologues.

HAS réglementation santé mentale thérapies numériques éthique France A.V.E.C.
Éditorial
IA sycophantes : resituer le débat

IA sycophantes : resituer le débat

Les chatbots seraient 'trop gentils' et créeraient des utilisateurs dépendants. Ce présupposé mérite examen : la recherche montre que c'est la validation qui permet l'autonomie, pas la frustration.

sycophantisme validation émotionnelle attachement entretien motivationnel éthique IA

Approfondir la réflexion

Consultez nos ressources pratiques pour intégrer l'IA dans votre pratique clinique de manière éthique.