Décryptages

Veille IA

Analyses critiques de l'actualité IA et santé mentale. Notre objectif : exposer les biais, apporter des nuances, et rouvrir le débat.

Décryptages

Quand l'IA fait l'actualité dans le domaine de la santé, nous analysons, questionnons et ouvrons la réflexion.

Tribune

Décryptages

Décryptage
Source externe

CONSORT 2025 et SPIRIT 2025 : Open Science oui, Intelligence Artificielle non

En avril 2025, CONSORT et SPIRIT publient leur première mise à jour coordonnée depuis 2010 et 2013. Avancée majeure : l'Open Science est intégré dans les standards de base. Mais l'intelligence artificielle ? Absente. Alors que CONSORT-AI existe depuis 2020, les nouvelles guidelines ne mentionnent ni l'IA, ni les extensions existantes, ni les enjeux de transparence algorithmique.

Décryptage
Source externe

Moins de 40 % des études sur les chatbots en santé rapportent leur stratégie de requête : le CHART Statement

Sur 137 études publiées dans l'année suivant le lancement de ChatGPT, moins de 40 % rapportent les éléments clés de leur stratégie de requête. Un consortium international de 531 experts propose 12 critères pour y remédier — et changer la manière dont nous lisons ces études.

Décryptage
Source externe

Seules 3 revues sur 52 exigent la transparence des essais cliniques IA : le cas CONSORT-AI

Publié en 2020, CONSORT-AI impose 14 critères de transparence pour les essais cliniques testant des interventions IA. Cinq ans plus tard, l'adhérence décline et la plupart des revues ignorent ces standards. Ce que ça révèle — et ce que ça change pour la lecture critique des études.

Décryptage
Source externe

77 % des études sur les LLM en santé mentale ne dépassent pas le stade du test technique : le framework de Hua

Sur 160 études analysées, les LLM représentent 77 % des tests techniques mais seulement 16 % des essais cliniques. Une équipe de Harvard propose un cadre à trois niveaux pour situer ce que les études prouvent réellement — et ce qu'elles ne prouvent pas.

Décryptage
Pourquoi une IA qui « surpasse les médecins » en labo peut échouer en cabinet : le cadre de Choudhury
Source externe

Pourquoi une IA qui « surpasse les médecins » en labo peut échouer en cabinet : le cadre de Choudhury

Une IA qui obtient 95 % de précision sur des cas standardisés peut échouer en pratique clinique. Un chercheur en facteurs humains de West Virginia University explique pourquoi — et propose un cadre à trois niveaux que tout clinicien devrait connaître avant de se fier à une étude sur l'IA en santé.

Décryptage
Embedded ethics : et si des éthiciens rejoignaient les équipes qui développent vos outils IA ?
Source externe

Embedded ethics : et si des éthiciens rejoignaient les équipes qui développent vos outils IA ?

Une équipe de Munich propose d'intégrer des éthiciens directement dans les équipes de développement d'IA médicale. L'idée est séduisante — mais est-elle suffisante ? Décryptage d'une approche qui concerne directement les futurs outils de psychothérapie assistée par IA.

Décryptage
Quand la menace existentielle perçue biaise l'analyse concernant l'IA : lecture critique d'Allen Frances

Quand la menace existentielle perçue biaise l'analyse concernant l'IA : lecture critique d'Allen Frances

Un éminent psychiatre publie un cri d'alarme sur les chatbots thérapeutiques dans le British Journal of Psychiatry. Son analyse est lucide sur certains risques, mais tombe dans des pièges cognitifs que tout clinicien devrait savoir repérer — chez les auteurs et chez soi-même.

Décryptage
IA, chatbot, LLM, app : pourquoi il faut arrêter de tout confondre

IA, chatbot, LLM, app : pourquoi il faut arrêter de tout confondre

Quand une étude parle de 'chatbot thérapeutique', parle-t-on d'un arbre de décision scripté ou d'un GPT-4 fine-tuné ? Ce flou terminologique n'est pas anodin : il rend les études incomparables et le débat public inintelligible.

Décryptage

Le Modèle APA : un cadre pour évaluer les apps de santé mentale

Plus de 10 000 apps de santé mentale sur les stores, mais seulement 15% avec des preuves cliniques. Le modèle APA propose un cadre en 5 niveaux pour aider les cliniciens à s'y retrouver.

Décryptage
Source externe

Guide éthique APA : ce que les psychologues français doivent retenir

L'APA publie un guide éthique pour l'usage de l'IA en pratique psychologique. 71% des psys américains n'ont jamais utilisé l'IA : quelles leçons tirer pour la France ?

Décryptage
Source externe

ChatGPT Santé : quand l'IA s'invite dans votre dossier médical

OpenAI lance une version dédiée de ChatGPT pour la santé. Entre promesse d'empowerment patient et concentration inédite de données sensibles, cette annonce mérite un examen critique.

Tribunes précédentes

Éditorial
Du laboratoire au cabinet : pourquoi les études sur l'IA en santé ne mesurent pas ce qu'elles prétendent mesurer

Du laboratoire au cabinet : pourquoi les études sur l'IA en santé ne mesurent pas ce qu'elles prétendent mesurer

Les grandes études sur l'IA en santé — publiées dans Nature, JAMA, The Lancet — utilisent des participants Prolific, des vignettes textuelles et des comparateurs inadéquats. Cinq couches de distance séparent ces protocoles de la réalité clinique. Analyse détaillée, données chiffrées et grille de lecture pour le praticien.

Approfondir la réflexion

Consultez nos ressources pratiques pour intégrer l'IA dans votre pratique clinique de manière éthique.