CONSORT 2025 et SPIRIT 2025 : Open Science oui, Intelligence Artificielle non
En avril 2025, CONSORT et SPIRIT publient leur première mise à jour coordonnée depuis 2010 et 2013. Avancée majeure : l'Open Science est intégré dans les standards de base. Mais l'intelligence artificielle ? Absente. Alors que CONSORT-AI existe depuis 2020, les nouvelles guidelines ne mentionnent ni l'IA, ni les extensions existantes, ni les enjeux de transparence algorithmique.
Source analysée
https://www.bmj.com/content/389/bmj-2025-082647Une publication historique
Le 14 avril 2025, CONSORT 2025 est publié simultanément dans JAMA, The Lancet, The BMJ, Nature Medicine et PLoS Medicine. Deux semaines plus tard, le 28 avril, SPIRIT 2025 suit le même parcours. C’est la première fois que les deux guidelines complémentaires — CONSORT pour le reporting des essais cliniques randomisés (RCTs), SPIRIT pour la rédaction des protocoles — sont mises à jour de manière coordonnée et publiées dans les cinq revues médicales les plus influentes au monde.
Le message institutionnel est clair : ces standards sont fondamentaux pour la recherche clinique.
CONSORT 2025 remplace CONSORT 2010 avec une checklist révisée de 30 items (7 nouveaux, 3 révisés, 1 supprimé). SPIRIT 2025 remplace SPIRIT 2013 avec 34 items (2 nouveaux, 5 révisés, 5 supprimés). Le processus de développement a impliqué une enquête internationale auprès de 317 participants suivie d’une réunion de consensus de 30 experts sur deux jours.
Les avancées sont significatives : nouvelle section Open Science (pré-enregistrement, partage de données, transparence du code d’analyse), renforcement de l’implication des patients/public dans la conception des études, et évaluation détaillée des préjudices.
« CONSORT 2025 est la première grande guideline de reporting à intégrer formellement les principes de la Science Ouverte, reconnaissant que la transparence est essentielle à la reproductibilité et à la vérifiabilité des résultats d’essais cliniques. »
— Hopewell et al. (2025), CONSORT 2025 Statement, BMJ
Un progrès méthodologique attendu depuis la crise de reproductibilité. Mais il y a un angle mort : l’intelligence artificielle.
L’omission documentée
Ni CONSORT 2025 ni SPIRIT 2025 ne contiennent une seule mention de l’intelligence artificielle. Les guidelines ne recommandent pas de divulguer l’utilisation d’algorithmes d’apprentissage automatique dans la conception, la conduite ou l’analyse des essais. Elles ne réfèrent ni à CONSORT-AI, ni à SPIRIT-AI, pourtant publiés en 2020 dans Nature Medicine, The BMJ et The Lancet Digital Health.
Cette omission est documentée dans un commentaire dédié publié dans The Lancet en 2025 : “AI in clinical trials is missing from CONSORT and SPIRIT 2025 guidelines”. Les auteurs soulignent :
« Ni CONSORT 2025 ni SPIRIT 2025 ne recommandent aux chercheurs de divulguer l’implication de l’IA dans quelque composante que ce soit d’un essai clinique. Le recours à des algorithmes propriétaires et non transparents aggrave encore les préoccupations relatives aux biais et à la reproductibilité. »
Un essai clinique randomisé utilisant un LLM pour le screening de patients, l’analyse d’imagerie par deep learning, ou un chatbot thérapeutique pourrait donc se conformer pleinement à CONSORT 2025 sans jamais mentionner l’utilisation d’IA.
Ce que CONSORT 2025 intègre (et n’intègre pas)
Voici les avancées majeures de CONSORT 2025, et pourquoi elles ne couvrent pas l’IA :
Section Open Science (nouveau)
Pré-enregistrement des études, partage des données anonymisées, transparence du code d’analyse statistique. Mais : si le code d’analyse utilise un modèle IA propriétaire (GPT-4, Claude, Gemini), cette transparence est illusoire — l’algorithme reste une boîte noire.
Item 1b - Implication patients/public (nouveau)
Documenter la participation des patients à la conception de l’étude. Mais : aucune mention de la participation au design des interventions IA — qui décide des prompts, des garde-fous, de la tonalité du chatbot ?
Item 27 - Partage des données (nouveau)
Déclarer si les données seront partagées et comment. Mais : si l’intervention est un chatbot, partager les transcriptions soulève des enjeux de consentement et vie privée. CONSORT 2025 ne spécifie rien sur les données conversationnelles.
Aucune mention de l’IA
Pas de référence aux extensions CONSORT-AI/SPIRIT-AI. Pas d’exigence de documenter l’utilisation d’algorithmes. Pas de mention des biais algorithmiques ou de l’interaction humain-IA. Un essai pourrait utiliser GPT-4 pour le screening sans jamais le mentionner.
Le paradoxe de la fragmentation normative
CONSORT et SPIRIT ne sont pas des monolithes. Ce sont des écosystèmes fragmentés : il existe aujourd’hui 32 extensions CONSORT et 10 extensions SPIRIT couvrant des contextes spécifiques (acupuncture, essais pragmatiques, essais pilotes, herbes médicinales chinoises, interventions sociales et psychologiques, etc.).
CONSORT-AI en fait partie. Publié en 2020 avec un processus Delphi rigoureux (103 parties prenantes, 31 experts en consensus), il définit 14 items AI-spécifiques : version de l’algorithme, accessibilité du code, gestion des erreurs, interaction humain-IA.
Le problème : l’adoption est volontaire et périphérique. Comme documenté dans notre analyse de CONSORT-AI, seules 3 revues sur 52 (6%) mentionnent CONSORT-AI dans leurs guidelines auteurs. L’adhérence médiane est de 90% sur les items génériques, mais tombe à 20% pour la version de l’algorithme et 42% pour l’accessibilité du code — les deux items les plus critiques pour la reproductibilité.
Pire encore : l’adhérence décline. Une étude dans 15 revues d’oncologie montre une baisse de 96% (2021) à 79% (2023).
L’illusion du score global : Un essai peut obtenir un score CONSORT-AI de 90% tout en omettant les deux seuls items qui permettraient de reproduire l’étude — la version exacte de l’algorithme et l’accessibilité du code source.
Pourquoi cette adoption faible ? Parce que CONSORT-AI est une extension optionnelle dans un écosystème déjà complexe. Les chercheurs consultent CONSORT 2010 (puis CONSORT 2025), les revues citent CONSORT dans leurs guidelines, et la plupart ne savent même pas que CONSORT-AI existe.
CONSORT 2025 aurait pu changer cela. Une simple mention dans les items de base (“Si l’intervention inclut une composante IA, voir CONSORT-AI”) aurait suffi à visibiliser l’extension. Mais cette passerelle n’a pas été créée.
Comparaison : 5 frameworks pour évaluer l’IA en santé
Cette série d’articles a analysé cinq frameworks méthodologiques pour l’évaluation des interventions IA en santé :
| Framework | Objectif | Items clés | Adoption | Statut 2026 |
|---|---|---|---|---|
| Hua (2022) | Classification niveaux de preuve IA santé mentale | T1 (proof-of-concept), T2 (benchmark clinique), T3 (RCT écologique) | Faible (1 citation académique) | Théorique |
| Choudhury (2024) | Validité écologique études LLM santé | Transparence, Context-Centered Design, parcours patient réel | Académique (12 citations) | Conceptuel |
| CHART (2024) | Reporting évaluation chatbots santé | 21 items transparence (conception, données, évaluation) | Très faible (2 citations) | Proposé |
| CONSORT-AI (2020) | Reporting essais cliniques IA | 14 items AI (version algorithme 20%, code 42% adhérence) | Faible (3/52 revues, déclin 96%→79%) | Déclin |
| CONSORT/SPIRIT 2025 | Reporting/protocoles essais cliniques (tous types) | 30/34 items dont Open Science — 0 items IA | Universelle (5 revues top, adoption massive attendue) | Standard de base |
Le constat : Les quatre premiers frameworks analysent finement les enjeux IA (niveaux de preuve, validité écologique, transparence chatbots, reporting algorithmique). Mais ils restent périphériques — citations académiques faibles, adoption volontaire, invisibilité dans les guidelines de revues.
CONSORT/SPIRIT 2025, en revanche, sera massivement adopté car publié dans les 5 revues les plus influentes et intégré dans les exigences éditoriales mondiales. Mais il ne contient aucune mention de l’IA.
Résultat : le framework le plus adopté est celui qui ignore l’IA. Les frameworks qui traitent l’IA restent confidentiels.
Ce que ça révèle : le double standard épistémique
Lorsqu’une intervention pharmacologique est testée, CONSORT 2025 exigera désormais la transparence du protocole, le partage des données, et l’accessibilité du code d’analyse. L’Open Science devient une norme de base.
Lorsqu’une intervention implique l’IA — qu’il s’agisse d’un algorithme de diagnostic, d’un chatbot thérapeutique, ou d’un système de prédiction de risque — aucune de ces exigences ne s’applique automatiquement. La version de l’algorithme ? Optionnelle (item 5i de CONSORT-AI, adopté à 20%). L’accessibilité du code ? Optionnelle (item 25, adopté à 42%). La documentation des biais d’entraînement ? Pas couverte. L’analyse des erreurs du modèle ? CONSORT-AI le recommande (item 19), mais c’est une extension que personne ne consulte.
Double standard épistémique : Les interventions traditionnelles sont soumises à des exigences croissantes de transparence et reproductibilité. Les interventions IA — pourtant plus opaques, plus évolutives, et aux mécanismes moins compréhensibles — échappent à ces exigences car elles relèvent d’extensions optionnelles non référencées par les standards de base.
Ce n’est pas un oubli. C’est une architecture normative qui traite l’IA comme un cas particulier alors qu’elle devient omniprésente dans la recherche clinique.
Clarification terminologique
CONSORT (Consolidated Standards of Reporting Trials) et SPIRIT (Standard Protocol Items: Recommendations for Interventional Trials) sont deux guidelines complémentaires mais distinctes :
-
CONSORT encadre le reporting des résultats d’essais cliniques randomisés déjà réalisés. Il dit : “Voici comment vous devez rédiger votre article scientifique pour que les lecteurs comprennent ce que vous avez fait et puissent évaluer la validité de vos conclusions.”
-
SPIRIT encadre la rédaction des protocoles d’essais avant leur démarrage. Il dit : “Voici ce que votre protocole doit contenir pour que les comités d’éthique, les financeurs et les pairs puissent évaluer la rigueur méthodologique de votre projet.”
Les deux ont des extensions IA :
- CONSORT-AI (2020) : 14 items pour le reporting d’essais impliquant l’IA
- SPIRIT-AI (2020) : items pour les protocoles d’essais impliquant l’IA
Les mises à jour 2025 ne mentionnent ni l’une ni l’autre. Un chercheur consultant CONSORT 2025 ou SPIRIT 2025 pour préparer un essai sur un chatbot thérapeutique n’aura aucune indication qu’il devrait aussi consulter CONSORT-AI ou SPIRIT-AI.
Ce qu’un clinicien doit retenir
Lorsque vous lisez un essai clinique publié après avril 2025 :
-
Vérifier si CONSORT 2025 est cité → Si oui, c’est un bon signe méthodologique de base (Open Science, implication patients, transparence statistique).
-
Vérifier si l’intervention inclut une composante IA → Chatbot, algorithme de diagnostic, système de prédiction, aide à la décision clinique.
-
Chercher CONSORT-AI dans les références → Si absent alors que l’intervention est IA, les items critiques (version algorithme, code accessible, analyse erreurs, interaction humain-IA) sont probablement omis.
-
Identifier les angles morts :
- La version exacte du modèle est-elle précisée ? (ex: “GPT-4 turbo 2024-04-09” vs “GPT-4”)
- Le code est-il accessible ? Ou seulement “disponible sur demande” ?
- Les erreurs du modèle sont-elles analysées ? Ou seulement les performances moyennes ?
- L’interaction humain-IA est-elle décrite ? Qui a le dernier mot clinique ?
Un essai peut être conforme à CONSORT 2025 ET méthodologiquement opaque sur l’IA. Les deux standards ne sont pas contradictoires, ils sont orthogonaux. L’un couvre la transparence générale, l’autre la transparence algorithmique. Mais seul le premier est exigé par les revues.
Sources et références
-
Hopewell S et al. (2025). CONSORT 2025 Statement: Updated guideline for reporting randomised trials. JAMA, The Lancet, BMJ, Nature Medicine, PLoS Medicine. https://www.bmj.com/content/389/bmj-2025-082647
-
Chan AW et al. (2025). SPIRIT 2025 Statement: Updated guideline for protocols of randomised trials. JAMA, The Lancet, BMJ, Nature Medicine, PLoS Medicine.
-
Commentaire Lancet (2025). AI in clinical trials is missing from CONSORT and SPIRIT 2025 guidelines. The Lancet. https://www.thelancet.com/journals/lancet/article/PIIS0140-6736(25)01268-1/fulltext
-
Liu X et al. (2020). Reporting guidelines for clinical trial reports for interventions involving artificial intelligence: the CONSORT-AI extension. Nature Medicine, BMJ, The Lancet Digital Health. https://www.nature.com/articles/s41591-020-1034-x
-
Cruz Rivera S et al. (2024). Concordance of Artificial Intelligence-Specific Extensions to the CONSORT Statement With Published AI Intervention Trials: The AI-CONSORT Concordance Study. JAMA Network Open.
Série : Cadres d’évaluation de l’IA en santé
- Hua : trois niveaux de preuve IA en santé mentale
- Choudhury : validité écologique des études LLM
- CHART : transparence des chatbots de santé
- CONSORT-AI : transparence des essais cliniques IA
- CONSORT/SPIRIT 2025 : Science Ouverte oui, IA non (cet article)
- PROBAST+AI : qualité des modèles de prédiction IA
Mots-clés