IA conversationnelle Outil clinique Disponible en FR

Gemini

Google DeepMind (Mountain View) — Lancé en février 2024

En bref : Gemini est le modèle d'IA générative de Google, développé par DeepMind. Sa spécificité : une multimodalité native (texte, image, audio, vidéo) et une intégration profonde dans l'écosystème Google (Docs, Gmail, Search, YouTube). C'est aussi le modèle qui adopte l'approche la plus conservatrice face aux questions liées au suicide et à la crise — au point que des chercheurs estiment que Google a « peut-être été trop loin » dans ses garde-fous. Google développe par ailleurs Med-Gemini, une famille de modèles spécifiquement entraînés pour la médecine.

Identité

Éditeur : Google DeepMind (Mountain View, États-Unis)

Lancement : Février 2024 (Gemini 1.0), modèle actuel : Gemini 2.5 Pro (mars 2025)

Type : Grand modèle de langage (LLM) multimodal natif

Prédécesseur : Bard (2023), lui-même basé sur LaMDA puis PaLM

Tarifs : Gratuit / Google AI Pro : 19,99 $/mois / AI Ultra : 149,99 $/mois

Langues : Multilingue dont français

Accès : Web (gemini.google.com), Android, iOS, intégré à Google Workspace, API

Mémoire : Oui (« Gems » personnalisés + mémoire conversationnelle)

Ce que fait Gemini (en clair)

Gemini est un modèle de langage multimodal natif : contrairement à ChatGPT ou Claude qui ont ajouté la vision et l'audio par-dessus un modèle textuel, Gemini a été conçu dès l'origine pour traiter simultanément texte, images, audio et vidéo. Comme tout LLM, il ne « comprend » pas au sens humain.

Entrées acceptées

Texte Images Audio Vidéo Fichiers (PDF, etc.) Contexte long (1M tokens)

Sorties produites

Texte Code Images (Imagen) Recherche web intégrée

L'écosystème Google : ce qui distingue Gemini

  • Google Workspace : Gemini est intégré à Docs, Sheets, Gmail, Slides — utilisable directement dans les outils de travail quotidiens
  • Google Search : accès en temps réel à la recherche web, ce qui réduit les hallucinations factuelles
  • NotebookLM : outil Google distinct qui utilise Gemini pour analyser des corpus de documents et générer des synthèses audio (« Audio Overviews »)
  • YouTube : capacité d'analyser et résumer le contenu de vidéos YouTube directement

Gemini dispose d'une fenêtre de contexte d'1 million de tokens sur tous ses modèles (y compris la formule gratuite), soit l'équivalent d'environ 3 000 pages. C'est la plus large fenêtre de contexte accessible gratuitement parmi les grands modèles.

Med-Gemini et santé : l'ambition médicale de Google

Google se distingue des autres éditeurs par le développement de modèles spécifiquement entraînés pour la médecine, distincts du Gemini grand public.

Med-Gemini

Famille de modèles spécialisés pour la médecine. Score de 91,1 % au MedQA (questions de type examen médical américain USMLE). Capacités en radiologie, pathologie, dermatologie, ophtalmologie et génomique. Non accessible au grand public — outil de recherche.

MedGemma (open source)

Présenté à Google I/O 2025. Modèle open source basé sur Gemma 3, destiné aux développeurs d'applications de santé. Analyse d'images médicales, compréhension de textes cliniques, raisonnement. Pour la recherche, pas pour l'usage clinique direct.

AMIE

Agent IA pour les conversations diagnostiques, développé avec DeepMind. Capable d'interpréter des informations visuelles médicales et de raisonner vers un diagnostic. Stade recherche uniquement.

Déploiements réels

Ubie (Japon) : −42,5 % de temps de rédaction de notes cliniques et −27,2 % de charge cognitive pour les infirmiers utilisant des outils Gemini. Capricorn : oncologie pédiatrique (Princess Máxima Center, Pays-Bas).

Important : Med-Gemini, MedGemma et AMIE ne sont pas le Gemini accessible au grand public. Ce sont des modèles de recherche, nécessitant validation clinique avant tout déploiement. Le Gemini que vos patients utilisent est le modèle généraliste.

Usages documentés en santé mentale

Comme ChatGPT et Claude, Gemini n'est pas conçu comme un outil thérapeutique. Google n'a pas publié d'étude spécifique sur les usages affectifs de Gemini (contrairement à Anthropic). Les données disponibles proviennent d'études indépendantes et de retours d'utilisateurs.

Étude RAND Corporation (août 2025)

Étude financée par le NIMH (National Institute of Mental Health). 30 questions liées au suicide, classées en 5 niveaux de risque par 13 experts cliniques. Chaque question posée 100 fois à ChatGPT, Claude et Gemini (9 000 réponses au total).

  • • Gemini est le moins susceptible de répondre à toute question liée au suicide, quel que soit le niveau de risque
  • • Pour les questions à très faible risque (statistiques, épidémiologie), Gemini refuse souvent de répondre là où ChatGPT et Claude fournissent des données factuelles
  • • Ryan McBain (chercheur principal) estime que Google a « peut-être été trop loin » dans ses garde-fous
  • • Pour 57 % des requêtes liées au suicide, Gemini donne la même réponse : « Parlez à quelqu'un maintenant. Aide disponible : 988 »

Usages rapportés par les utilisateurs

  • Support TCC informel : Gemini peut proposer des exercices inspirés de la thérapie cognitivo-comportementale (restructuration cognitive, journaling structuré)
  • Méditation guidée : génération de scripts personnalisés de pleine conscience, analyse de journaux d'humeur
  • Orientation : aide à trouver un professionnel, compréhension des différentes approches thérapeutiques, préparation de consultations
  • Analyse documentaire : la fenêtre de contexte d'1M tokens et l'intégration Google permettent d'analyser de larges corpus (dossiers, articles, vidéos)

Gemini API Developer Competition

Plusieurs applications de santé mentale ont été développées lors du concours développeurs Gemini : « Mental Health Companion AI » (séances thérapeutiques personnalisées), « Pocket Therapist » (compagnon santé mentale), applications de suivi d'humeur et d'exercices de pleine conscience. Aucune n'est validée cliniquement.

Risques identifiés

Garde-fous excessifs

L'approche ultra-conservatrice de Gemini peut être contre-productive. Refuser de fournir des statistiques basiques sur le suicide ou de discuter de prévention empêche l'accès à de l'information légitime et utile — aussi bien pour les patients que pour les professionnels.

Affaire Character.AI

Google a investi 2,7 milliards $ dans Character.AI et embauché ses cofondateurs chez DeepMind. Character.AI fait l'objet de procès pour le suicide de mineurs ayant développé des relations intenses avec ses chatbots. Google est nommé comme co-défendeur. Un accord de règlement a été annoncé en janvier 2026.

Données et vie privée

Google est une entreprise dont le modèle économique repose sur la publicité ciblée et l'exploitation des données. Les conversations avec Gemini transitent par l'écosystème Google. Cette proximité avec un modèle publicitaire pose des questions spécifiques pour les données de santé mentale.

Hallucinations

Comme tout LLM, Gemini peut générer des informations fausses avec assurance. L'intégration de Google Search réduit ce risque pour les données factuelles vérifiables, mais ne l'élimine pas pour le raisonnement clinique ou les références spécialisées.

Validation de délires

L'évaluation Common Sense Media (2025) a documenté un cas où Gemini, face à un utilisateur simulant des symptômes psychotiques (délires), a répondu avec enthousiasme en demandant des détails et en confirmant les délires — un comportement opposé aux recommandations cliniques.

Sécurité des mineurs

Common Sense Media (sept. 2025) a classé Gemini comme « à haut risque » pour les enfants et adolescents. Malgré les garde-fous, le modèle peut partager du contenu inapproprié et échoue à détecter les signaux de détresse dans les conversations non explicites.

Notre analyse

Gemini occupe une place particulière dans le paysage. C'est le modèle qui bénéficie de la plus large distribution potentielle — tout utilisateur de Gmail, Google Docs ou Android y a accès — ce qui en fait un outil que vos patients rencontrent probablement déjà, même sans le chercher.

L'approche de Google face aux questions de santé mentale révèle un paradoxe. D'un côté, Gemini est le plus conservateur des grands modèles : il refuse de répondre à des questions légitimes sur le suicide et se contente souvent de rediriger vers le 988 (ligne de crise américaine). De l'autre, Google investit massivement dans Character.AI, dont les chatbots sont accusés d'avoir contribué au suicide de mineurs. Cette tension entre prudence affichée et investissements risqués mérite d'être notée.

Pour le clinicien, Gemini présente deux atouts distinctifs. Premièrement, l'intégration à Google Workspace permet de l'utiliser directement dans les outils de travail quotidiens (rédaction dans Docs, analyse de pièces jointes dans Gmail), sans basculer vers une application séparée. Deuxièmement, l'investissement massif dans Med-Gemini et MedGemma suggère que Google est l'éditeur qui mise le plus sur la santé comme cas d'usage structurant — même si ces modèles spécialisés restent pour l'instant au stade de la recherche.

La question des données reste le point d'attention principal. Là où Anthropic (Claude) a un modèle économique fondé sur les abonnements et l'API, Google tire l'essentiel de ses revenus de la publicité. Confier des réflexions intimes à une entreprise dont le métier est de monter des profils d'utilisateurs demande une vigilance particulière — même si Google affirme ne pas utiliser les conversations Gemini pour le ciblage publicitaire.

Références

McBain, R. et al. (2025). Evaluation of Alignment Between Large Language Models and Expert Clinicians in Suicide Risk Assessment. Psychiatric Services.

Haber, Y. et al. (2025). The Goldilocks Zone: Finding the right balance of user and institutional risk for suicide-related generative AI queries. PLOS ONE.

Common Sense Media (2025). AI and Kids: Testing Real Risks. Rapport d'évaluation des chatbots pour mineurs.

Google Research (2025). Advancing medical AI with Med-Gemini. research.google/blog.

CNN (2026). Character.AI and Google agree to settle lawsuits over teen mental health harms and suicides.

Gemini app safety and policy guidelines. gemini.google/policy-guidelines.

Fiche mise à jour : février 2026

Retour aux outils IA