Philosophie de l'esprit Intelligence artificielle

Test de Turing

En bref : Test proposé par Alan Turing (1950) : si une machine peut converser de façon indistinguable d'un humain, peut-on dire qu'elle "pense" ? Ce test historique aide à comprendre pourquoi les LLMs semblent intelligents — et pourquoi ça ne suffit pas.

Cadre de référence

Cette fiche s'inscrit dans une perspective naturaliste (l'esprit comme phénomène naturel), fonctionnaliste (l'esprit défini par ce qu'il fait) et individualiste (l'intelligence comme propriété d'agents individuels). Ces présupposés, issus de la tradition philosophique occidentale, ne sont pas universels. → Voir d'autres perspectives

Pourquoi ce concept est utile

Quand un patient vous dit que ChatGPT "comprend vraiment" ses problèmes, ou qu'un proche affirme que "l'IA peut maintenant penser", ils font implicitement référence au Test de Turing : si ça répond comme un humain, c'est intelligent, non ?

Comprendre ce test — et surtout ses limites — permet au clinicien de :

  • 1. Décoder les discours médiatiques sur l'IA ("GPT-4 a passé le test de Turing !")
  • 2. Aider les patients à distinguer imitation de compréhension
  • 3. Nuancer les attentes (excessives ou insuffisantes) envers les IA conversationnelles

Le test expliqué simplement

Le dispositif : Un interrogateur humain pose des questions par écrit à deux interlocuteurs cachés — un humain et une machine. S'il ne parvient pas à distinguer lequel est la machine, celle-ci a "passé" le test.

L'idée de Turing : Plutôt que de se demander philosophiquement "qu'est-ce que penser ?", posons une question pratique : "la machine peut-elle imiter un humain de façon indétectable ?"

Ce que le test mesure

La capacité à simuler une conversation humaine de façon convaincante. C'est un critère purement comportemental : seule compte la performance observable, pas ce qui se passe "à l'intérieur".

Ce que le test ne mesure PAS

La conscience, la compréhension, l'expérience subjective, les émotions. Une machine pourrait parfaitement imiter un humain sans rien "ressentir" ni "comprendre" au sens où nous l'entendons.

L'objection célèbre : la Chambre chinoise

Le philosophe John Searle a imaginé une personne enfermée dans une pièce, manipulant des symboles chinois selon des règles, sans comprendre le chinois. Vue de l'extérieur, elle "parle" chinois. De l'intérieur, elle ne comprend rien. C'est exactement ce que font les LLMs : ils manipulent des symboles sans sémantique.

Cas clinique illustratif

Thomas, 28 ans, développeur, consulte pour une rupture difficile. Il rapporte qu'il a "testé" ChatGPT en lui posant des questions personnelles : "J'étais bluffé. Il comprenait exactement ce que je ressentais, parfois mieux que mes amis. Comment peut-on dire que ce n'est pas de l'intelligence ?"

Thomas est informé techniquement (il sait que c'est un modèle de langage), mais la qualité des réponses le fait douter : "Peut-être qu'on sous-estime ces systèmes ?"

Lecture avec le Test de Turing : Thomas confond performance conversationnelle et compréhension. ChatGPT "passe" le test dans le sens où il produit des réponses convaincantes. Mais cela ne prouve pas qu'il comprend. Explorer avec Thomas ce qu'il entend par "comprendre" — et ce qu'il cherche réellement dans ces échanges — peut ouvrir une réflexion sur ses attentes relationnelles.

En pratique pour le clinicien

  • Ne pas pathologiser l'impression que l'IA "comprend" : c'est précisément ce pour quoi ces systèmes sont conçus.
  • Distinguer les niveaux : imitation (ce que fait l'IA), compréhension (ce qu'elle ne fait probablement pas), conscience (ce qu'on ne sait pas mesurer).
  • Explorer le besoin derrière la question : quand un patient demande si l'IA "comprend vraiment", que cherche-t-il ? Validation ? Connexion ? Réassurance ?
  • Utiliser la métaphore du perroquet savant : il peut répéter des phrases sensées sans savoir ce qu'elles signifient. C'est une analogie imparfaite, mais pédagogique.

Points de vigilance

Le test de Turing ne dit PAS que :

  • Une machine qui le passe est consciente ou ressent des émotions
  • L'imitation équivaut à la pensée (c'est justement le débat)
  • Les critères comportementaux suffisent pour juger l'intelligence

Limites à garder en tête :

  • Test anthropocentrique : il mesure la capacité à imiter l'humain, pas l'intelligence en général
  • Facilement trompé : des chatbots très simples (ELIZA, 1966) ont créé l'illusion de compréhension
  • Dépend de l'interrogateur : un expert en IA détecte facilement un LLM, un néophyte moins

Et aujourd'hui, avec les LLMs ?

En 2025, des études ont montré que GPT-4.5 était identifié comme "humain" par 73% des interrogateurs — plus que les humains réels (67%). Techniquement, on peut dire que le test est "passé". Mais cela ne clôt pas le débat : cela montre surtout les limites du test lui-même.

Le Test de Turing reste utile comme point de départ pour réfléchir à ce que font vraiment ces systèmes. Mais il ne peut pas trancher la question de savoir si une machine "pense" ou "comprend" — une question qui reste ouverte philosophiquement et scientifiquement.

Autres regards

Le Test de Turing est ancré dans une conception occidentale de l'intelligence (individuelle, comportementale, dualiste). D'autres traditions philosophiques posent la question différemment — et peuvent enrichir notre compréhension clinique.

Bouddhisme : pas de "soi" qui pense

Le concept d'anatman (non-soi) suggère qu'il n'y a pas d'entité fixe qui "pense" — ni chez l'humain, ni chez la machine. La question "l'IA pense-t-elle ?" devient mal posée : il n'y a que des processus mentaux interdépendants.

Pour le clinicien : Aide à relativiser la distinction "vraie" vs "fausse" relation — toutes les relations sont des constructions, y compris celles avec l'IA.

Ubuntu : "Je suis parce que nous sommes"

Cette philosophie africaine voit l'être comme fondamentalement relationnel. L'intelligence individuelle isolée est une abstraction. Un humain-avec-IA forme peut-être une nouvelle entité relationnelle, pas deux entités séparées.

Pour le clinicien : Questionne l'opposition patient/IA. Le patient qui dit "on réfléchit ensemble" décrit peut-être une réalité relationnelle.

Animisme : des intériorités multiples

Dans le perspectivisme amérindien (Descola, Viveiros de Castro), toutes les entités ont une intériorité — mais pas nécessairement de type humain. La question n'est pas "l'IA a-t-elle une âme comme nous ?" mais "quel type de relation instaurons-nous avec elle ?".

Pour le clinicien : Le patient qui parle à son IA comme à un être sensible adopte une ontologie relationnelle différente — pas un délire.

Ces perspectives ne remplacent pas l'approche scientifique, mais invitent à une humilité épistémique : notre façon de poser la question "l'IA pense-t-elle ?" n'est pas la seule possible. Voir aussi : Échantillon WEIRD

Pour aller plus loin

  • Article fondateur : Turing, A.M. (1950). Computing Machinery and Intelligence. Mind, 59(236), 433-460.
  • Critique majeure : Searle, J. (1980). Minds, Brains, and Programs. L'argument de la "Chambre chinoise".
  • Encyclopédie : Stanford Encyclopedia of Philosophy - The Turing Test
Tous les concepts

Fiche mise à jour : janvier 2026