Accueil
»
Actualités / Événements
»
Actualités
» ChatGPT n’est pas fiable pour poser un diagnostic médical

De plus en plus de personnes utilisent aujourd’hui des intelligences artificielles comme ChatGPT pour comprendre leurs symptômes ou tenter d’obtenir un diagnostic. Ce réflexe s’explique aussi par une réalité : il est parfois difficile d’avoir un rendez-vous médical rapidement, notamment dans certains territoires. 

Pourtant, une étude publiée en février 2026 dans la revue scientifique Nature Medicine est sans ambiguïté : les intelligences artificielles conversationnelles comme ChatGPT ne sont pas fiables pour poser un diagnostic médical lorsqu’elles interagissent directement avec des patients.

Des performances très limitées en situation réelle

Des chercheurs britanniques ont évalué plusieurs modèles d’intelligence artificielle auprès de 1 300 participants.

Les résultats montrent une différence importante :

  • Lorsque les symptômes sont parfaitement décrits par des experts, l’IA peut identifier correctement une maladie.

  • Mais lorsque des personnes non expertes décrivent leurs propres symptômes, comme ils le feraient face à un médecin, seul un diagnostic sur trois est correct.
     

Autrement dit : utiliser une IA pour interpréter ses symptômes ne fait pas mieux qu’une recherche Internet classique.

Pourquoi une IA ne peut pas remplacer un médecin

Un diagnostic médical ne consiste pas simplement à analyser une liste de symptômes.

Il repose sur :

  • un dialogue approfondi,

  • des questions adaptées,

  • l’analyse du contexte personnel,

  • l’examen clinique,

  • et l’expérience médicale.
     

Or, les descriptions de symptômes sont souvent incomplètes ou imprécises.
Aujourd’hui, les intelligences artificielles ne savent pas encore compenser ces limites.

Un risque réel pour les patients

S’appuyer sur une IA pour s’auto-diagnostiquer peut entraîner :

  • un retard de consultation,

  • une fausse reassurance,

  • ou une inquiétude inutile.
     

 L’IA peut informer… mais pas diagnostiquer

Les chercheurs rappellent que l’intelligence artificielle peut représenter une aide pour mieux accéder à l’information médicale, à condition de rester un outil complémentaire.

👉 Le diagnostic, lui, reste une compétence médicale.

À mesure que ces technologies évoluent, certaines initiatives font un choix clair : aider à s’informer, pas à se diagnostiquer. C’est le cas de Gustave, un assistant en santé conçu pour s’appuyer sur des sources médicales fiables et traçables, et pour aider chacun à mieux comprendre des informations de santé (symptômes, examens, traitements, effets indésirables, démarches…), sans se substituer à un professionnel.

Duquel, nous sommes partenaires afin de renforcer la qualité des informations liées à la polyarthrite rhumatoïde et d’améliorer l’outil. En l’aidant à mieux répondre aux questions fréquentes des patients, à clarifier les termes médicaux, et à orienter vers des ressources pertinentes. Autrement dit, Gustave n’est pas là pour poser un diagnostic, mais pour rendre l’information plus accessible, soutenir l’autonomie des personnes au quotidien, et faciliter un dialogue plus éclairé avec les soignants.

Source : Payne R. et al. Evaluation of large language models in patient diagnostic interactions. Nature Medicine, 2026.