De plus en plus de personnes utilisent aujourd’hui des intelligences artificielles comme ChatGPT pour comprendre leurs symptômes ou tenter d’obtenir un diagnostic. Ce réflexe s’explique aussi par une réalité : il est parfois difficile d’avoir un rendez-vous médical rapidement, notamment dans certains territoires.
Pourtant, une étude publiée en février 2026 dans la revue scientifique Nature Medicine est sans ambiguïté : les intelligences artificielles conversationnelles comme ChatGPT ne sont pas fiables pour poser un diagnostic médical lorsqu’elles interagissent directement avec des patients.
Des chercheurs britanniques ont évalué plusieurs modèles d’intelligence artificielle auprès de 1 300 participants.
Les résultats montrent une différence importante :
Lorsque les symptômes sont parfaitement décrits par des experts, l’IA peut identifier correctement une maladie.
Mais lorsque des personnes non expertes décrivent leurs propres symptômes, comme ils le feraient face à un médecin, seul un diagnostic sur trois est correct.
Autrement dit : utiliser une IA pour interpréter ses symptômes ne fait pas mieux qu’une recherche Internet classique.
Un diagnostic médical ne consiste pas simplement à analyser une liste de symptômes.
Il repose sur :
un dialogue approfondi,
des questions adaptées,
l’analyse du contexte personnel,
l’examen clinique,
et l’expérience médicale.
Or, les descriptions de symptômes sont souvent incomplètes ou imprécises.
Aujourd’hui, les intelligences artificielles ne savent pas encore compenser ces limites.
S’appuyer sur une IA pour s’auto-diagnostiquer peut entraîner :
un retard de consultation,
une fausse reassurance,
ou une inquiétude inutile.
Les chercheurs rappellent que l’intelligence artificielle peut représenter une aide pour mieux accéder à l’information médicale, à condition de rester un outil complémentaire.
👉 Le diagnostic, lui, reste une compétence médicale.
À mesure que ces technologies évoluent, certaines initiatives font un choix clair : aider à s’informer, pas à se diagnostiquer. C’est le cas de Gustave, un assistant en santé conçu pour s’appuyer sur des sources médicales fiables et traçables, et pour aider chacun à mieux comprendre des informations de santé (symptômes, examens, traitements, effets indésirables, démarches…), sans se substituer à un professionnel.
Duquel, nous sommes partenaires afin de renforcer la qualité des informations liées à la polyarthrite rhumatoïde et d’améliorer l’outil. En l’aidant à mieux répondre aux questions fréquentes des patients, à clarifier les termes médicaux, et à orienter vers des ressources pertinentes. Autrement dit, Gustave n’est pas là pour poser un diagnostic, mais pour rendre l’information plus accessible, soutenir l’autonomie des personnes au quotidien, et faciliter un dialogue plus éclairé avec les soignants.