ChatGPT

ChatGPT, très mauvais pour poser un diagnostic médical : "les IA ne sont pas prêtes à remplacer un médecin"

Les outils d'intelligence artificielle, tel l'emblématique ChatGPT, ne sont pas bons pour poser un diagnostic, selon une étude publiée lundi 9 février dans Nature Medicine. 

10/02/2026 Par Sandy Bonin
ChatGPT

Publiée dans la revue Nature Medicine, cette étude, réalisée auprès de 1 300 personnes au Royaume-Uni, montre que plusieurs modèles d'IA - ChatGPT, Llama (Meta) ou Command R+ - ne font pas mieux qu'une simple recherche en ligne quand un patient s'interroge sur ses symptômes. "Il y a un emballement autour des IA, mais elles ne sont tout simplement pas prêtes à remplacer un médecin", estime, dans un communiqué, Rebecca Payne, chercheuse à l'Université d'Oxford et co-auteure de l'étude.

Pour réaliser cette enquête, les participants n'étaient pas réellement malades mais ont pris part à une sorte de jeu de rôle. Les chercheurs leur ont distribué dix ensembles différents de symptômes, faisant l'unanimité dans le corps médical quant au diagnostic à y associer. Seul un tiers des participants à l'étude se sont vu poser un diagnostic correct. Ce n'est pas mieux qu'au sein d'un groupe qui devait se contenter d'une recherche classique sur internet.

Pourtant, certaines études avaient montré que ChatGPT et d'autres modèles peuvent passer avec succès des épreuves médicales, notamment sur les questions à choix multiples.

Cette nouvelle étude montre toutefois que la situation change quand il s'agit d'interagir avec de vraies personnes. Celles-ci peuvent notamment manquer de précisions dans la description de leurs symptômes et ne pas fournir tous les éléments essentiels, avancent les chercheurs.

L'étude comporte certaines limites, comme sa méthodologie basée sur des scénarios fictifs. Les modèles utilisés ont, par ailleurs, été largement remplacés depuis par des versions plus performantes. Mais "c'est une étude très importante qui souligne que les chatbots posent de vrais risques médicaux pour le grand public", juge auprès de l'AFP David Shaw, spécialiste en bioéthique à l'université de Maastricht (Pays-Bas).

En France, la Haute Autorité de santé (HAS) doit prochainement se prononcer sur l'intérêt d'un usage direct de l'IA pour les patients. Elle a déjà estimé fin 2025 que ces outils pouvaient servir aux soignants, s'ils sont utilisés de manière raisonnée.

[avec AFP] 

Faut-il réformer l'Ordre des médecins ?

Pascal LIGIER

Pascal LIGIER

Non

Comme dans toute organisation professionnelle, qu'elle soit syndicale ou autre, on trouvera toujours des abus avec des notes de fr... Lire plus

Photo de profil de VieuxDoc Attéré
4 k points
Débatteur Passionné
Médecins (CNOM)
il y a 1 mois
Voilà qui est rassurant pour notre métier ! Toute nouvelle technologie est une sorte de Janus , avec un côté lumineux et un côté obscur , cela dépend de l'usage qui en est fait. Ne jetons pas le bébé avec l'eau du bain cependant. L'IA peut nous aider à cerner devant des symptômes précis listés par nous une liste de maladies envisageables que nous ne connaissons peut-être pas toutes. Un super -"diagnostic différentiel". L'IA peut aider les patients pour comprendre certains points ou répondre à des questions précises , il est utile de leur rappeler que le diagnostic final nécessitera une certification "humaine". Ce que cet article fait. Je n'évoque pas la question de la responsabilité : qui est fautif si le patient "s'auto-diagnostique" à tort , s'induit une perte de chances en ne consultant que le "docteur IA" ? Faut-il que les concepteurs des IA s'assurent en terme de responsabilité médicale?
Photo de profil de Michel Rivoal
12,1 k points
Débatteur Passionné
Anesthésie-réanimation
il y a 1 mois
Ah bon! On aurait essayé de nous mentir? Deux remarques pour commencer, fonctions de l'utilisateur. Un médecin peut sans doute profiter de l'aide s'il pose "les bonnes questions" et s'il est critique sur les réponses. Un malade ne pose pas forcément les bonnes questions ou du moins dans le bon ordre ou pas avec la bonne précision et l'IA est renseignée par des médecins certes, des articles certes mais des internautes aussi et ne fait pas toujours le tri qualitatif et/ou des fake news. Maintenant, à terme, je ne peux que rappeler l'étude sur les effets délétères de l'IA (mémoire, créativité, esprit critique): Michael Gerlich au Royaume Uni publiée en Janvier 2025 sur plus de 600 sujets.
Photo de profil de PIERRE C
1,9 k points
Débatteur Passionné
Anesthésie-réanimation
il y a 1 mois
Partiellement d’accord, j'ai un compte payant de chatgpt et je ne l’utilise que pour des questions de connaissances très précises. Par exemple : critères ETO de sévérité d'une sténose mitrale, formule pour corriger un deficit en sodium, ... Il est très bon pour tout ce qui est calculs, critères durs, physiologie, anatomie,... Je le trouve par contre vraiment mauvais dans l’orientation diagnostique, les différentiels,... Même en lui fournissant toutes les données. Il n’arrive pas a intégrer : examen clinique, biologie, imagerie, probabilite clinique ajustée a la population traitée,... C'est assez rassurant car c'est ce qui fait la valeur d'un clinicien humain: la capacité d'intégration et le raisonnement clinique.
 
Vignette
Vignette

La sélection de la rédaction

Assurance maladie / Mutuelles
Un généraliste déclaré à tort en cessation d'activité par l'Assurance maladie : "J'ai perdu toute ma...
24/03/2026
11
Déontologie
"On m'a sali alors que je n'ai fait que rendre service" : un médecin retraité jugé pour avoir continué à...
10/03/2026
0
Chirurgie
Grands brûlés : les défis de la reconstruction cutanée
06/03/2026
3
Podcast Histoire
Son association a sauvé plus de 5000 enfants : découvrez l'histoire de Francine Leca, pionnière de la...
13/03/2026
0
Décryptage Déontologie
Dépassements d’honoraires des médecins : "le tact et la mesure" à l’épreuve des abus
05/02/2026
29
La Revue du Praticien
Diabétologie
HbA1c : attention aux pièges !
06/12/2024
2