IA

@Sam Richter - stock.adobe.com

Diagnostic médical : face à de vrais patients, les agents conversationnels ne seraient fiables qu’à 35%

Alors que les chatbots (ChatGPT, Gemini…) sont de plus en plus utilisés par les patients pour comprendre leurs documents médicaux, 60 Millions de consommateurs a enquêté sur leur fiabilité.

13/05/2026 Par Mathilde Gendron
Intelligence artificielle
IA

@Sam Richter - stock.adobe.com

Expliquer un compte-rendu médical, un bilan sanguin… Les patients se tournent désormais vers les agents conversationnels pour mieux comprendre leurs résultats. 60 Millions de consommateurs a enquêté pour estimer leur fiabilité, en testant ChatGPT, Gemini ou encore Le Chat.

Les résultats publiés en avril ont montré que ces chatbots sont performants sur des cas de patients fictifs rédigés par des médecins. Le taux de réussite avoisine les 95%. Mais face à des patients réels, les chiffres s’effondrent sous les 35%.

Formuler les bonnes questions

Si cette différence est si importante, c’est parce que ces outils fonctionnent à condition de leur formuler les bonnes questions. "C’est la vraie limite interne de cette technologie, estime Paul Valois, chef de projet à la Haute Autorité de santé (HAS). Si on oublie un élément déterminant, le robot n’aura pas le réflexe de le demander. C’est la différence entre le soignant et l’IA."$

Même lorsque le chatbot trouve le bon diagnostic, il peut se tromper sur la conduite à tenir. Conscients de ces enjeux, les trois outils mentionnent tous : "Le Chat peut faire des erreurs. Vérifiez les réponses", "Gemini est une IA et peut se tromper" ou encore "ChatGPT peut commettre des erreurs." 

Bientôt un ChatGPT dédié aux questions santé

Les chatbots se sont en revanche montrés performants pour vulgariser les documents. "Cela peut servir aux médecins pour expliciter la posologie, la manière de suivre le traitement", reconnaît Alexandre Biosse Duplan, chef de projet à la HAS.

Ces outils ne se concentrent cependant que sur les données chiffrées, sans prendre en compte le patient dans sa globalité (historique médical, antécédents…). Les algorithmes risquent alors de passer à côté d’une pathologie plus grave. Ils peuvent aussi produire des hallucinations, en inventant des corrélations inexistantes, des médicaments ou en échangeant des unités de conversion…

Hantavirus : redoutez-vous une nouvelle crise sanitaire ?

Michel Rivoal

Michel Rivoal

Non

La réponse n'est pas binaire. On ne connait pas suffisamment cette souche pour connaitre réellement son potentiel de nuisance. ... Lire plus

3 débatteurs en ligne3 en ligne
 
Vignette
Vignette

La sélection de la rédaction

Histoire
De jeune médecin inconnu à bourreau… Un historien retrace le parcours de Mengele, "l'Ange de la mort"
07/05/2026
0
Témoignage
Après la leucémie de son fils, elle se lance dans des études de médecine : "J'ai voulu redonner ce qu’on m...
05/05/2026
3
Témoignage
"Ma concentration ne dépassait pas les 30 minutes" : médecin généraliste, elle raconte "l'enfer" de son burn...
15/04/2026
22
Enquête Gynécologie-Obstétrique
Mal payés, épuisés, trop exposés : les gynécologues désertent les maternités
02/04/2026
16
Maladies rares
Qu’est-ce que le syndrome de Moersch-Woltman, dont est atteinte Céline Dion ?
01/04/2026
14
Chirurgie
Grands brûlés : les défis de la reconstruction cutanée
06/03/2026
3
La Revue du Praticien
Diabétologie
HbA1c : attention aux pièges !
06/12/2024
2