Diagnostic, prévention, assistance… jusqu’où les médecins peuvent-ils se fier à l'intelligence artificielle générative ?

26/08/2023 Par Muriel Pulicani
E-santé
L’intelligence artificielle (IA) et ses derniers-nés, les robots conversationnels (chatbots), jouent un rôle de plus en plus prégnant dans la santé. S’ils ont permis des avancées dans le diagnostic et le suivi des patients, ils restent largement faillibles, a-t-il été mis en avant lors d'une rencontre organisée par le Club Digital Santé intitulée "ChatGPT, bientôt médecin?". 
 

Avec quelque 186 millions d’utilisateurs actifs estimés en mars et un quasi-succès à un examen de médecine aux États-Unis, ChatGPT suscite l’enthousiasme… autant que les critiques. ChatGPT, pour "Generative Pre-trained Transformer" ("transformateur générique pré-entraîné"), est un agent conversationnel utilisant l’IA, lancé par la start-up californienne OpenAI en novembre 2022. Il peut produire des textes sur tout type de sujet. "Comme un smartphone, il prédit le mot suivant selon les probabilités " a expliqué Chams Sallouh, consultant et formateur en IA, lors de la rencontre "ChatGPT, bientôt médecin?", organisée le 27 mars par le Club Digital Santé. Dans le domaine de la santé, "l’entraînement d’une IA à comprendre des questions et à générer de réponses se base sur des historiques de conversation et sur la littérature médicale (bases de connaissances, arbre décisionnel)", a ajouté Thomas Gouritin, cofondateur du chatbot Asispo. ChatGPT est plus avancé que ses principaux concurrents, Bart de Google ou BioGPT de Microsoft, dans la recherche biomédicale. Des sociétés de taille plus modeste développent de leur côté des solutions spécifiques.   Un vase champ d’application Les applications sont nombreuses. "Ces outils peuvent aider les professionnels de santé dans la recherche de connaissances, réduire les tâches fastidieuses de saisie des données…", a listé Chams Sallouh, soulignant l’impact positif sur la "qualité de vie au travail". Des IA interviennent déjà dans la télésurveillance et le suivi post-opératoire des patients. "44 % des patients ne sont pas recontactés après une opération et 80 % des litiges MACSF [mutuelle d’assurance des professionnels de santé] sont liés au suivi. Asispo permet de contacter 100 % des patients après une chirurgie dentaire et de leur délivrer un conseil écrit et validé par les médecins", a affirmé Thomas Gouritin. "L’équipe médicale gagne 6 à 8 heures par semaine." Des expérimentations sont en cours dans le diagnostic, la prévention, l’assistance en temps réel pour les urgences...   Des réponses "hallucinantes" Cependant, l’IA présente des écueils bien identifiés. Le principal est la qualité des données servant à l’entraîner : nombre, diversité, biais cognitifs, contexte... Mais aussi l’opacité du mode de raisonnement, la machine étant incapable de justifier ses décisions. De nouveaux écueils apparaissent avec les chatbots. Ceux-ci s’appuient sur des informations issues d’internet, amenant à s’interroger sur la pertinence des sources, leur actualisation, le choix des données dans les domaines où il n’y a pas de consensus scientifique… Par ailleurs, les chatbots ne sont pas des moteurs de recherche et ne font qu’"imaginer" la réponse la plus plausible à une requête. Or "plausible" ne signifie pas forcément "juste" ou "pertinent". Aussi, ChatGPT a-t-il émis des "hallucinations", des réponses manifestement fausses mais présentées comme avérées. "On voudrait avoir davantage la main sur ce que le robot va répondre", a plaidé Thomas Gouritin. Programmé pour aller dans le sens de l’utilisateur, ChatGPT avait en 2020 recommandé à un testeur ayant évoqué des pensées suicidaires, de passer à l’acte. La valeur réelle de tels outils dans la santé (recommandations faites aux patients, diagnostic…) reste à mesurer. "En l’état, ChatGPT ne peut être certifié dispositif médical", a pointé Thomas Gouritin.   Un cadre éthique à poser Pour le meilleur et pour le pire, l’IA gagne peu à peu l’ensemble de la société. Elle est néanmoins amenée à progresser puisque basée sur l’apprentissage profond ("deep learning"). D’autres modèles que ChatGPT se développent, associant apprentissage automatique et IA symbolique, basée sur un raisonnement logique et formel. "Les modèles d’IA appliqués à la santé doivent être conçus et évalués avec les professionnels de santé", a plaidé Lionel Reichardt, cofondateur du Club Digital Pharma et enseignant en e-santé. L’offre doit faire l’objet d’une réglementation internationale pour sécuriser les usages et poser un cadre éthique. La France et l’Europe ont posé le principe de "garantie humaine" à l’interprétation des résultats diagnostiques et thérapeutiques, impliquant que la machine ne peut agir seule et consacrant la responsabilité du professionnel de santé. La délégation de tâches à l’IA impose en effet que l’utilisateur soit conscient des limites. "Il faut éduquer à l’esprit critique", a souligné Thomas Gouritin. Ainsi, l’intelligence humaine et l’intelligence artificielle apparaissent comme complémentaires, le médecin conservant pleinement son rôle dans la prise en charge du patient

 
Vignette
Vignette

Faut-il avoir peur de l'intelligence artificielle en médecine?

Pierre Devallet

Pierre Devallet

Oui

Il est intéressant de voir que l'on nous enferme dans une question binaire et qu'on ne peut donner un avis qu'une fois qu'on a "ch... Lire plus

6 commentaires
9 débatteurs en ligne9 en ligne
Photo de profil de Patrick Tafani
850 points
Débatteur Renommé
Médecine générale
il y a 10 mois
Il est souhaitable que le médecin demeure le seul et unique décideur en ayant ses propres connaissances et son expérience. Et cela sera aidé, plus ou moins grandement,par l'IA car c'est la marche du ...Lire plus
Photo de profil de B A
783 points
Débatteur Renommé
Médecins (CNOM)
il y a 10 mois
Le jour où on arrivera à donner une conscience à l’IA , elle éradiquera l’espèce humaine de la terre. On crée notre propre perte , nous sommes trop imparfaits et nous le savon. Une IA autonome et parf...Lire plus
Photo de profil de B M
4,2 k points
Débatteur Passionné
Médecine générale
il y a 10 mois
j'imagine quand il y aura discordance entre les hypothèses d'une IA et la réalité globale du malade. Qui sera responsable en cas d'erreur du fait d'une prise en compte de ce que dit l'IA? Quel bordel....Lire plus

La sélection de la rédaction

Podcast Vie de famille
Le "pas de côté" d'un éminent cardiologue pour comprendre le cheminement de son fils apprenti chamane
17/05/2024
0
Rémunération
"Les pouvoirs publics n'ont plus le choix" : les centres de santé inquiets de l'avenir de leur modèle...
07/05/2024
3
Infirmières
Les infirmières Asalée sauvées?
16/04/2024
3
Pneumologie
Asthme de l’enfant avant 3 ans : une entité particulière
19/04/2024
0
Neurologie
Syndrome de Guillain-Barré : une urgence diagnostique et thérapeutique
04/04/2024
0
Santé publique
Ce qui se cache derrière la hausse inquiétante de l'infertilité
13/03/2024
17