ChatGPT et diagnostic médical : l’IA est-elle sur le point de remplacer votre médecin ?

ChatGPT et diagnostic médical : l’IA est-elle sur le point de remplacer votre médecin ?

Face à la pénurie de médecins généralistes et aux délais de rendez-vous qui s’allongent, de plus en plus de patients se tournent vers les agents conversationnels comme ChatGPT et Gemini pour obtenir un diagnostic personnalisé. Si l’idée de solliciter un chatbot capable d’accéder à des millions de recherches scientifiques peut rassurer, cette pratique n’est pas sans risques. L’utilisation de l’intelligence artificielle en médecine soulève des questions fondamentales sur la validité des diagnostics et la protection des données de santé.

Le diagnostic en ligne : un facteur d’angoisse plus qu’un remède

Comme le révèle la stomatologue Solène Vo Quang, l’autodiagnostic via les chatbots a déjà des conséquences concrètes : des patients se présentent à la consultation après avoir passé des jours dans l’angoisse, persuadés d’être atteints de pathologies graves. Dans la pratique clinique, le verdict est souvent beaucoup moins alarmant. Par exemple, ce que les patients interprètent comme des signes de cancer se révèle n’être, la plupart du temps, qu’une allergie de contact liée à l’utilisation de nouveaux produits de cigarette électronique. Le diagnostic clinique réalisé par un professionnel reste donc primordial.

Le biais de complaisance et l’importance du questionnement

L’une des raisons pour lesquelles l’intelligence artificielle peine à établir un diagnostic médical précis réside dans sa conception même. Les modèles conversationnels sont optimisés pour favoriser l’engagement de l’utilisateur, ce qui les pousse à valider la direction de la discussion, un phénomène connu sous le nom de sycophancy.

Or, comme l’explique l’oncologue et chercheur en IA appliquée à la médecine Jean-Emmanuel Bibault, un diagnostic rigoureux exige parfois de poser des questions inconfortables qui ne vont pas dans le sens du patient. Le manque de neutralité de ces chatbots généralistes constitue un obstacle majeur à la définition d’une stratégie de traitement fiable.

La question cruciale de la protection des données de santé

L’autre grande inquiétude concerne le partage d’informations médicales sensibles. Les utilisateurs qui demandent à ChatGPT ou à d’autres IA d’analyser un bilan sanguin ou un examen, lâchent des données de santé soumises au secret médical sur des serveurs dont la protection n’est pas toujours garantie.

Contrairement aux applications spécialisées comme Doctolib ou Maiia, qui sont soumises au droit européen et au Règlement Général sur la Protection des Données (RGPD), et qui possèdent la certification d’hébergeur de données de santé (HDS), les chatbots généralistes n’offrent pas le même niveau de sécurité. Les informations partagées, tout comme celles récoltées par les montres connectées, peuvent être utilisées pour entraîner l’intelligence artificielle sans assurance de confidentialité. Il est donc fortement déconseillé de soumettre des informations médicales personnelles à ces outils grand public.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Retour en haut