Consultation en bordure de rue avec le Dr Jayne 15/12/25 – HIStalk
Un ami m’a contacté ce week-end pour me demander mon avis sur les risques liés à l’intégration d’informations médicales dans ChatGPT et d’autres outils d’IA accessibles au public. Elle voulait savoir si j’étais d’accord avec un récent article du New York Times à ce sujet.
Ma première préoccupation est l’exactitude des informations médicales saisies. Mes propres dossiers contenaient diverses informations erronées au cours des dernières années, notamment des résultats de tests documentés qui n’ont pas eu lieu, des diagnostics erronés et au moins un document numérisé dans le mauvais dossier.
Il y avait également des erreurs mineures, telles que des inexactitudes dans la dictée/transcription, qui n’ont pas été détectées lors de l’édition. Ils ne changent pas sensiblement le contenu de l’album, mais je ne voudrais pas qu’ils soient sortis de leur contexte.
L’article commence par un scénario dans lequel un patient reçoit des résultats de test anormaux. Elle a “trop peur d’attendre pour parler à son médecin”, alors elle publie un rapport du laboratoire sur ChatGPT. Il lui dit qu’elle pourrait avoir une tumeur hypophysaire.
Il s’agit d’un excellent exemple des conséquences involontaires de donner aux patients l’accès à leurs résultats de laboratoire avant que le médecin prescripteur ne les examine. C’est la loi et les patients ont droit à leurs informations, mais dans certaines circonstances, cela peut leur être préjudiciable. Je suis heureux que les organismes de soins donnent aux patients le choix de recevoir leurs résultats avant ou après leur interprétation par l’équipe soignante.
Un autre scénario impliquait un patient téléchargeant une demi-décennie de dossiers médicaux et posant des questions sur son plan de soins actuel. ChatGPT a recommandé au patient de demander à son médecin un cathétérisme cardiaque.
L’intervention a été réalisée et le patient présentait un blocage important. Cependant, il est difficile de savoir quel aurait été le résultat si le plan de soins initial avait été suivi. La rédaction du scénario ne comportait aucune discussion sur la façon dont les choses ont progressé lorsque le patient a insisté pour la procédure, ni sur la question de savoir si d’autres conséquences, telles que des problèmes d’assurance, résultaient de la recherche d’un niveau d’intervention plus élevé.
La plupart des patients que je vois ne comprennent pas entièrement la loi HIPAA. Ils pensent que tout type d’information médicale est, d’une manière ou d’une autre, protégée par magie. Ils ne savent pas ce qu’est une entité couverte dans un rôle de protection des informations. Ils divulguent quotidiennement des tonnes d’informations personnelles sur la santé via des trackers de fitness et d’autres applications sans savoir comment ces informations sont utilisées ni où elles vont.
Personnellement, je ne voudrais pas donner l’intégralité de mon dossier à un tiers en le téléchargeant sur un outil d’IA. Je ne sais pas comment cet outil gère la désidentification et je ne veux pas passer des heures à lire les conditions générales détaillées ou le contrat de licence d’utilisateur final. Au vu du nombre de personnes qui partagent leurs informations de cette manière, il est clair que beaucoup n’ont pas peur du risque.
L’un des professeurs interrogés pour l’article a noté que les patients ne devraient pas supposer que l’outil d’IA adapte ses résultats en fonction des informations de santé détaillées qu’ils ont téléchargées. Les patients peuvent ne pas être suffisamment sophistiqués pour créer un défi qui oblige le modèle à utiliser spécifiquement ces informations, ou ils peuvent ne pas être au courant des instructions contenues dans le modèle pour gérer ce type d’informations d’une certaine manière.
Supposer que vous recevez une réponse adaptée à vos besoins peut s’avérer difficile, d’autant plus qu’une grande partie de la littérature médicale s’intéresse à la manière dont les processus pathologiques se produisent dans la population dans son ensemble plutôt que chez l’individu.
Les commentaires sur l’article sont intéressants. L’un d’eux a averti les utilisateurs d’envisager d’utiliser plusieurs modèles, de poser les mêmes questions et de comparer les modèles les uns aux autres pour garantir la validité des résultats. Je ne vois pas le patient moyen prendre le temps de faire ça.
D’autres ont expliqué comment ils utilisaient ChatGPT pour gérer leurs propres soins. Une commentatrice a mentionné qu’elle l’utilisait également pour rechercher les soins prodigués à son animal et pour modifier le régime prescrit par son vétérinaire.
Des inquiétudes ont également été exprimées quant à la possibilité de distorsions et d’intrusion de publicités, en particulier lorsqu’il s’agit de médicaments spécifiques encore sous brevet.
Plusieurs lecteurs ont partagé des histoires d’outils d’IA faisant des recommandations de soins très inappropriées qui pourraient être nocives si les patients ne faisaient pas plus de recherches sur ces suggestions. L’un d’eux a spécifiquement mentionné « le réconfort doux et autoritaire des réponses de l’IA sur un ton qui n’est pas sans rappeler celui d’une conversation avec un ami médecin de confiance et intelligent », bien qu’il ait « totalement tort sur plusieurs points ».
Un autre lecteur a déclaré que des outils comme ChatGPT formulent leurs réponses à partir de documents trouvés en ligne. À moins de demander spécifiquement des citations, il est difficile de savoir si l’information provient d’une revue médicale ou d’une association dédiée aux patients atteints d’une maladie particulière. Ou alors il était juste maquillé.
Les lecteurs ont également demandé la certification des modèles utilisés à des fins médicales. L’un d’eux a commenté : « Mon médecin devait obtenir un diplôme et obtenir une licence. S’il se trompe suffisamment, il peut perdre sa licence. Il devrait y avoir des procédures pour évaluer la qualité des conseils médicaux d’un chatbot et le tenir responsable de ses erreurs. Les conversations médicales avec lui ne sont pas comme discuter avec votre voisin de vos problèmes.
Je n’y pensais pas de cette façon. C’est une idée utile que je peux utiliser lorsque je parle aux patients qui ont utilisé les outils. Les informations qu’ils obtiennent peuvent être meilleures ou non que celles qu’ils obtiendraient d’un voisin de l’autre côté de la clôture, mais il est difficile de le savoir.
Un commentaire a souligné que puisque les médecins utilisent ces outils pour leur travail, il est tout à fait juste que les patients y aient également accès. Un commentaire ultérieur indiquait que l’auteur “est venu voir les nouveaux résidents pour rechercher les symptômes du patient sur Google”.
On se demande quel impact ces outils auront sur la formation médicale supérieure. La prochaine génération de médecins construit-elle ses connaissances et compétences internes en mémoire de la même manière que les générations précédentes ? Dans le cas contraire, ce sera un choc brutal pour eux lorsqu’ils devront subir une panne ou une panne importante pour la première fois.
Il sera également intéressant de voir comment les taux de réussite aux examens changent pour les médecins formés à l’ère post-IA par rapport à ceux d’entre nous qui n’ont pas eu accès à ces outils.
Que pensez-vous du fait que les patients fournissent leurs informations médicales à LLM ? Prestataires, dans quelles circonstances le recommanderiez-vous ? Laissez un commentaire ou envoyez-moi un email.
Écrivez au Dr Jayne.

