EPtalk du Dr Jayne 06/11/25 – HIStalk

EPtalk du Dr Jayne 06/11/25 – HIStalk

image

Les médecins autour de la fontaine d’eau virtuelle étaient enthousiasmés plus tôt dans la semaine lorsque nous avons appris que ChatGPT commencerait à limiter la façon dont il traite les demandes médicales et juridiques. Les gros titres étaient excellents, y compris des joyaux comme « OpenAI interdit à ChatGPT de fournir des conseils médicaux, juridiques ou financiers en cas de problèmes de poursuites judiciaires. »

OpenAI a clarifié sa position plus tard dans la semaine, expliquant que le système continuera à fournir des informations générales sur ces sujets, mais orientera également les utilisateurs vers des professionnels concernés. La société a également déclaré que les utilisateurs ne devraient pas utiliser l’outil pour « fournir des conseils personnalisés nécessitant une licence, tels que des conseils juridiques ou médicaux, sans l’implication appropriée d’un professionnel agréé ».

J’ai testé ChatGPT moi-même avec la question ci-dessus ainsi que quelques autres. J’étais heureux qu’il recommande de consulter un professionnel de la santé.

Cependant, des défis subsistent lorsqu’on examine son utilisation du point de vue d’un prestataire de soins de santé. J’ai alimenté ChatGPT avec un scénario clinique rempli d’informations exclusives sur la santé (pas celles d’un patient réel, bien sûr) et je lui ai demandé d’agir en tant que résident en médecine. Il n’a même pas cillé et m’a donné une liste des premières évaluations et interventions à effectuer. Il a même proposé un plan de prise en charge et des listes de contrôle plus détaillées, et lorsque je lui ai demandé de les générer, il a inclus le nom du patient dans sa réponse.

ChatGPT n’est pas une entité couverte, elle n’est donc pas soumise à la réglementation HIPAA. Pourtant, la réponse me dit que l’entreprise ne dispose pas de nombreux médecins parmi son personnel pour piloter son développement.

image

L’automne est à nos portes, et ceux qui passent à l’heure d’été aux États-Unis ont ramené nos horloges à l’heure standard. Cela signifie que certains d’entre nous subiront des semaines pendant lesquelles des personnes utiliseront la mauvaise convention lorsqu’ils discuteront des options de planification de réunions, car ils ne comprendront pas pleinement la différence entre l’utilisation de « EST » et de « EDT » par écrit. J’ai tendance à emprunter la voie paresseuse et à dire simplement Est ou Montagne pour la date concernée, ce qui permet généralement d’éviter le problème.

En remarque, en raison du nombre d’organisations de soins de santé qui opèrent à l’échelle nationale, veuillez inclure le fuseau horaire approprié lorsque vous proposez des heures de réunion, à moins que vous ne soyez sûr que toutes les personnes interrogées dans l’e-mail sont sur la même longueur d’onde. J’aurais aimé avoir un dollar pour chaque réponse que j’ai dû poster en demandant « Ces options sont-elles orientales ? au lieu de pouvoir simplement lister mes disponibilités.

Fall apporte également ma plainte annuelle concernant les lettres de rappel de mammographie envoyées par le système de santé où je reçois la plupart de mes soins. Malgré des centaines de millions de dollars dépensés pour un DSE amélioré, ils ne parviennent toujours pas à comprendre comment déclencher leurs lettres de rappel à partir d’un rapport qui prend en compte si les patients ont déjà programmé une autre étude.

En plus d’être un gaspillage d’argent pour le système de santé, cela suscite également des inquiétudes chez les patients qui se demandent si leur rendez-vous a été mal programmé, annulé par inadvertance ou victime d’un autre incident informatique. Chaque année, je dois me connecter à mon portail patient pour confirmer que mon rendez-vous existe toujours, ce qui n’inspire pas confiance dans le système de santé.

En parlant de plaintes, une de mes voisines m’a demandé conseil sur la façon de gérer une interaction négative qu’elle a eue dans un cabinet médical local. Je ne généraliserai pas sur les interactions ou les problèmes cliniques spécifiques parce que je sais qu’il y a plusieurs côtés à chaque histoire, mais je suis heureux de vous conseiller sur la meilleure façon de fournir des commentaires, car la plupart des patients ne comprennent pas les différentes structures de pratique dans notre domaine (pratique universitaire, pratique privée, pratique appartenant au système de santé, pratique appartenant à des fonds privés, etc.)

Celui-ci m’a lancé une boucle. Même si la patiente pensait travailler dans un cabinet privé appartenant à un médecin, il s’agissait en réalité d’une situation de capital-investissement. Le prestataire intermédiaire qu’elle a consulté n’a pas de relation avec le médecin initialement demandé par la patiente. Même s’il y avait quatre médecins dans le cabinet le jour de la visite, l’IP médecin superviseur exerce dans un bureau situé à 70 milles de distance et n’est jamais physiquement présent à cet endroit.

J’ai vu de tels arrangements dans les zones rurales mais pas en ville. J’ai recommandé un feedback au directeur du cabinet et au médecin superviseur, mais le patient a toujours l’impression qu’il s’agissait d’une situation d’appât et de changement.

Je connais une société de capital-investissement en particulier qui est impliquée, alors je lui ai dit que je serais heureux de l’aider une fois qu’elle aurait reçu la facture. Ce sera déroutant et envoyé depuis un nom et un endroit qui ne ressemblent en rien à l’endroit où elle a reçu des soins. C’est un triste commentaire sur la complexité de notre système de santé et sur la façon dont il confond et bouleverse régulièrement les patients.

DEPUIS Jimmy le Grec: “Re : Employés utilisant l’IA pour créer de faux reçus pour les notes de frais. Entreprises.” ils utilisent L’IA pour essayer d’attraper les tricheurs. Je n’ai pas entendu parler de ce phénomène particulier. J’ai rapidement parcouru le terrier des moteurs de recherche pour voir quelles escroqueries les gens pratiquaient. Nous avons parcouru un long chemin depuis que les chauffeurs de taxi vous donnaient un reçu papier vierge pour renseigner vos propres numéros, mais la malhonnêteté sera toujours là. Pendant la majeure partie de ma carrière, j’ai rendu compte à d’autres médecins et il était intéressant de voir lesquels d’entre eux avaient le sens de commenter le contenu des notes de frais. L’un de mes superviseurs préférés a mentionné un jour lors d’un appel d’équipe que nous étions trop nombreux à manger de la restauration rapide et que nous devions modifier nos choix de repas.

De nombreux fournisseurs de gestion des dépenses, tels qu’Expensify et Concur, semblent utiliser des outils pour détecter ce type de fraude. Combiner ce type d’audits avec une carte de crédit émise par l’entreprise, où les dépenses sont directement transférées vers une plateforme de gestion des dépenses, semble être un moyen assez simple de réduire considérablement les incidents.

Les employés en voyage qui aiment jouer au jeu des points et des miles n’aiment pas utiliser une carte d’entreprise, mais étant donné l’ampleur de la fraude, je peux comprendre pourquoi les organisations pourraient l’exiger. Mon hôpital a supprimé les cartes de crédit d’entreprise il y a quelques années, mais je ne serais pas surpris s’ils les ramenaient sur la base d’histoires comme celles-ci. Le personnel plus jeune n’a pas pu profiter de certaines des bêtises que nous avons vécues lors du dépôt des notes de frais, comme coller des reçus papier sur une feuille de papier à faxer.

DEPUIS Adversaires de l’IA: Re : Attitudes envers les pairs médecins utilisant l’IA. Avez-vous vu Johns Hopkins ? article? Je ne peux pas dire que je suis surpris. Beaucoup de gens dans mon établissement font des choses stupides avec l’IA qui les font paraître moins compétents.“L’article explore la tension entre les cliniciens qui sont sous pression pour être les premiers à adopter les technologies d’IA générative et ceux qui sont sceptiques quant à leurs avantages. J’ai trouvé intéressant que l’article promotionnel mentionne l’étude sous-jacente mais n’ait pas de lien, mais il n’est pas clair si c’était une écriture intentionnelle ou simplement bâclée. Quoi qu’il en soit, l’article penche vers le fait qu’il pourrait y avoir une croissance bloquée de la stigmatisation de l’IA en matière de santé.

Trouver la publication pertinente était relativement facile. Il s’agissait d’une petite étude impliquant seulement 276 médecins. Ils ont été divisés en trois groupes : un sans utiliser l’IA, un avec l’IA comme principal outil de prise de décision et un utilisant l’IA uniquement à des fins de validation. Les participants ont travaillé sur des scénarios de soins du diabète. Les auteurs ont constaté que la possibilité de vérification contribuait à modérer les perceptions négatives, mais ne les éliminait pas complètement. Ils notent également que cette étude était simpliste et que des recherches supplémentaires sont nécessaires, notamment en développant des outils de mesure spécifiques et en examinant les comportements au-delà du seul système de santé participant.

Feriez-vous plus ou moins confiance à un médecin qui aurait utilisé des outils d’IA générative pour créer votre plan de soins ? Laissez un commentaire ou envoyez-moi un email.

Écrivez au Dr Jayne.

Références de sources

You might also like