Les agents de santé ont averti les risques de maltraitance Genai

Les agents de santé ont averti les risques de maltraitance Genai

Digital Network Health a publié une déclaration qui avertit les travailleurs de la santé des risques d’utilisation de l’IA génératrice pour créer des notes et des dossiers cliniques.

La commande de position avertit que les outils d’IA tels que le chat GPT ont le potentiel de modifier le contexte et la signification du contenu, de mal interpréter les résultats cliniques et de faire des erreurs de transcription.

Il soulève également des préoccupations concernant le risque de gestion de l’information associée aux données envoyées sur ces plateformes.

Euan McComiski, Health Informatics dirige à la Chartered Society of Physiotherapy et membre du comité consultatif pour les informations infirmières sur les soins infirmiers (CNIO) dans les réseaux de santé numériques (CNIO), “Le fait est que nous sautions trop tôt et nous et nous” “” nous “” nous “” nous “” Nous “” nous “” nous “” nous “” nous “” nous “” nous “” nous “” nous “” nous “” nous “” nous “” nous “” nous “” nous “” nous “” nous “” nous “” nous “” nous “” nous “” nous “” nous nous commencent à réfléchir à la façon dont nous pouvons obtenir et à mettre en œuvre ces solutions sans comprendre pleinement comment cela fonctionnerait.

«Par exemple, comment révéler nos données de santé et de soins sociaux très sensibles, IA? Nous devons être absolument sûrs qu’il est sûr et sûr. “

La déclaration est régie par la recherche par la Health Foundation, publiée en juillet 2024, a révélé que 76% des employés du NHS soutiennent l’utilisation de l’IA pour aider les soins aux patients et 81% ont préféré son utilisation pour les tâches administratives.

McComiskie a déclaré avoir entendu des “histoires d’horreur” sur la façon dont les experts médicaux utilisent l’IA.

«Ma préoccupation pour l’utilisation de l’IA génératrice est que nous savons que l’hallucination et la prise de décisions sur ce qui pourrait être une hallucination, la chaîne commence vraiment en ce qui concerne les événements, nous voulons donc essayer d’arrêter les cliniques en utilisant une IA inappropriée plutôt que de cesser de l’utiliser.

“Nous craignons simplement que les gens le fassent sans être conscients des risques potentiels, et c’est ce que nous voulons les souligner.”

McComiskie a également augmenté le problème de la distorsion qui peut être vos propres algorithmes d’IA.

«De nombreuses données sur les soins de santé que nous avons au Royaume-Uni sont basées sur une personne blanche, masculine, d’âge moyen, de classe moyenne, alphabétisée relativement saine, de l’anglais universitaire comme première langue, hétérosexuelle et cisgenred.

“Qu’en est-il de plus de 50% des personnes qui ne sont pas des hommes?”

“Si nous configurons un outil et un algorithme AI sur un ensemble incomplet de données, nous faisons la possibilité d’une santé inégale.”

L’énoncé de position met également en garde contre les étudiants en médecine qui s’appuient sur l’utilisation d’une IA générative pour le cours.

«Il a été démontré que les hallucinations GPT des références académiques, nous ne voudrions donc pas que les étudiants comptent sur une IA générative pour générer le cours.

«Je veux qu’ils l’utilisent comme source d’informations, mais pas comme la seule source d’information, et elle doit utiliser toutes les critiques académiques, comme s’ils étaient avec un magazine publié et révisé. Un document de politique ou de document stratégique.

“Nous ne disons pas que nous ne l’utilisons absolument pas.” Dites simplement, assurez-vous de l’utiliser aux bonnes fins. “

Pendant ce temps, des recherches publiées par le General Medical Council ont constaté en février 2025 que les médecins qui utilisent une IA génératrice voient les avantages de leur propre efficacité et de leurs soins aux patients et se sentent de manière auto-infidèle à leurs risques.

Références de sources

You might also like