La législation proposée prépare un moyen de prescrire des médicaments
La législation proposée établie à la Chambre des représentants des États-Unis permettra à l’IA et à la technologie d’apprentissage automatique de prescrire des médicaments approuvés par la FDA de manière autonome.
Facture, Le HR238, présenté le 7 janvier, nécessiterait un changement dans les aliments fédéraux, les drogues et les cosmétiques (FFDCA) pour «préciser que l’intelligence artificielle et la technologie d’apprentissage automatique peuvent être éligibles en pratique pour prescrire des médicaments s’ils sont autorisés par l’État et l’État et approuvé, nettoyés ou autorisés par la gestion des aliments et des médicaments et à d’autres fins. “
Le La prescription de médicaments utilisant l’intelligence artificielle ou les technologies d’apprentissage automatique, ou, si elle est approuvée, “Healthy Technology Act de 2025”, a été parrainée par Rep. David Schweikert (R -AZ.).
S’il est approuvé, l’article 503 (a) sera modifié. B) FFDCA et a ajouté que ce terme serait reconnu comme “pratiquant une autorisation de droit pour soumettre ces médicaments”.
Cela comprendrait la technologie de l’intelligence artificielle et de l’apprentissage automatique, qui est autorisée en fonction du “statut d’état” et approuvée, nettoyée ou autorisée selon les articles 510 (a). K), 513, 515 ou 564 FDA.
Le projet de loi a été renvoyé au Comité de l’énergie et du commerce.
Tendance
L’IA peut effectuer avec précision des tâches telles que “La détection radiologique des nœuds pulmonaires dans l’affichage et d’autres applications déjà approuvées pour une utilisation clinique”, explique une étude publiée dans NIH la National Medical Library.
L’IA est utilisée de diverses manières dans les soins de santé, y compris la documentation environnante, l’accélération de la découverte de médicaments, la réduction du fardeau administratif et plus encore.
Cependant, certains experts pensent que l’IA n’est pas prête à utiliser dans de nombreux aspects des soins.
“Des études récentes suggèrent que Generative Formed 4 avec Vision (GPT-4V) surmonte les médecins humains dans les tâches du défi médical. Cependant, ces évaluations se sont principalement portées sur l’exactitude de plusieurs élections, «selon des scientifiques des établissements de santé nationaux.
Cependant, les scientifiques ont constaté que le GPT-4V présentait souvent une justification défectueuse pour expliquer pourquoi elle a fait le bon choix final, surtout quand il s’agit de comprendre l’image.
“Nos résultats soulignent la nécessité d’une évaluation plus approfondie de ses raisons avant d’intégrer ces modèles d’IA multimodaux dans des flux de travail cliniques”, ont écrit les scientifiques.
DANS Interview avec TV HIMSS TV, Harjinder Sandhu, CTOS des plates-formes de santé et Solutions Microsoft, décrit les cas de grande valeur et d’utilisation à risque élevé sur l’utilisation de l’IA dans les soins de santé.
“Si l’IA hallucine les informations, elle crée des informations sur ce patient ou omet des informations importantes qui peuvent conduire à des conséquences catastrophiques pour ce patient”, a déclaré Sandhu.

