Cyber ​​Madenats for Diagnostic et Outils pour soutenir la prise de décision clinique basée sur l’IA

Cyber ​​Madenats for Diagnostic et Outils pour soutenir la prise de décision clinique basée sur l’IA

Ceci est suivi par un article d’Ed Gaudet, fondateur et PDG de Censinet

Au fil des mots hyperboliques, la transformation appartient en haut de la liste. Pourtant, quand quelque chose est vraiment transformateur, c’est indéniable. C’est exactement ce que nous avons assisté à l’utilisation de l’intelligence artificielle (IA) dans l’industrie médicale: la vraie révolution de la transformation numérique.

Comme le marché des soins de santé en IA en 2024 valait 26,69 milliards de dollars et supposait atteindre plus de 600 milliards de dollars d’ici 2034, cette transformation réduit non seulement la frottement opérationnel et le fardeau administratif entre les organisations de santé, mais plus important encore, a le potentiel d’améliorer les résultats des patients grâce à un meilleur diagnostic et à un soutien clinique.

Cependant, ces transformations passionnantes ont le prix: les risques accrus de la cybersécurité – dont beaucoup ne sont pas prêts à gérer les agents de santé.

Comment les outils pour les objectifs de diagnostic AI et CDS pourraient-ils être

Sur l’IA, les systèmes de diagnostic traditionnels et de CDS ont préféré protéger les données sur les patients en termes de cybersécurité; Étant donné que les systèmes basés sur l’IA sont de plus en plus impliqués dans l’interprétation des données liées aux décisions de soins, les paris ont changé: les cyberattaques dans ces systèmes ne signifient plus la perte potentielle de données, elles peuvent signifier des dommages directs aux patients. Certaines des techniques utilisées par les mauvais acteurs comprennent:

  • Manipulation du modèle: Les attaques réfléchissantes sont lorsque les acteurs apportent des changements petits mais ciblés dans les données d’entrée, ce qui à son tour fait analyser les mauvaises données; Par exemple
  • Empoisonnement aux données: Les attaquants qui ont accès à des données de formation pour le développement de l’IA peuvent endommager cela, conduisant à des recommandations médicales nocives ou dangereuses
  • Modèle de vol et d’ingénierie inverse: Les attaquants peuvent obtenir des modèles d’IA à travers le vol ou l’examen logique pour extraire la faiblesse du modèle, puis créer de nouvelles versions nocives ou reproduire les modèles existants
  • Fausses entrées et instructions profondes: L’injection d’informations artificielles sur les patients, les dossiers médicaux manipulés et les résultats de l’affichage par le biais de systèmes conduisent à un traitement diagnostiqué incorrect
  • Perturbation de fonctionnement: Les institutions médicales utilisent des systèmes d’IA pour prendre des décisions d’exploitation telles que le tri des soins intensifs; L’invalidité ou la corruption de ces systèmes crée de graves perturbations opérationnelles qui menacent les deux patients et entraînent des retards critiques dans les hôpitaux

Pourquoi le risque dans les soins de santé est-il unique

Une erreur dans les soins de santé pourrait facilement signifier la vie et la mort. Les diagnostics incorrects causés par l’outil blessé de l’IA sont donc plus que la responsabilité financière; C’est une menace immédiate pour la vie des gens. De plus, il peut prendre du temps pour reconnaître la cyberattaque, mais le compromis des outils d’IA peut être immédiatement nocif si les médecins utilisent des informations défectueuses pour décider du traitement des patients. Malheureusement, s’assurer que le système d’IA dans cette industrie est extrêmement difficile en raison des anciennes infrastructures et des ressources limitées, sans parler de l’écosystème complexe du fournisseur.

Que devez-vous faire maintenant le leader des soins de santé

Il est important que les dirigeants de cette industrie réfléchissent attentivement à cette menace et se préparent en conséquence. Les données ne sont pas la seule propriété qui nécessite une protection sévère, des modèles d’IA, des processus de formation et l’ensemble de l’écosystème doit également protéger.

Voici les étapes clés à considérer:

  • Effectuer une évaluation complète des risques de l’IA: Avant d’introduire des outils de diagnostic ou de prise de décision clinique (CDS), effectuez des évaluations de sécurité approfondies pour comprendre les risques et la vulnérabilité et planifier des temps d’arrêt prolongés dans ces systèmes.
  • Mettre en œuvre les vérifications de la cybersécurité spécifiques à l’IA: Suivez les procédures de cyber-sécurité créées pour les systèmes d’IA en effectuant la surveillance des attaques contradictoires et la vérification du modèle de sortie également
  • Sécurisez une chaîne de fournisseurs: Exiger des vendeurs de troisième partie pour fournir des informations détaillées sur la sécurité du modèle, ainsi que les procédures de formation et de mise à jour; Research Ponemon Institute a révélé que les vulnérabilités des concessionnaires de troisième partie représentaient 59% des violations des soins de santé, de sorte que les organisations médicales doivent s’assurer que le risque de technologie d’IA concernant les technologies d’IA pour la technologie de l’IA doit s’assurer que la technologie de la technologie d’IA objectif
  • Employés cliniques et informatiques formés aux risques de l’IA: Le personnel clinique et les employés informatiques ont besoin d’une formation approfondie sur les cas d’utilisation approuvés et des faiblesses de sécurité spécifiques existant dans les systèmes d’IA; Les employés doivent suivre une formation qui leur permet de reconnaître les écarts dans la production d’IA, montrant une cyber-manipulation potentielle ou des hallucinations modèles.
  • Normes et couples de défense des normes: Les organisations de santé devraient préconiser des normes et des réglementations strictes spécifiques à l’intelligence artificielle et coopérer et partager des vulnérabilités identifiées dans les technologies de l’IA; Le Conseil de coordination du secteur médical et le programme HHS 405 (d) fournissent des fondations de base, mais des mesures supplémentaires sont nécessaires

L’avenir de l’IA dans les soins de santé dépend de la confiance

L’IA a un potentiel important pour transformer la prestation des soins et des opérations hospitalières; Cependant, si les cyber-menaces menacent ces avancées, la confiance entre les médecins cliniques et les patients peut rapidement éroder – menaçant non seulement l’adoption mais aussi la sécurité des patients.

La sécurité doit être consacrée à chaque étape du développement et de la mise en œuvre de l’intelligence artificielle – elle n’est pas seulement un impératif clinique et opérationnel, mais aussi moral. Les têtes de soins de santé sont responsables de la protection du diagnostic de l’IA contrôlée et d’un outil pour soutenir la prise de décision clinique avec la même rigueur appliquée à d’autres systèmes critiques. L’avenir de l’innovation dans les soins de santé dépend de la confiance comme sur la base. Sans des systèmes d’IA sûrs et fiables qui augmentent les performances cliniques, nous ne pouvons pas gagner ou maintenir cette confiance.

À propos d’Ed Gaudet

Ed Gaudet est le fondateur et PDG de Censinet avec plus de 25 ans de gestion dans le domaine de l’innovation, du marketing et des ventes de logiciels entre les startups et les sociétés publiques. Auparavant, CMO et GM dans Imprivata ont mené son expansion aux soins de santé et ont lancé la plate-forme Cortext primée. Ed détient plusieurs brevets dans le domaine de la vérification, des droits et de la sécurité et siège au groupe de travail du cybersécurité HHS 405 (d) et de plusieurs effectifs pour coordonner le Conseil du secteur de la santé.

Références de sources

You might also like