Navigation double épée AI: cyber-résistance dans les soins de santé
Suivi d’un article d’un invité de David Lindner, principal responsable de la sécurité de l’information et de la protection des données personnelles Sécurité contrastée
Dans l’intégration de l’IA, l’organisation de la santé est confrontée à des actes complexes, à la navigation dans la promesse d’avantages importants ainsi que leurs propres risques. Cette technologie apporte de nombreux avantages, tels que l’accélération et l’amélioration des diagnostics des patients. Il peut également sauver des vies en élargissant la recherche et en testant des médicaments et des traitements. Comme pour les implémentations de l’IA dans n’importe quelle industrie, cependant, il existe des inconvénients – par exemple, la confidentialité et la précision.
Il nécessite l’utilisation de données détaillées sur les patients et met l’accent sur la signification critique de la gestion responsable des données et minimise la collecte inutile. Cependant, pour éviter l’exposition des informations sensibles aux soins de santé, les entités de santé doivent également s’assurer que ces données sont sûres et séparées des autres sociétés (et plus générales).
D’un autre côté, les sociétés médicales ont un avantage en termes de traitement minutieux des données d’identification personnelle (PII). Exemple: Exemple: le besoin à long terme d’observer la loi sur l’assurance maladie (HIPAA) de la portabilité et de la responsabilité (HIPAA). C’est la même réflexion à la protection des données qu’il doit utiliser lors de l’utilisation de l’IA.
Les progrès médicaux permettant l’IA
L’IA transforme rapidement les soins de santé et offre des avantages importants dans le diagnostic, la gestion des données et la recherche. Les outils d’IA sont de plus en plus utilisés dans la recherche sur la santé publique pour analyser de grands ensembles de données à partir des dossiers de santé électroniques (DSE) et des registres, ce qui minimise la distorsion de ses méthodes d’enquête traditionnelles. Les outils soutiennent la prévalence des maladies et la modélisation prédictive pour des interventions mieux éclairées. Les plateformes d’IA rendent également l’analyse d’images plus efficace, permettant des diagnostics plus rapides, en particulier dans les paramètres limités aux ressources.
Par exemple, les modèles d’évaluation des risques soutenus par AM sont Aide à améliorer le niveau de diagnostic précoce traiter les patients plus tôt. Le Miami Cancer Institute a accru sa capacité à diagnostiquer la malignité de 10% grâce à un modèle de vision par ordinateur pour analyser les images de mammographie. La Faculté de médecine de l’Université de New York (NYU), qui utilise l’algorithme de l’IA pour analyser les images de mammographie, a prédit le score de risque pour le cancer du sein jusqu’à cinq ans avant le diagnostic – ce n’était pas possible.
En traitant plus de points de données que l’homme, les algorithmes de l’IA peuvent révéler des signaux précoces qui augmentent le diagnostic et les interventions sauvant la vie chez les patientes atteintes d’un cancer du sein.
Une autre technologie émergente est la forme avancée de l’IA – AI, qui prend de manière autonome des décisions, prend des mesures et s’adapte à l’évolution de l’environnement et des objectifs sans supervision humaine constante requise. Dans l’industrie médicale, l’agent AI effectue une planification personnalisée du traitement, une surveillance des patients et une automatisation des tâches administratives. Bientôt, nous pouvons voir l’agent d’intelligence artificielle intégrée à des dispositifs médicaux pour surveiller la santé de l’individu et informer l’équipe médicale si elle a besoin d’attention.
Les outils d’IA open source sont un moyen rentable d’utiliser l’IA, ce qui rend la technologie plus accessible aux organisations de toutes tailles et entre les départements. Les options open source aident également à décomposer les silos de données, prennent en charge une plus grande communication et coopération inter-fonctionnaires.
Bien que la transparence de l’IA open source autorise les avantages potentiels de sécurité, il est essentiel de comprendre que la sécurité dépend en grande partie d’une évaluation stricte et d’une mise en œuvre responsable, non seulement s’il s’agit d’une open source. Il est particulièrement important de ne pas envoyer des données de l’organisation dans une entité indigne de confiance (par exemple, peu de temps après la libération de la profondeur, il a été constaté qu’il était Envoi de données en Chine). Les fournisseurs de cloud offrent des mesures de sécurité robustes, mais les organisations médicales doivent effectuer une diligence raisonnable approfondie pour s’assurer que les normes d’un fournisseur sélectionné répondent à leurs exigences spécifiques pour la sécurité et la conformité. La sécurité dans le cloud est une responsabilité partagée.
La clé avec une IA open source est de s’assurer où les données sont stockées et quelles entités peuvent y avoir accès. Ces informations sont souvent accessibles au public (et sinon, il est préférable d’éviter cet outil).
Risques inhérents à
Avec d’innombrables avantages de l’IA, il existe des risques dans les offres open source et propriétaires. Projet d’application Web ouvrir (OWASP) Top 10 pour les applications avec une grande langue Il présente les 10 vulnérabilités les plus importantes qui sont souvent observées dans le modèle de grande langue (LLM) et les applications génératrices d’IA. Le petit échantillonnage comprend:
- Injection rapide – La vulnérabilité axée sur les systèmes d’IA et les manipulations LLM avec leur comportement grâce à des entrées soigneusement créées, permettant aux adversaires de contourner la garantie et d’affecter les réactions du modèle
- Fuite de données – LLMS, surtout s’ils sont insérés dans les applications, le risque de détecter des données sensibles, des algorithmes propriétaires ou des détails intimes grâce à leur sortie, ce qui peut conduire à un accès non autorisé aux données, à la violation de la protection personnelle des données et de l’infraction et de l’infraction
- Les données et l’empoisonnement du modèle – Manipulation délibérée avec l’ensemble de données de formation ou de paramètres du modèle utilisé pour développer des modèles d’IA pour influencer le comportement du modèle
- Traitement de sortie incorrect – Vérification, désinfection et manipulation insuffisantes Sorties générées par LLMS avant de passer en aval à d’autres composants et systèmes
La protection des données réduit les risques et aide à maintenir la confiance en sa précision
Comme pour tout type de problème de cybersécurité, il n’y a pas de solution à temps unique qui garantit que les données sensibles sont protégées lorsqu’elles sont utilisées avec une IA open source. Cependant, une combinaison de diverses mesures peut aider l’organisation à réduire le risque d’exposition.
Par exemple, les plates-formes de vérification de l’IA testent et surveillent strictement les modèles d’IA dans les systèmes de dossiers de santé électroniques (DSE) pour garantir la précision et la conformité. Les avis de code identifient et soulaient la vulnérabilité dans une base de code qui pourrait mettre en danger l’intégrité des données, de la confidentialité ou de la sécurité. Ces avis peuvent également garantir que les tuyaux de données sont assurés en vérifiant comment les ensembles de données d’entraînement sont utilisés et traités, ce qui réduit le risque d’attaquer les données et l’empoisonnement du modèle.
L’identification, plutôt qu’une anonymisation stricte, est une technique clé pour la protection des données des patients dans l’IA. Cependant, il est difficile d’atteindre une véritable désindification des soins de santé en raison de la nature détaillée des données médicales et du risque de ré-identification doit être soigneusement géré. Le masquage des données où les données sensibles sont remplacées par des valeurs fictives mais réalistes, la généralisation qui regroupe les attributs scientifiques dans des catégories plus larges et la génération de données synthétiques où les ensembles de données artificiels répliquent les modèles statistiques de données originales sans inclure des individus réels.
En fin de compte, l’IA n’est qu’une autre forme de logiciel. Les entreprises doivent définir les principes de protection des données confidentielles et l’utilisation d’outils d’IA. La nature collaborative de l’IA open source peut éventuellement favoriser l’efficacité et la coopération, accélérer l’innovation et créer des solutions pour les défis de santé les plus urgents.
À propos de David Lindner
David est un expert expérimenté en matière de sécurité avec plus de 20 ans en cybersécurité.
Il travaille actuellement comme principal responsable de la sécurité de l’information et dirige également l’équipe de Labs Contrast, qui se concentre sur l’analyse de l’intelligence des menaces pour aider les clients commerciaux à développer des approches plus actives de leurs programmes de sécurité. L’expertise de David comprend diverses disciplines de sécurité, du développement des applications et de l’architecture du réseau à la sécurité informatique, au conseil et à la formation. Pendant son temps libre, David aime le golf, la pêche et la collection de cartes sportives – des passe-temps qui offrent un changement bienvenu dans le tempo du monde numérique.
Obtenez de nouveaux soins de santé et des histoires informatiques fournies quotidiennement
Rejoignez des milliers de vos collègues de santé et collègues de santé qui postuleront pour notre newsletter quotidien.

